Em resumo
- Harari disse que a IA deve ser entendida como agentes autônomos ativos, e não como uma ferramenta passiva.
- Ele alertou que os sistemas construídos principalmente com base em palavras, incluindo religião, direito e finanças, enfrentam maior exposição à IA.
- Harari instou os líderes a decidirem se tratarão os sistemas de IA como pessoas jurídicas antes que essas escolhas sejam feitas por eles.
O historiador e autor Yuval Noah Harari alertou na terça-feira no Fórum Económico Mundial que a humanidade corre o risco de perder o controlo sobre a linguagem, que ele chamou de “superpotência” definidora, à medida que a inteligência artificial opera cada vez mais através de agentes autónomos em vez de ferramentas passivas.
Autor de “Sapiens”, Harari tornou-se uma voz frequente nos debates globais sobre as implicações sociais da inteligência artificial. Ele argumentou que os códigos legais, os mercados financeiros e a religião organizada dependem quase inteiramente da linguagem, deixando-os especialmente expostos a máquinas que podem gerar e manipular texto em grande escala.
“Os humanos dominaram o mundo não porque somos os mais fortes fisicamente, mas porque descobrimos como usar as palavras para conseguir que milhares e milhões e milhares de milhões de estranhos cooperassem”, disse ele. “Este era o nosso superpoder.”
Harari apontou para religiões baseadas em textos sagrados, incluindo o judaísmo, o cristianismo e o islamismo, argumentando que a capacidade da IA de ler, reter e sintetizar vastos corpos de escrita poderia tornar as máquinas os intérpretes mais autorizados das escrituras.
“Se as leis forem feitas de palavras, a IA assumirá o controle do sistema jurídico”, disse ele. “Se os livros forem apenas combinações de palavras, então a IA assumirá o controle dos livros. Se a religião for construída a partir de palavras, então a IA assumirá o controle da religião.”
Em Davos, Harari também comparou a disseminação dos sistemas de IA a uma nova forma de imigração, e disse que o debate em torno da tecnologia se concentrará em breve na questão de saber se os governos devem conceder personalidade jurídica aos sistemas de IA. Vários estados, incluindo Utah, Idaho e Dakota do Norte, já aprovaram leis declarando explicitamente que a IA não pode ser considerada uma pessoa perante a lei.
Harari encerrou as suas observações alertando os líderes globais para agirem rapidamente em relação às leis relativas à IA e não presumirem que a tecnologia permanecerá um servidor neutro. Ele comparou o impulso actual para adoptar a tecnologia a casos históricos em que mercenários posteriormente tomaram o poder.
“Daqui a dez anos, será tarde demais para decidir se as IAs devem funcionar como pessoas nos mercados financeiros, nos tribunais, nas igrejas”, disse ele. “Alguém já terá decidido isso por você. Se você quiser influenciar o rumo que a humanidade está tomando, você precisa tomar uma decisão agora.”
Os comentários de Harari podem atingir duramente aqueles que temem o avanço da disseminação da IA, mas nem todos concordaram com o seu enquadramento. A professora Emily M. Bender, linguista da Universidade de Washington, disse que posicionar riscos como Harari fez apenas desvia a atenção dos atores humanos e das instituições responsáveis pela construção e implantação de sistemas de IA.
“Parece-me que é realmente uma tentativa de ofuscar as ações das pessoas e corporações que constroem esses sistemas”, disse Bender. Descriptografar em uma entrevista. “E também uma exigência de que todos renunciem aos nossos próprios direitos humanos em muitos domínios, incluindo o direito às nossas línguas, aos caprichos destas empresas disfarçadas dos chamados sistemas de inteligência artificial.”
Bender rejeitou a ideia de que “inteligência artificial” descreve uma categoria clara ou neutra de tecnologia.
“O termo inteligência artificial não se refere a um conjunto coerente de tecnologias”, disse ela. “É, efectivamente, e sempre foi, um termo de marketing”, acrescentando que os sistemas concebidos para imitar profissionais como médicos, advogados ou clérigos carecem de casos de utilização legítimos.
“Qual é o propósito de algo que pode soar como um médico, um advogado, um clérigo e assim por diante?” Bender disse. “O objetivo é a fraude. Ponto final.”
Embora Harari tenha apontado para a utilização crescente de agentes de IA para gerir contas bancárias e interações comerciais, Bender disse que o risco reside na rapidez com que as pessoas confiam em resultados gerados por máquinas que parecem confiáveis – embora carecem de responsabilidade humana.
“Se você tem um sistema que você pode abordar com uma pergunta e receber algo que parece uma resposta – que é despojado de seu contexto e despojado de qualquer responsabilidade pela resposta, mas posicionado como vindo de algum oráculo onisciente – então você pode ver como as pessoas gostariam que isso existisse”, disse Bender. “Acho que há um grande risco de que as pessoas comecem a se orientar nessa direção e a usar esse resultado para moldar suas próprias ideias, crenças e ações.”
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




