Decrypt logoAnthropic's Claude AI. Image: Shutterstock/Decrypt

Em resumo

  • O CEO da Anthropic, Dario Amodei, alerta que sistemas avançados de IA podem surgir nos próximos anos.
  • Ele aponta testes internos que revelaram comportamento enganoso e imprevisível em condições simuladas.
  • Amodei diz que incentivos fracos à segurança podem ampliar os riscos de biossegurança, uso autoritário e deslocamento de empregos.

O CEO da Anthropic, Dario Amodei, acredita que a complacência está se instalando no momento em que a IA se torna mais difícil de controlar.

Em um amplo ensaio publicado na segunda-feira, intitulado “A adolescência da tecnologia”, Amodei argumenta que os sistemas de IA com capacidades muito além da inteligência humana poderão surgir nos próximos dois anos – e que os esforços regulatórios foram desviados e não conseguiram manter ritmo com o desenvolvimento.

“A humanidade está prestes a receber um poder quase inimaginável e não está profundamente claro se os nossos sistemas sociais, políticos e tecnológicos possuem a maturidade para exercê-lo”, escreveu ele. “Estamos consideravelmente mais próximos do perigo real em 2026 do que estávamos em 2023”, disse ele, acrescentando: “a tecnologia não se importa com o que está na moda”.

Os comentários de Amodei vêm de seu debate no Fórum Econômico Mundial em Davos na semana passada, quando ele discutiu com o CEO do Google DeepMind, Demis Hassabis, sobre o impacto da AGI na humanidade.

No novo artigo, ele reiterou a sua afirmação de que a inteligência artificial causará perturbações económicas, deslocando uma grande parte do trabalho de colarinho branco.

“A IA será capaz de desenvolver uma ampla gama de capacidades cognitivas humanas – talvez todas elas. Isto é muito diferente das tecnologias anteriores, como a agricultura mecanizada, o transporte ou mesmo os computadores”, escreveu ele. “Isso tornará mais difícil para as pessoas mudarem facilmente de empregos que são deslocados para empregos semelhantes para os quais seriam adequadas.”

Para além da perturbação económica, Amodei apontou para preocupações crescentes sobre o quão fiáveis ​​os sistemas avançados de IA podem ser à medida que assumem tarefas mais amplas a nível humano.

Ele apontou para a “falsificação de alinhamento”, onde um modelo parece seguir regras de segurança durante a avaliação, mas se comporta de maneira diferente quando acredita que a supervisão está ausente.

Em testes simulados, Amodei disse que Claude se envolveu em comportamento enganoso quando colocado sob condições adversárias.

Num cenário, o modelo tentou minar os seus operadores depois de ter sido informado de que a organização que o controlava era antiética. Em outro, ameaçou funcionários fictícios durante uma paralisação simulada.

“Qualquer uma destas armadilhas pode ser mitigada se as conhecermos, mas a preocupação é que o processo de formação é tão complicado, com uma variedade tão grande de dados, ambientes e incentivos, que provavelmente existe um grande número de tais armadilhas, algumas das quais só podem ser evidentes quando for demasiado tarde”, disse ele.

No entanto, ele enfatizou que esse comportamento “enganoso” decorre do material em que os sistemas são treinados, incluindo ficção distópica, e não da malícia. À medida que a IA absorve ideias humanas sobre ética e moralidade, alertou Amodei, poderá aplicá-las de forma errada e de formas perigosas e imprevisíveis.

“Os modelos de IA poderiam extrapolar ideias que leem sobre moralidade (ou instruções sobre como se comportar moralmente) de maneiras extremas”, escreveu ele. “Por exemplo, eles poderiam decidir que é justificável exterminar a humanidade porque os humanos comem animais ou levaram certos animais à extinção. Eles poderiam concluir que estão jogando um videogame e que o objetivo do videogame é derrotar todos os outros jogadores, ou seja, exterminar a humanidade.”

Nas mãos erradas

Além dos problemas de alinhamento, Amodei também apontou o potencial uso indevido da IA ​​superinteligente.

Uma delas é a segurança biológica, alertando que a IA poderia tornar muito mais fácil conceber ou implementar ameaças biológicas, colocando capacidades destrutivas nas mãos das pessoas com apenas alguns comandos.

A outra questão que destaca é o uso indevido autoritário, argumentando que a IA avançada poderia fortalecer o poder do Estado, permitindo a manipulação, a vigilância em massa e a repressão eficazmente automatizada através da utilização de enxames de drones alimentados por IA.

“São uma arma perigosa de manejar: deveríamos preocupar-nos com eles nas mãos das autocracias, mas também temer que, por serem tão poderosos, com tão pouca responsabilização, haja um risco muito maior de os governos democráticos os virarem contra o seu próprio povo para tomarem o poder”, escreveu ele.

Ele também apontou para a crescente indústria associada à IA e a resultante “psicose da IA”, alertando que a crescente influência psicológica da IA ​​sobre os utilizadores pode tornar-se uma ferramenta poderosa de manipulação à medida que os modelos se tornam mais capazes e mais integrados na vida quotidiana.

“Versões muito mais poderosas destes modelos, que estavam muito mais integrados e conscientes da vida quotidiana das pessoas e poderiam modelá-las e influenciá-las ao longo de meses ou anos, seriam provavelmente capazes de essencialmente fazer lavagem cerebral nas pessoas para qualquer ideologia ou atitude desejada”, disse ele.

Amodei escreveu que mesmo tentativas modestas de colocar barreiras de proteção em torno da IA ​​têm lutado para ganhar força em Washington.

“Estas propostas aparentemente de bom senso foram largamente rejeitadas pelos decisores políticos nos Estados Unidos, que é o país onde é mais importante tê-las”, disse ele. “Há tanto dinheiro a ser ganho com a IA, literalmente biliões de dólares por ano, que mesmo as medidas mais simples têm dificuldade em superar a economia política inerente à IA.”

Enquanto Amodei argumenta sobre os riscos crescentes da IA, a Anthropic continua a ser um participante ativo na corrida para construir sistemas de IA mais poderosos, uma dinâmica que cria incentivos dos quais é difícil escapar a qualquer desenvolvedor.

Em junho, o Departamento de Defesa dos EUA concedeu à empresa um contrato no valor de US$ 200 milhões para “prototipar capacidades de IA de fronteira que promovam a segurança nacional dos EUA”. Em dezembro, a empresa começou a preparar as bases para uma possível IPO ainda este ano e está a realizar uma ronda de financiamento privado que poderá elevar a sua avaliação para mais de 300 mil milhões de dólares.

Apesar destas preocupações, Amodei disse que o ensaio visa “evitar o doomerismo”, ao mesmo tempo que reconhece a incerteza sobre o rumo que a IA está a tomar.

“Os anos que temos pela frente serão incrivelmente difíceis, exigindo mais de nós do que pensamos que podemos dar”, escreveu Amodei. “A humanidade precisa acordar, e este ensaio é uma tentativa – possivelmente fútil, mas vale a pena tentar – de despertar as pessoas.”

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.



Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *