Decrypt logoImage: Decrypt

Em resumo

  • O estudo encontrou planos fragmentados e não testados para gerir interrupções de IA em grande escala.
  • A RAND pediu a criação de ferramentas rápidas de análise de IA e protocolos de coordenação mais fortes.
  • As descobertas alertaram que futuras ameaças de IA poderiam surgir dos sistemas existentes.

Como será quando a inteligência artificial surgir – não nos filmes, mas no mundo real?

Uma nova simulação da RAND Corporation ofereceu um vislumbre, imaginando agentes autônomos de IA sequestrando sistemas digitais, matando pessoas e paralisando infraestruturas críticas antes que alguém percebesse o que estava acontecendo.

O exercício, detalhado num relatório publicado quarta-feira, alertou que uma crise cibernética impulsionada pela IA poderia sobrecarregar as defesas e os sistemas de tomada de decisão dos EUA mais rapidamente do que os líderes conseguiriam responder.

Gregory Smith, analista de políticas da RAND e coautor do relatório, disse Descriptografar que o exercício revelou uma profunda incerteza sobre a forma como os governos diagnosticariam tal evento.

“Acho que o que descobrimos na questão de atribuição é que as respostas dos jogadores variaram dependendo de quem eles achavam que estava por trás do ataque”, disse Smith. “As ações que faziam sentido para um Estado-nação eram muitas vezes incompatíveis com as de uma IA desonesta. Um ataque de um Estado-nação significava responder a um ato que matou americanos. Uma IA desonesta exigia cooperação global. Saber qual era tornou-se crítico, porque uma vez que os jogadores escolhessem um caminho, era difícil voltar atrás.”

Como os participantes não conseguiram determinar se o ataque partiu de um Estado-nação, de terroristas ou de uma IA autónoma, procuraram “respostas muito diferentes e mutuamente incompatíveis”, concluiu a RAND.

A Insurgência dos Robôs

Rogue AI tem sido uma presença constante na ficção científica, de 2001: Uma Odisséia no Espaço a Jogos de Guerra e O Exterminador do Futuro. Mas a ideia passou de fantasia a uma preocupação política real. Físicos e pesquisadores de IA argumentam que, uma vez que as máquinas possam se redesenhar, a questão não é se elas nos superarão — mas como mantemos o controle.

Liderado pelo Centro para a Geopolítica de Inteligência Artificial Geral da RAND, o exercício “Insurgência Robótica” simulou como altos funcionários dos EUA poderiam responder a um ataque cibernético em Los Angeles que matou 26 pessoas e paralisou sistemas importantes.

Executado como uma simulação de mesa de duas horas na plataforma Potencial Infinito da RAND, ele elencou funcionários atuais e antigos, analistas da RAND e especialistas externos como membros do Comitê de Princípios do Conselho de Segurança Nacional.

Guiados por um facilitador que atua como Conselheiro de Segurança Nacional, os participantes debateram as respostas, primeiro sob incerteza sobre a identidade do atacante, e depois depois de saberem que agentes autônomos de IA estavam por trás do ataque.

De acordo com Michael Vermeer, cientista físico sénior da RAND e coautor do relatório, o cenário foi intencionalmente concebido para espelhar uma crise do mundo real na qual não seria imediatamente claro se uma IA era responsável.

“Mantivemos deliberadamente as coisas ambíguas para simular como seria uma situação real”, disse ele. “Um ataque acontece e você não sabe imediatamente – a menos que o invasor o anuncie – de onde ele vem ou por quê. Algumas pessoas descartariam isso imediatamente, outras poderiam aceitá-lo, e o objetivo era introduzir essa ambiguidade para os tomadores de decisão.”

O relatório concluiu que a atribuição – determinar quem ou o que causou o ataque – foi o factor mais crítico que moldou as respostas políticas. Sem uma atribuição clara, concluiu a RAND, os funcionários arriscavam-se a prosseguir estratégias incompatíveis.

O estudo também mostrou que os participantes lutaram para saber como se comunicar com o público em tal crise.

“Será necessário que haja uma consideração real entre os tomadores de decisão sobre como nossas comunicações influenciarão o público a pensar ou agir de determinada maneira”, disse Vermeer. Smith acrescentou que essas conversas se desenrolariam à medida que as próprias redes de comunicação falhassem sob ataques cibernéticos.

Retrocedendo para o Futuro

A equipa da RAND concebeu o exercício como uma forma de “backcasting”, utilizando um cenário fictício para identificar o que os responsáveis ​​poderiam reforçar hoje.

“Os sistemas de água, energia e internet ainda são vulneráveis”, disse Smith. “Se você puder fortalecê-los, poderá facilitar a coordenação e a resposta – para proteger a infraestrutura essencial, mantê-la funcionando e manter a saúde e a segurança públicas.”

“É com isso que luto quando penso na perda de controle da IA ​​ou em incidentes cibernéticos”, acrescentou Vermeer. “O que realmente importa é quando começa a impactar o mundo físico. Interações ciberfísicas – como robôs causando efeitos no mundo real – pareceram essenciais para serem incluídas no cenário.”

O exercício da RAND concluiu que os EUA não tinham as ferramentas analíticas, a resiliência da infraestrutura e os manuais de crise para lidar com um desastre cibernético impulsionado pela IA. O relatório apelou ao investimento em capacidades rápidas de análise forense de IA, redes de comunicações seguras e canais de retorno pré-estabelecidos com governos estrangeiros – até mesmo adversários – para evitar a escalada num ataque futuro.

A coisa mais perigosa sobre uma IA desonesta pode não ser o seu código, mas a nossa confusão quando ela ataca.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *