<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">FT/MIT Technology Review | Adobe Stock</span>

Helen Warrel, TF repórter de investigações

Estamos em julho de 2027 e a China está prestes a invadir Taiwan. Drones autônomos com capacidade de direcionamento de IA estão preparados para dominar as defesas aéreas da ilha, à medida que uma série de ataques cibernéticos gerados por IA cortam o fornecimento de energia e as principais comunicações. Entretanto, uma vasta campanha de desinformação promovida por uma fazenda de memes pró-China alimentada por IA espalha-se pelas redes sociais globais, amortecendo o clamor contra o acto de agressão de Pequim.

Cenários como este trouxeram horror distópico ao debate sobre o uso da IA ​​na guerra. Os comandantes militares esperam uma força melhorada digitalmente que seja mais rápida e precisa do que o combate dirigido por humanos. Mas há receios de que, à medida que a IA assume um papel cada vez mais central, estes mesmos comandantes percam o controlo de um conflito que se agrava demasiado rapidamente e carece de supervisão ética ou legal. Henry Kissinger, antigo secretário de Estado dos EUA, passou os seus últimos anos alertando sobre a catástrofe iminente da guerra impulsionada pela IA.

Compreender e mitigar estes riscos é a prioridade militar – alguns diriam o “momento Oppenheimer” – da nossa época. Um consenso emergente no Ocidente é que as decisões em torno da implantação de armas nucleares não devem ser subcontratadas à IA. O secretário-geral da ONU, António Guterres, foi mais longe, apelando à proibição total de sistemas de armas letais totalmente autónomos. É essencial que a regulamentação acompanhe a evolução da tecnologia. Mas, na excitação alimentada pela ficção científica, é fácil perder a noção do que é realmente possível. Como salientam os investigadores do Belfer Center de Harvard, os optimistas da IA ​​subestimam frequentemente os desafios de colocar em campo sistemas de armas totalmente autónomos. É perfeitamente possível que as capacidades da IA ​​em combate estejam sendo exageradas.

Anthony King, Diretor do Instituto de Estratégia e Segurança da Universidade de Exeter e um dos principais defensores deste argumento, sugere que, em vez de substituir os humanos, a IA será usada para melhorar a visão militar. Mesmo que o carácter da guerra esteja a mudar e a tecnologia remota esteja a refinar os sistemas de armas, insiste ele, “a completa automatização da guerra em si é simplesmente uma ilusão”.

Dos três casos atuais de uso militar de IA, nenhum envolve autonomia total. Ele está sendo desenvolvido para planejamento e logística, guerra cibernética (em operações de sabotagem, espionagem, hacking e informação); e – o mais controverso – para direcionamento de armas, um aplicativo já em uso nos campos de batalha da Ucrânia e Gaza. As tropas de Kiev usam software de IA para direcionar drones capazes de escapar de bloqueadores russos à medida que se aproximam de locais sensíveis. alvos humanos em Gaza.

REVISÃO DA TECNOLOGIA FT/MIT | ESTOQUE ADOBE

Existe claramente o perigo de que o banco de dados Lavender replique as tendências dos dados nos quais foi treinado. Mas os militares também carregam preconceitos. Um oficial de inteligência israelense que usou Lavender afirmou ter mais fé na justiça de um “mecanismo estatístico” do que na de um soldado enlutado.

Os optimistas tecnológicos que projectam armas de IA negam mesmo que sejam necessários novos controlos específicos para controlar as suas capacidades. Keith Dear, um antigo oficial militar do Reino Unido que agora dirige a empresa de previsões estratégicas Cassi AI, diz que as leis existentes são mais do que suficientes: “Certifique-se de que não há nada nos dados de treino que possa fazer com que o sistema se torne desonesto… quando estiver confiante de que o implanta – e você, o comandante humano, é responsável por qualquer coisa que eles possam fazer e que corra mal”.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *