<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Getty Images</span>

Há outra questão por trás de tudo isso: deveria caber às empresas de tecnologia proibir coisas que são legais, mas que consideram moralmente questionáveis? O governo certamente considerou inaceitável a disposição da Antrópica em desempenhar esse papel. Na sexta-feira à noite, oito horas antes de os EUA lançarem ataques em Teerão, o secretário da Defesa, Pete Hegseth, fez comentários duros sobre X. “A Anthropic deu uma aula magistral de arrogância e traição”, escreveu ele, e repetiu a ordem do presidente Trump para que o governo deixasse de trabalhar com a empresa de IA depois de a Anthropic ter procurado impedir que o seu modelo Claude fosse utilizado para armas autónomas ou vigilância doméstica em massa. “O Departamento de Guerra deve ter acesso total e irrestrito aos modelos da Antrópico para todos os fins LEGAIS”, escreveu Hegseth.

Mas, a menos que o contrato completo da OpenAI revele mais, é difícil não ver a empresa sentada numa gangorra ideológica, prometendo que faz tem influência que usará com orgulho para fazer o que considera ser a coisa certa, ao mesmo tempo que se submete à lei como o principal apoio para o que o Pentágono pode fazer com a sua tecnologia.

Há três coisas para observar aqui. Uma delas é se esta posição será boa o suficiente para os funcionários mais críticos da OpenAI. Com as empresas de IA gastando tanto em talentos, é possível que alguns na OpenAI vejam na justificativa de Altman um compromisso imperdoável.

Em segundo lugar, há a campanha de terra arrasada que Hegseth prometeu travar contra a Antrópica. Indo muito além do simples cancelamento do contrato do governo com a empresa, ele anunciou que isso seria classificado como um risco da cadeia de suprimentos e que “nenhum empreiteiro, fornecedor ou parceiro que faça negócios com as forças armadas dos Estados Unidos poderá realizar qualquer atividade comercial com a Antthropic”. Há um debate significativo sobre se este golpe mortal é legalmente possível, e a Anthropic disse que irá processar se a ameaça for prosseguida. OpenAI também se manifestou contra a mudança.

Por último, como irá o Pentágono substituir o Claude – o único modelo de IA que utiliza ativamente em operações classificadas, incluindo algumas na Venezuela – enquanto intensifica os ataques contra o Irão? Hegseth concedeu à agência seis meses para fazê-lo, durante os quais os militares implementarão os modelos da OpenAI, bem como os do xAI de Elon Musk.

Mas Claude teria sido utilizado nos ataques ao Irão horas depois de a proibição ter sido emitida, sugerindo que uma eliminação progressiva não seria nada simples. Mesmo que a rivalidade de meses entre a Anthropic e o Pentágono tenha terminado (o que duvido que esteja), estamos agora a ver o plano de aceleração da IA ​​do Pentágono pressionar as empresas a abandonarem os limites que outrora traçaram, com novas tensões no Médio Oriente como o principal campo de testes.

Se você tiver informações para compartilhar sobre como isso está acontecendo, entre em contato comigo via Signal (nome de usuário: jamesodonnell.22).

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *