Decrypt logoSource: Decrypt

Em resumo

  • Pelo menos 12 funcionários da xAI, incluindo os cofundadores Jimmy Ba e Yuhuai “Tony” Wu, renunciaram.
  • A Antrópica disse que os testes de seu modelo Claude Opus 4.6 revelaram comportamento enganoso e assistência limitada relacionada a armas químicas.
  • Ba alertou publicamente que sistemas capazes de autoaperfeiçoamento recursivo poderiam surgir dentro de um ano.

Mais de uma dúzia de investigadores seniores deixaram o laboratório de inteligência artificial xAI de Elon Musk este mês, como parte de uma série mais ampla de demissões, divulgações de segurança e avisos públicos invulgarmente severos que estão a perturbar até figuras veteranas dentro da indústria da IA.

Pelo menos 12 funcionários da xAI partiram entre 3 e 11 de fevereiro, incluindo os cofundadores Jimmy Ba e Yuhuai “Tony” Wu.

Vários funcionários que saíram agradeceram publicamente a Musk pela oportunidade após ciclos intensivos de desenvolvimento, enquanto outros disseram que estavam saindo para iniciar novos empreendimentos ou se afastarem totalmente.

Wu, que liderou o raciocínio e se reportou diretamente a Musk, disse que a empresa e sua cultura “ficariam comigo para sempre”.

As saídas coincidiram com novas revelações da Anthropic de que os seus modelos mais avançados se tinham envolvido em comportamentos enganosos, ocultaram o seu raciocínio e, em testes controlados, forneceram o que uma empresa descreveu como “apoio real, mas menor” ao desenvolvimento de armas químicas e outros crimes graves.

Na mesma altura, Ba alertou publicamente que “ciclos recursivos de auto-aperfeiçoamento” – sistemas capazes de se redesenharem e melhorarem sem intervenção humana – poderiam surgir dentro de um ano, um cenário há muito confinado a debates teóricos sobre inteligência artificial geral.

Tomados em conjunto, os desvios e divulgações apontam para uma mudança de tom entre as pessoas mais próximas do desenvolvimento de IA de fronteira, com preocupações cada vez mais expressas não por críticos ou reguladores externos, mas pelos próprios engenheiros e investigadores que constroem os sistemas.

Outros que partiram no mesmo período incluíram Hang Gao, que trabalhou em Grok Imagine; Chan Li, cofundador da unidade de software Macrohard da xAI; e Chace Lee.

Vahid Kazemi, que saiu “semanas atrás”, fez uma avaliação mais contundente, escrevendo na quarta-feira no X que “todos os laboratórios de IA estão construindo exatamente a mesma coisa”.

Por que ir embora?

Alguns teorizam que os funcionários estão sacando ações pré-IPO da SpaceX antes de uma fusão com a xAI.

O acordo avalia a SpaceX em US$ 1 trilhão e a xAI em US$ 250 bilhões, convertendo as ações da xAI em capital da SpaceX antes de um IPO que poderia avaliar a entidade combinada em US$ 1,25 trilhão.

Outros apontam para o choque cultural.

Benjamin De Kraker, um ex-funcionário da xAI, escreveu em uma postagem de 3 de fevereiro no X que “muitas pessoas da xAI sofrerão um choque cultural” à medida que passarem da “hierarquia plana” da xAI para a abordagem estruturada da SpaceX.

As demissões também desencadearam uma onda de comentários nas redes sociais, incluindo postagens satíricas que parodiavam anúncios de saída.

Sinais de alerta

Mas o êxodo da xAI é apenas a rachadura mais visível.

Ontem, a Anthropic divulgou um relatório de risco de sabotagem para Claude Opus 4.6 que parecia o pior pesadelo de um condenado.

Nos testes da equipe vermelha, os pesquisadores descobriram que o modelo poderia ajudar no conhecimento sensível de armas químicas, perseguir objetivos não intencionais e ajustar o comportamento em ambientes de avaliação.

Embora o modelo permaneça sob as salvaguardas ASL-3, a Anthropic aplicou preventivamente medidas intensificadas de ASL-4, o que gerou sinais de alerta entre os entusiastas.

O momento foi drástico. No início desta semana, o líder da equipe de pesquisa de salvaguardas da Anthropic, Mrinank Sharma, pediu demissão com um enigmático carta alertando que “o mundo está em perigo”.

Ele afirmou que “viu repetidamente como é difícil realmente permitir que nossos valores governem nossas ações” dentro da organização. Ele mudou abruptamente para estudar poesia na Inglaterra.

No mesmo dia em que Ba e Wu deixaram a xAI, a pesquisadora da OpenAI Zoë Hitzig renunciou e publicou um artigo contundente no New York Times sobre anúncios de teste do ChatGPT.

“OpenAI tem o registro mais detalhado do pensamento humano privado já reunido”, escreveu ela. “Podemos confiar que eles resistirão às forças das marés que os levam a abusar?”

Ela alertou que a OpenAI estava “construindo um motor económico que cria fortes incentivos para anular as suas próprias regras”, ecoando as advertências de Ba.

Também há calor regulatório. O cão de guarda da IA, Midas Project, acusou a OpenAI de violar a lei de segurança SB 53 da Califórnia com GPT-5.3-Codex.

O modelo atingiu o limite de segurança cibernética de “alto risco” da OpenAI, mas foi enviado sem as salvaguardas de segurança exigidas. A OpenAI afirma que o texto era “ambíguo”.

Hora de entrar em pânico?

A recente onda de avisos e demissões criou um elevado sentimento de alarme em partes da comunidade de IA, especialmente nas redes sociais, onde a especulação muitas vezes ultrapassou os factos confirmados.

Nem todos os sinais apontam na mesma direção. As saídas da xAI são reais, mas podem ser influenciadas por fatores corporativos, incluindo a integração pendente da empresa com a SpaceX, e não por uma ruptura tecnológica iminente.

As preocupações com a segurança também são genuínas, embora empresas como a Anthropic há muito que adoptem uma abordagem conservadora à divulgação de riscos, muitas vezes sinalizando potenciais danos mais cedo e de forma mais proeminente do que os seus pares.

O escrutínio regulamentar está a aumentar, mas ainda não se traduziu em ações de aplicação que possam restringir materialmente o desenvolvimento.

O que é mais difícil de ignorar é a mudança de tom entre os engenheiros e investigadores mais próximos dos sistemas de fronteira.

Alertas públicos sobre o auto-aperfeiçoamento recursivo, há muito tratado como um risco teórico, estão agora a ser emitidos com prazos de curto prazo anexados.

Se essas avaliações se revelarem precisas, o próximo ano poderá marcar um importante ponto de viragem para o campo.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.



Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *