Decrypt logoImage: Decrypt

Em resumo

  • O uso federal de IA cresceu rapidamente, mas a adoção permanece fortemente concentrada entre um punhado de grandes agências.
  • Os principais gargalos incluem a escassez de talentos especializados em IA, uma cultura de agência avessa ao risco e regras de aquisição inadequadas para sistemas de IA em rápida evolução.
  • A confiança pública é um obstáculo crítico, com apenas 17% dos americanos acreditando que a IA beneficiará o país, tornando a transparência essencial para a construção da confiança.

A utilização da inteligência artificial no governo federal dos EUA expandiu-se dramaticamente nos últimos anos, mas obstáculos significativos – desde a escassez de talentos ao cepticismo público – estão a atrasar a integração responsável da tecnologia nos serviços governamentais, de acordo com um novo relatório do Instituição Brookings.

O relatório de quarta-feira baseia-se em inventários de casos de uso de IA de 2023 a 2025, dados de empregos federais, memorandos do Escritório de Gestão e Orçamento e entrevistas com atuais e ex-tecnólogos federais de oito agências.

Os números contam uma história de rápida aceleração. Em 2025, 41 agências documentaram mais de 3.600 casos de uso individuais de IA – 69% acima do total relatado em 2024 e cinco vezes o número relatado em 2023. As aplicações abrangem uma ampla gama de funções governamentais: mais da metade dos casos de uso relatados pela Administração da Previdência Social apoiam a prestação de serviços e o processamento de benefícios, enquanto mais da metade do inventário do Departamento de Justiça apoia os esforços de aplicação da lei.

No entanto, o crescimento está longe de ser distribuído uniformemente. Nos últimos três anos, cinco grandes agências foram responsáveis ​​por mais de metade de todos os casos de utilização de IA comunicados, e as grandes agências contribuíram com 76% do inventário total em 2025. As agências mais pequenas mal conseguem acompanhar o ritmo: as 11 pequenas agências que reportaram em 2025 submeteram colectivamente apenas 60 casos de utilização, representando apenas 2% do inventário total.

O relatório identifica várias barreiras estruturais que impedem uma adoção mais ampla. Um dos mais prementes é a falta de talentos especializados. Das mais de 56.000 listas de empregos técnicos publicadas pelo governo federal desde 2016, pouco mais de 1.600 – menos de 3% – fazem referência explicitamente às capacidades de IA.

O aumento das contratações da era Biden teve como objectivo colmatar esta lacuna, mas as reduções da força de trabalho no início de 2025 podem ter minado esses esforços, uma vez que pelo menos 25% das listas de empregos específicos para IA foram publicadas a partir de 2024 – o que significa que muitos desses trabalhadores recém-contratados poderiam ter estado entre os mais recentemente e facilmente despedidos.

Além do quadro de pessoal, o relatório aponta para uma cultura profundamente enraizada de aversão ao risco nas agências federais. Quase 60% de todos os casos de uso de IA estão em fase piloto ou de pré-implantação, sugerindo que o cenário federal de IA ainda está em uma fase de rápido crescimento – uma fase que requer tempo dedicado à educação e experimentação que muitas agências lutam para conseguir. O relatório também observa que a ligação explícita da administração Trump à implantação de IA à força de trabalho corta o Departamento de Eficiência Governamental (DOGE) pode estar reforçando essa hesitação.

As lacunas de responsabilização são outra preocupação. Mais de 85% de todos os casos de utilização de IA implantada de alto impacto em 2025 carecem de algumas informações necessárias sobre medidas de mitigação de riscos, apesar dos requisitos explícitos do OMB.

A confiança do público representa ainda outro desafio. De acordo com dados recentes do Pew Research Center, cerca de metade dos americanos dizem agora estar mais preocupados do que entusiasmados com a crescente proeminência da IA, acima dos 37% de quatro anos antes, e apenas 17% do público americano acredita que a IA terá um impacto positivo nos EUA nas próximas duas décadas.

O relatório alerta que os riscos são elevados. A confiança do público no governo federal permanece perto de mínimos históricos, com dados recentes mostrando que apenas 16% dos americanos afirmam confiar que Washington fará o que é certo na maior parte ou quase sempre. Neste contexto, os autores argumentam que implantações de IA mal executadas podem causar sérios danos — mas que aplicações bem concebidas e focadas em melhorias tangíveis dos serviços podem, por outro lado, ajudar a reconstruir a confiança nas instituições governamentais.

Para chegar lá, a Brookings recomenda expandir a formação em literacia em IA entre agências, reformar as regras de aquisição que foram concebidas para sistemas de software mais estáticos, reforçar as práticas de transparência em torno da utilização de IA de alto risco e dar prioridade a casos de utilização que produzam benefícios claros e positivos para o público.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *