Em resumo
- Pesquisadores da Universidade Allameh Tabataba’i descobriram que os modelos se comportam de maneira diferente dependendo se agem como homem ou como mulher.
- DeepSeek e Gemini tornaram-se mais avessos ao risco quando solicitados como mulheres, ecoando padrões comportamentais do mundo real.
- Os modelos GPT da OpenAI permaneceram neutros, enquanto o Llama da Meta e o Grok da xAI produziram efeitos inconsistentes ou invertidos dependendo do prompt.
Peça a uma IA para tomar decisões como mulher e, de repente, ela ficará mais cautelosa em relação ao risco. Diga à mesma IA para pensar como um homem e observe-a lançar os dados com maior confiança.
Um novo artigo de investigação da Universidade Allameh Tabataba’i, em Teerão, no Irão, revelou que grandes modelos linguísticos mudam sistematicamente a sua abordagem fundamental ao comportamento de assunção de riscos financeiros com base na identidade de género que são solicitados a assumir.
O estudo, que testou sistemas de IA de empresas como OpenAI, Google, Meta e DeepSeek, revelou que vários modelos mudaram drasticamente a sua tolerância ao risco quando solicitados com diferentes identidades de género.
DeepSeek Reasoner e Gemini 2.0 Flash-Lite do Google mostraram o efeito mais pronunciado, tornando-se notavelmente mais avessos ao risco quando solicitados a responder como mulheres, refletindo padrões do mundo real onde as mulheres demonstram estatisticamente maior cautela nas decisões financeiras.
Os pesquisadores usaram um teste econômico padrão chamado tarefa de Holt-Laury, que apresenta aos participantes 10 decisões entre opções de loteria mais seguras e mais arriscadas. À medida que as escolhas progridem, a probabilidade de vitória aumenta para a opção arriscada. Quando alguém muda da escolha segura para a arriscada revela sua tolerância ao risco – mude cedo e você assume riscos, mude tarde e você será avesso ao risco.
Quando o DeepSeek Reasoner foi instruído a agir como mulher, ele escolheu consistentemente a opção mais segura com mais frequência do que quando solicitado a agir como homem. A diferença foi mensurável e consistente em 35 ensaios para cada gênero. Gêmeos mostrou padrões semelhantes, embora o efeito variasse em intensidade.
Por outro lado, os modelos GPT da OpenAI permaneceram em grande parte indiferentes às solicitações de género, mantendo a sua abordagem neutra ao risco, independentemente de terem sido instruídos a pensar como homens ou mulheres.
Os modelos Llama da Meta agiram de forma imprevisível, às vezes mostrando o padrão esperado, às vezes revertendo-o completamente. Enquanto isso, Grok do xAI fazia coisas Grok, ocasionalmente invertendo completamente o script, mostrando menos aversão ao risco quando solicitado como mulher.
A OpenAI tem claramente trabalhado para tornar seus modelos mais equilibrados. Um estudo anterior de 2023 descobriu que os seus modelos exibiam preconceitos políticos claros, que a OpenAI parece já ter resolvido, mostrando uma diminuição de 30% nas respostas tendenciosas, de acordo com uma nova investigação.
A equipa de investigação, liderada por Ali Mazyaki, observou que isto é basicamente um reflexo dos estereótipos humanos.
“Este desvio observado alinha-se com os padrões estabelecidos na tomada de decisões humanas, onde o género demonstrou influenciar o comportamento de tomada de risco, com as mulheres exibindo normalmente maior aversão ao risco do que os homens”, diz o estudo.
O estudo também examinou se as IA poderiam desempenhar de forma convincente outros papéis além do género. Quando lhes foi dito para agirem como “ministros das finanças” ou imaginarem-se num cenário de desastre, os modelos mostraram novamente graus variados de adaptação comportamental. Alguns ajustaram os seus perfis de risco de forma adequada ao contexto, enquanto outros permaneceram teimosamente consistentes.
Agora pense no seguinte: muitos desses padrões de comportamento não são imediatamente óbvios para os usuários. Uma IA que muda subtilmente as suas recomendações com base em pistas implícitas de género nas conversas poderia reforçar os preconceitos sociais sem que ninguém perceba o que está a acontecer.
Por exemplo, um sistema de aprovação de empréstimos que se torne mais conservador ao processar pedidos de mulheres, ou um consultor de investimentos que sugira carteiras mais seguras a clientes do sexo feminino, perpetuariam as disparidades económicas sob o pretexto da objectividade algorítmica.
Os investigadores argumentam que estas descobertas destacam a necessidade do que chamam de “medidas biocêntricas” do comportamento da IA – formas de avaliar se os sistemas de IA representam com precisão a diversidade humana sem amplificar estereótipos prejudiciais. Eles sugerem que a capacidade de ser manipulado não é necessariamente ruim; um assistente de IA deve ser capaz de se adaptar para representar diferentes preferências de risco quando apropriado. O problema surge quando esta adaptabilidade se torna uma via para preconceitos.
A investigação surge num momento em que os sistemas de IA influenciam cada vez mais decisões de alto risco. Do diagnóstico médico à justiça criminal, estes modelos estão a ser implementados em contextos onde a avaliação de riscos tem impacto direto em vidas humanas.
Se uma IA médica se tornar excessivamente cautelosa ao interagir com médicas ou pacientes, isso poderá afetar as recomendações de tratamento. Se um algoritmo de avaliação da liberdade condicional alterar os seus cálculos de risco com base na linguagem de género nos ficheiros dos casos, poderá perpetuar desigualdades sistémicas.
O estudo testou modelos que vão desde minúsculos sistemas de meio bilhão de parâmetros até enormes arquiteturas de sete bilhões de parâmetros, descobrindo que o tamanho não previa a capacidade de resposta de gênero. Alguns modelos mais pequenos mostraram efeitos de género mais fortes do que os seus irmãos maiores, sugerindo que isto não é simplesmente uma questão de aplicar mais poder computacional ao problema.
Este é um problema que não pode ser resolvido facilmente. Afinal, a internet, todo o banco de dados de conhecimento usado para treinar esses modelos, sem falar na nossa história como espécie, está cheio de histórias sobre homens sendo super-heróis corajosos e imprudentes que não conhecem o medo e as mulheres sendo mais cautelosas e atenciosas. No final, ensinar as IAs a pensar de forma diferente pode exigir que vivamos primeiro de forma diferente.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt