Em resumo
- Dois novos trabalhos de pesquisa mostram como os agentes da IA podem ser projetados com arquétipos psicológicos fixos ou evoluir estratégias emocionais durante as conversas.
- A emoção aumenta o desempenho: o priming de personalidade melhora a consistência e a credibilidade, enquanto emoções adaptativas aumentam mensurável o sucesso da negociação.
- Os advogados veem interações mais naturais humanas -AI, mas os críticos alertam sobre a manipulação e a responsabilidade borrada à medida que os agentes aprendem a argumentar, mais lisonjeiros e cajados.
O amanhecer de agentes emocionalmente inteligentes – construído para o temperamento estático e a interação dinâmica – chegou, se dois trabalhos de pesquisa não relacionados publicados na semana passada forem algum juiz.
O tempo é sensível. Quase diariamente, as contas de notícias estão documentando casos em que os chatbots cutucam usuários emocionalmente instáveis para prejudicar a si mesmos ou aos outros. No entanto, tomados como um todo, os estudos sugerem que a IA está se mudando para um reino onde a personalidade e o sentimento podem moldar ainda mais como os agentes raciocinam, falam e negociam.
Uma equipe mostrou como preparar grandes modelos de idiomas com arquétipos psicológicos persistentes, enquanto o outro demonstrou que os agentes podem evoluir estratégias emocionais durante negociações de várias turnos.
Personalidade e emoção não são mais apenas polimento de superfície para a IA – elas estão se tornando características funcionais. Os temperamentos estáticos tornam os agentes mais previsíveis e confiáveis, enquanto estratégias adaptativas aumentam o desempenho nas negociações e fazem com que as interações pareçam estranhamente humanas.
Mas essa mesma credibilidade levanta questões espinhosas: se uma IA pode lisonjear, persuadir ou discutir com nuances emocionais, então quem é responsável quando essas táticas cruzam a manipulação e como você audita o “alinhamento emocional” em sistemas projetados para dobrar sentimentos e lógicos?
Dando uma personalidade da IA
Em Agentes de IA psicologicamente aprimoradosMaciej Besta do Instituto Federal Suíço de Tecnologia em Zurique e colegas propuseram uma estrutura chamada Mbti-in-thoughts. Em vez de reciclar modelos, eles contam com a engenharia imediata para travar em traços de personalidade ao longo dos eixos de cognição e afeto.
“Com base no indicador do tipo Myers-Briggs (MBTI), nosso método primaz agentes com arquétipos de personalidade distintos por meio de engenharia rápida”, escreveram os autores. Isso permite “controle sobre o comportamento ao longo de dois eixos fundamentais da psicologia humana, cognição e efeito”, acrescentaram.
Os pesquisadores testaram isso atribuindo modelos de idiomas como “emocionalmente expressivos” ou “analiticamente iniciados”, depois medindo o desempenho. Agentes expressivos se destacaram na geração narrativa; Os analíticos superaram o raciocínio teórico de jogos. Para garantir que as personalidades presas, a equipe usou o teste de 16pesonalidades para validação.
“Para garantir a persistência das características, integramos o teste oficial de 16pessoal para a verificação automatizada”, explica o artigo. Em outras palavras: a IA teve que passar consistentemente em um teste de personalidade humana antes de considerar psicologicamente preparado.
O resultado é um sistema em que os desenvolvedores podem convocar agentes com personas consistentes – um assistente empático, um negociador racional frio, um dramático contador de histórias – sem modificar o modelo subjacente.
Ensinando a IA a se sentir em tempo real
Enquanto isso, Evoemo: políticas emocionais evoluídas para agentes LLM na negociação de várias turnospor Yunbo Long e co-autores da Universidade de Cambridge, aborda o problema oposto: não apenas qual personalidade um agente tem, mas como pode Mude as emoções dinamicamente enquanto negocia.
O sistema modela as emoções como parte de um processo de decisão de Markov, uma estrutura matemática em que os resultados dependem não apenas das escolhas atuais, mas de uma cadeia de estados anteriores e transições probabilísticas. O Evoemo então usa o aprendizado evolutivo do reforço para otimizar esses caminhos emocionais. Como os autores disseram:
“O Evoemo modela as transições do estado emocional como um processo de decisão de Markov e emprega a otimização genética de base populacional para desenvolver políticas de emoções de alta recompensa em diversos cenários de negociação”.
Em vez de consertar o tom emocional de um agente, o Evoemo permite que o modelo se adapte – sendo conciliador, assertivo ou cético, dependendo do fluxo do diálogo. Nos testes, os agentes Evoemo vencem consistentemente os agentes basais simples e os emoções estáticas.
“O Evoemo supera consistentemente as duas linhas de base”, observa o artigo, “alcançar taxas de sucesso mais altas, maior eficiência e mais economia para os compradores”.
Simplificando: a inteligência emocional não é apenas um molho de janela. Ele melhora mensurável os resultados em tarefas como negociação.
Dois lados da mesma moeda
À primeira vista, os papéis não estão relacionados. Um é sobre arquétipos, o outro sobre estratégias. Mas leia juntos, eles traçam um mapa de duas partes de como a IA poderia evoluir:
O MBTI-in-thoughts garante que um agente tenha uma personalidade coerente-pateática ou racional, expressiva ou restrita. O Evoemo garante que a personalidade possa flexionar as curvas em uma conversa, moldando os resultados através da estratégia emocional. Tocar em ambos é um grande negócio.
Por exemplo, imagine um bot de serviço do cliente com o calor do paciente de um conselheiro que ainda sabe quando se manter firme na política-ou um bot de negociação que começa a conciliatório e se torna mais assertivo à medida que as apostas aumentam. Sim, estamos condenados.
A história da evolução da IA tem sido principalmente sobre escala – mais parâmetros, mais dados, mais poder de raciocínio. Esses dois trabalhos sugerem que um capítulo emergente pode ser sobre camadas emocionais: dar aos agentes esqueletos de personalidade e ensiná -los a mover esses músculos em tempo real. Os chatbots da próxima geração não apenas não pensam mais-eles também ficarão de mau humor, mais planores e esquecem mais.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt