A propensão para os sistemas de IA cometerem erros que os humanos Miss foram exibidos no sistema jurídico dos EUA ultimamente. As loucuras começaram quando advogados enviaram documentos citando casos que não existiam. Erros semelhantes logo se espalharam para outros papéis nos tribunais. Em dezembro passado, um professor de Stanford apresentou testemunho juramentado contendo alucinações e erros em um caso de DeepFakes, apesar de ser um especialista em IA e desinformação.
Agora, os juízes também estão experimentando a IA generativa. Alguns acreditam que, com as precauções corretas, a tecnologia pode acelerar a pesquisa jurídica, resumir casos, redigir ordens de rotina e ajudar a acelerar o sistema judicial, que está muito atrasado em muitas partes dos EUA. Eles estão certos de estar tão confiante nisso? Leia a história completa.
– James O’Donnell
O que você pode ter perdido no GPT-5
O novo modelo GPT-5 da Openai deveria dar um vislumbre da mais nova fronteira da IA. Era destinado a marcar um salto em direção à “inteligência geral artificial” que os evangelistas da tecnologia prometeram transformar a humanidade para melhor.
Contra essas expectativas, o modelo está principalmente desapontado. Mas há outra coisa a tirar de tudo isso. Entre outras sugestões para o uso potencial de seus modelos, o Openai começou a dizer explicitamente às pessoas para usá -los para conselhos de saúde. É uma mudança de abordagem que sinaliza que a empresa está entrando em águas perigosas. Leia a história completa.
– James O’Donnell
Esta história apareceu originalmente no algoritmo, nossa newsletter semanal na IA. Para obter histórias como esta primeiro em sua caixa de entrada, Inscreva -se aqui.