O viés de castas é galopante nos produtos da OpenAI, incluindo o ChatGPT, de acordo com uma investigação do MIT Technology Review. Embora o CEO Sam Altman se gabasse de a Índia ser seu segundo maior mercado durante o lançamento do GPT-5 em agosto, descobrimos que tanto esse novo modelo, que agora alimenta o ChatGPT, assim como a Sora, o generador de texto para video da Sora, exibe viés de castas. Isso corre o risco de consolidar visões discriminatórias de maneiras que estão atualmente não resolvidas.
Mitigar o viés de castas nos modelos de IA é mais premente do que nunca. Na Índia contemporânea, muitos povos dalit que escaparam da pobreza e se tornaram médicos, agentes da função pública e estudiosos; Alguns até aumentaram para se tornar o presidente da Índia. Mas os modelos de IA continuam a reproduzir estereótipos socioeconômicos e ocupacionais que tornam os dalits como sujos, pobres e realizando apenas empregos servados. Leia a história completa.
– Nilesh Christopher
Revisão da tecnologia do MIT narrado: Como os modelos de IA geram vídeos?
Tem sido um grande ano para a geração de vídeos. A desvantagem é que os criadores estão competindo com a AI Slop, e os feeds de mídia social estão se enchendo de imagens de notícias falsas. A geração de vídeo também usa uma enorme quantidade de energia, muitas vezes mais que a geração de texto ou imagem.
Com vídeos gerados por IA em todos os lugares, vamos reservar um momento para conversar sobre a tecnologia que os faz funcionar.
Esta é a nossa mais recente história a ser transformada em um podcast narrado em tecnologia do MIT, que estamos publicando todas as semanas no Spotify e na Apple Podcasts. Apenas navegue até a revisão de tecnologia do MIT narrada em qualquer plataforma e siga -nos para obter todo o nosso novo conteúdo conforme lançado.
As leituras obrigatórias