Em resumo
- Sam Altman argumentou que a educação humana pode ser menos eficiente em termos energéticos do que o treinamento em IA.
- Os críticos criticaram a comparação entre o valor humano e a eficiência do data center.
- O chefe da OpenAI dobrou o incentivo a uma rápida mudança para energia nuclear, eólica e solar.
Sam Altman gostaria que você soubesse que sua infância foi cara. Terrivelmente caro. E, francamente, não está claro se os humanos valem todo o tempo e recursos.
Na semana passada, no AI Impact Summit na Índia, o CEO da OpenAI apresentou uma visão surpreendente do debate sobre a energia da IA – salientando que os humanos, e não a IA, são basicamente o problema.
Questionado sobre a pegada ambiental do ChatGPT, Altman não se desculpou nem se protegeu. Em vez disso, ele comparou a imensa quantidade de energia necessária para criar seres humanos com as demandas energéticas de um data center de IA – e sugeriu que os data centers estão se tornando mais eficientes.
“Também é preciso muita energia para treinar um humano”, disse ele O Expresso Indiano. “São necessários cerca de 20 anos de vida e toda a comida que você come durante esse período antes de você ficar esperto. E não só isso, foi necessária a evolução generalizada das centenas de bilhões de pessoas que já viveram e aprenderam a não serem comidas por predadores… para produzir você.”
Sua conclusão: “Provavelmente a IA já alcançou o nível de eficiência energética, medida dessa forma”.
A internet, previsivelmente, não respondeu com aplausos. O magnata bilionário indiano e cofundador da Zoho, Sridhar Vembu – que estava fisicamente na sala – postou imediatamente no X: “Não quero ver um mundo onde igualemos uma peça de tecnologia a um ser humano.”
Os usuários do Reddit opinaram, sem surpresa, chamando Altman de “doentiamente mau” e “anti-humano”. Um usuário escreveu que Altman “literalmente não parece entender que a vida humana tem valor além de qualquer análise de custo/benefício que ele aplica na implementação de linhas de código”.
Nas redes sociais, Altman enfrentou uma série de insultos e memes de vários partidos. O analista tecnológico Max Weinback colocou a questão de forma mais diplomática, dizendo que reduzir as pessoas ao “custo por produção” enquanto ignora “o valor da própria humanidade” é, nas suas palavras, “um mau caminho”.
Essa é uma maneira de dizer isso.
Este não é um padrão novo. Sam Altman disse anteriormente que “a IA provavelmente levará ao fim do mundo, mas, enquanto isso, haverá grandes empresas”.
Altman também disse que perde o sono pensando se o lançamento do ChatGPT “foi realmente ruim”. Ele testemunhou perante o Congresso sobre a possibilidade de IA permitir armas biológicas e desinformação em massa. E ele co-assinou uma declaração declarando que a mitigação do risco de extinção da IA “deveria ser uma prioridade global ao lado das pandemias e da guerra nuclear”.
E, no entanto, Altman e OpenAI querem alcançar inteligência artificial geral (AGI), e quando alguém lhe pergunta sobre a conta de luz, sua atitude é: você já considerou quanta energia foi necessária para criá-lo?
Altman disse uma coisa que pode gerar um amplo acordo: que o mundo “precisa avançar em direção à energia nuclear, eólica e solar muito rapidamente”.
Observe que Altman preside a Oklo, uma startup nuclear. Se isso torna a recomendação mais confiável ou egoísta pode depender de quanta confiança você ainda tem em Altman depois que ele comparou sua infância a um treino.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.