“Não estamos à vontade para revelar isso por vários motivos”, disse Dean em nossa ligação. O número total é uma medida abstrata que muda com o tempo, diz ele, acrescentando que a empresa deseja que os usuários pensem no uso de energia por prompt.
Mas há pessoas por todo o mundo interagindo com essa tecnologia, não apenas eu – e o que todos somos somos parecem bastante relevantes.
A Openai compartilha publicamente seu total, compartilhando recentemente que vê 2,5 bilhões de consultas para conversar todos os dias. Portanto, para os curiosos, podemos usar isso como um exemplo e levar o uso médio de energia autorreferido da empresa por consulta (0,34 watts-hora) para ter uma idéia aproximada do total para todas as pessoas que provocam chatgpt.
De acordo com minha matemática, ao longo de um ano, isso aumentaria mais de 300 gigawatt-horas-o mesmo que alimentar quase 30.000 casas nos EUA anualmente. Quando você coloca dessa maneira, começa a parecer muitos segundos em microondas.
3. Ai está em toda parte, não apenas em chatbots, e muitas vezes nem estamos conscientes disso.
A IA está tocando nossas vidas, mesmo quando não estamos procurando. Os resumos da IA aparecem nas pesquisas da web, se você as pede ou não. Existem recursos internos para aplicativos de email e mensagens de texto que podem redigir ou resumir mensagens para você.
A estimativa do Google é estritamente para aplicativos Gemini e não incluiria muitas das outras maneiras pelas quais mesmo essa empresa está usando a IA. Portanto, mesmo se você estiver tentando pensar em sua própria demanda pessoal de energia, é cada vez mais difícil se contabilizar.
Para deixar claro, não acho que as pessoas se sintam culpadas por usar ferramentas que consideram genuinamente úteis. E, finalmente, não acho que a conversa mais importante seja sobre responsabilidade pessoal.