“Não estamos à vontade para revelar isso por vários motivos”, disse Dean em nossa ligação. O número total é uma medida abstrata que muda com o tempo, diz ele, acrescentando que a empresa deseja que os usuários pensem no uso de energia por prompt.

Mas há pessoas por todo o mundo interagindo com essa tecnologia, não apenas eu – e o que todos somos somos parecem bastante relevantes.

A Openai compartilha publicamente seu total, compartilhando recentemente que vê 2,5 bilhões de consultas para conversar todos os dias. Portanto, para os curiosos, podemos usar isso como um exemplo e levar o uso médio de energia autorreferido da empresa por consulta (0,34 watts-hora) para ter uma idéia aproximada do total para todas as pessoas que provocam chatgpt.

De acordo com minha matemática, ao longo de um ano, isso aumentaria mais de 300 gigawatt-horas-o mesmo que alimentar quase 30.000 casas nos EUA anualmente. Quando você coloca dessa maneira, começa a parecer muitos segundos em microondas.

3. Ai está em toda parte, não apenas em chatbots, e muitas vezes nem estamos conscientes disso.

A IA está tocando nossas vidas, mesmo quando não estamos procurando. Os resumos da IA ​​aparecem nas pesquisas da web, se você as pede ou não. Existem recursos internos para aplicativos de email e mensagens de texto que podem redigir ou resumir mensagens para você.

A estimativa do Google é estritamente para aplicativos Gemini e não incluiria muitas das outras maneiras pelas quais mesmo essa empresa está usando a IA. Portanto, mesmo se você estiver tentando pensar em sua própria demanda pessoal de energia, é cada vez mais difícil se contabilizar.

Para deixar claro, não acho que as pessoas se sintam culpadas por usar ferramentas que consideram genuinamente úteis. E, finalmente, não acho que a conversa mais importante seja sobre responsabilidade pessoal.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *