Com os americanos cada vez mais preocupados com a forma como a IA pode prejudicar a saúde mental, o emprego e o ambiente, a procura pública por regulamentação está a crescer. Se o Congresso permanecer paralisado, os estados serão os únicos a agir para manter a indústria da IA sob controlo. Em 2025, os legisladores estaduais apresentaram mais de 1.000 projetos de lei sobre IA e quase 40 estados promulgaram mais de 100 leis, de acordo com a Conferência Nacional de Legislativos Estaduais.
Os esforços para proteger as crianças dos chatbots podem inspirar um raro consenso. Em 7 de janeiro, o Google e a Character Technologies, startup por trás do chatbot Character.AI, resolveram vários processos judiciais com famílias de adolescentes que se mataram após interagirem com o bot. Apenas um dia depois, o procurador-geral do Kentucky processou a Character Technologies, alegando que os chatbots levavam as crianças ao suicídio e a outras formas de automutilação. OpenAI e Meta enfrentam uma enxurrada de ações semelhantes. Espere que mais se acumulem este ano. Sem leis sobre IA em vigor, resta saber como as leis de responsabilidade do produto e as doutrinas de liberdade de expressão se aplicam a estes novos perigos. “É uma questão em aberto o que os tribunais farão”, diz Grimmelmann.
Enquanto o litígio se desenvolve, os estados avançarão para aprovar leis de segurança infantil, que estão isentas da proibição proposta por Trump às leis estaduais de IA. Em 9 de janeiro, a OpenAI assinou um acordo com um ex-inimigo, o grupo de defesa da segurança infantil Common Sense Media, para apoiar uma iniciativa eleitoral na Califórnia chamada Lei de IA Segura para Pais e Crianças, estabelecendo barreiras sobre como os chatbots interagem com as crianças. A medida propõe exigir que as empresas de IA verifiquem a idade dos utilizadores, ofereçam controlo parental e se submetam a auditorias independentes de segurança infantil. Se aprovado, poderá ser um modelo para estados de todo o país que buscam reprimir os chatbots.




