“Acho que vai demorar muito até que possamos realmente pensar, ok, esse problema está resolvido”, diz ele. “Até que você possa realmente confiar nos sistemas, você definitivamente desejará ter restrições em vigor.” Pachocki acredita que modelos muito poderosos deveriam ser implantados em sandboxes, isolados de qualquer coisa que possam quebrar ou usar para causar danos.
Ferramentas de IA já foram usadas para criar novos ataques cibernéticos. Alguns temem que eles sejam usados para projetar patógenos sintéticos que poderiam ser usados como armas biológicas. Você pode inserir aqui qualquer número de histórias assustadoras de cientistas do mal. “Definitivamente acho que existem cenários preocupantes que podemos imaginar”, diz Pachocki.
“Vai ser algo muito estranho. É um poder extremamente concentrado que, de certa forma, é sem precedentes”, diz Pachocki. “Imagine que você chega a um mundo onde tem um data center que pode fazer todo o trabalho que a OpenAI ou o Google podem fazer. Coisas que no passado exigiam grandes organizações humanas agora seriam feitas por algumas pessoas.”
“Acho que este é um grande desafio para os governos descobrirem”, acrescenta.
E, no entanto, algumas pessoas diriam que os governos são parte do problema. O governo dos EUA quer usar IA no campo de batalha, por exemplo. O recente confronto entre a Anthropic e o Pentágono revelou que há pouco acordo em toda a sociedade sobre onde traçamos limites sobre como esta tecnologia deve ou não ser utilizada – e muito menos sobre quem os deve traçar. Imediatamente após essa disputa, a OpenAI intensificou-se para assinar um acordo com o Pentágono em vez de com o seu rival. A situação permanece obscura.
Eu pressionei Pachocki nisso. Ele realmente confia em outras pessoas para descobrir isso ou ele, como arquiteto-chave do futuro, sente responsabilidade pessoal? “Eu sinto responsabilidade pessoal”, diz ele. “Mas não creio que isto possa ser resolvido apenas pela OpenAI, impulsionando a sua tecnologia de uma forma específica ou concebendo os seus produtos de uma forma específica. Definitivamente precisaremos de muito envolvimento dos decisores políticos.”
Onde isso nos deixa? Estamos realmente no caminho do tipo de IA que Pachocki imagina? Quando perguntei a Downey, do Allen Institute, ele riu. “Estou neste campo há algumas décadas e não confio mais em minhas previsões sobre quão próximas ou distantes estão certas capacidades”, diz ele.
A missão declarada da OpenAI é garantir que a inteligência artificial geral (uma hipotética tecnologia futura que muitos impulsionadores da IA acreditam que será capaz de igualar os humanos na maioria das tarefas cognitivas) beneficiará toda a humanidade. A OpenAI pretende fazer isso sendo a primeira a construí-lo. Mas a única vez que Pachocki mencionou a AGI na nossa conversa, ele foi rápido a esclarecer o que queria dizer ao falar sobre “tecnologia economicamente transformadora”.
Os LLMs não são como os cérebros humanos, diz ele: “Eles são superficialmente semelhantes às pessoas em alguns aspectos, porque são treinados principalmente na fala das pessoas. Mas não são formados pela evolução para serem realmente eficientes.”
“Mesmo em 2028, não espero que tenhamos sistemas tão inteligentes como as pessoas em todos os sentidos. Não creio que isso vá acontecer”, acrescenta. “Mas não acho que seja absolutamente necessário. O interessante é que você não precisa ser tão inteligente quanto as pessoas em todos os seus aspectos para ser muito transformador.”




