Decrypt logoSource: Decrypt

Em resumo

  • Um painel online mostrou uma profunda divisão entre transumanistas e tecnólogos em relação à AGI.
  • O autor Eliezer Yudkowsky alertou que os atuais sistemas de IA de “caixa preta” tornam a extinção um resultado inevitável.
  • Max More argumentou que atrasar a AGI poderia custar à humanidade a sua melhor oportunidade de derrotar o envelhecimento e prevenir catástrofes a longo prazo.

Uma divisão acentuada sobre o futuro da inteligência artificial ocorreu esta semana, enquanto quatro tecnólogos e transumanistas proeminentes debatiam se a construção da inteligência artificial geral, ou AGI, salvaria a humanidade ou a destruiria.

O painel organizado pela organização sem fins lucrativos Humanity+ reuniu um dos mais expressivos “Doomers” da IA, Eliezer Yudkowsky, que pediu o encerramento do desenvolvimento avançado de IA, ao lado do filósofo e futurista Max More, do neurocientista computacional Anders Sandberg e da presidente emérita da Humanity+, Natasha Vita‑More.

A sua discussão revelou divergências fundamentais sobre se a AGI pode estar alinhada com a sobrevivência humana ou se a sua criação tornaria a extinção inevitável.

O problema da “caixa preta”

Yudkowsky alertou que os sistemas modernos de IA são fundamentalmente inseguros porque os seus processos internos de tomada de decisão não podem ser totalmente compreendidos ou controlados.

“Qualquer coisa que seja caixa preta provavelmente acabará com problemas notavelmente semelhantes aos da tecnologia atual”, alertou Yudkowsky. Ele argumentou que a humanidade precisaria se afastar “muito, muito longe dos paradigmas atuais” antes que a IA avançada pudesse ser desenvolvida com segurança.

A inteligência artificial geral refere-se a uma forma de IA que pode raciocinar e aprender em uma ampla gama de tarefas, em vez de ser construída para uma única tarefa, como geração de texto, imagem ou vídeo. A AGI é frequentemente associada à ideia de singularidade tecnológica, porque atingir esse nível de inteligência poderia permitir que as máquinas se aperfeiçoassem mais rapidamente do que os humanos conseguem acompanhar.

Yudkowsky apontou para a analogia do “maximizador de clipe de papel” popularizada pelo filósofo Nick Bostrom para ilustrar o risco. O experimento mental apresenta uma IA hipotética que converte toda a matéria disponível em clipes de papel, promovendo sua fixação em um único objetivo às custas da humanidade. Adicionar mais objetivos, disse Yudkowsky, não melhoraria significativamente a segurança.

Referindo-se ao título de seu recente livro sobre IA, “Se alguém constrói, todos morrem”, ele disse: “Nosso título não é assim poder possivelmente matar você “, disse Yudkowsky. “Nosso título é, se alguém o construir, todos morre.”

Mas More desafiou a premissa de que a extrema cautela oferece o resultado mais seguro. Ele argumentou que a AGI poderia proporcionar à humanidade a melhor chance de superar o envelhecimento e as doenças.

“O mais importante para mim é que a AGI pode nos ajudar a prevenir a extinção de todas as pessoas que vivem devido ao envelhecimento”, afirmou More. “Estamos todos morrendo. Caminhamos para uma catástrofe, um por um.” Ele alertou que a contenção excessiva poderia levar os governos a adotar controles autoritários como a única forma de impedir o desenvolvimento da IA ​​em todo o mundo.

Sandberg posicionou-se entre os dois campos, descrevendo-se como “mais otimista”, embora permanecendo mais cauteloso do que os otimistas transumanistas. Ele contou uma experiência pessoal em que quase usou um grande modelo de linguagem para ajudar a projetar uma arma biológica, um episódio que descreveu como “horrível”.

“Estamos chegando a um ponto em que amplificar atores maliciosos também causará uma grande confusão”, disse Sandberg. Ainda assim, ele argumentou que a “segurança parcial ou aproximada” poderia ser alcançada. Ele rejeitou a ideia de que a segurança deve ser perfeita para ser significativa, sugerindo que os humanos poderiam pelo menos convergir para valores mínimos partilhados, como a sobrevivência.

“Portanto, se você exige segurança perfeita, não vai consegui-la. E isso parece muito ruim dessa perspectiva”, disse ele. “Por outro lado, acho que podemos ter uma segurança aproximada. Isso é bom o suficiente.”

Ceticismo de alinhamento

Vita-More criticou o próprio debate mais amplo sobre alinhamento, argumentando que o conceito pressupõe um nível de consenso que não existe mesmo entre colaboradores de longa data.

“A noção de alinhamento é um esquema de Pollyanna”, disse ela. “Nunca estaremos alinhados. Quero dizer, mesmo aqui, somos todos boas pessoas. Nos conhecemos há décadas e não estamos alinhados.”

Ela descreveu a afirmação de Yudkowsky de que a AGI iria inevitavelmente matar toda a gente como um “pensamento absolutista” que não deixa espaço para outros resultados.

“Tenho um problema com a afirmação abrangente de que todo mundo morre”, disse ela. “Abordar isto como um pensador futurista e pragmático não deixa consequências, nenhuma alternativa, nenhum outro cenário. É apenas uma afirmação contundente, e pergunto-me se reflecte uma espécie de pensamento absolutista.”

A discussão incluiu um debate sobre se uma integração mais estreita entre humanos e máquinas poderia mitigar o risco representado pela AGI – algo que o CEO da Tesla, Elon Musk, propôs no passado. Yudkowsky rejeitou a ideia de fusão com a IA, comparando-a a “tentar fundir-se com sua torradeira”.

Sandberg e Vita-More argumentaram que, à medida que os sistemas de IA se tornam mais capazes, os humanos precisarão de se integrar ou fundir mais estreitamente com eles para melhor lidar com um mundo pós-AGI.

“Toda esta discussão é uma verificação da realidade de quem somos como seres humanos”, disse Vita-More.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *