<span class="image__caption--bc78fd277fec6a44c750da50ddbd6e29">In this still from the Sora 2 promotional video, an ai-generated cameo of Sam Altman shows us through worlds of generated content.</span><span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">OpenAI</span>

O OpenAI está fazendo movimentos para monetizar as coisas (agora você pode comprar produtos diretamente através do ChatGPT, por exemplo). Em 3 de outubro, seu CEO, Sam Altman, escreveu em um post de blog que “teremos que ganhar dinheiro para a geração de vídeo”, mas ele não entrou em detalhes. Pode-se imaginar anúncios personalizados e mais compras no aplicativo.

Ainda assim, é preocupante imaginar que a montanha de emissões possa resultar se Sora se tornar popular. Altman descreveu com precisão o ônus das emissões de uma consulta para conversar como impossivelmente pequeno. O que ele não quantificou é o que é essa figura para um vídeo de 10 segundos gerado pela SORA. É apenas uma questão de tempo até que os pesquisadores da IA ​​e do clima comecem a exigir.

Quantos processos estão chegando?

Sora está inundada em personagens de marca de direitos autorais e de marca registrada. Ele permite que você faça celebridades falecidas com facilidade. Seus vídeos usam música protegida por direitos autorais.

Na semana passada, o Wall Street Journal relataram que o OpenAI enviou cartas para os detentores de direitos autorais notificando -os de que terão que optar por não participar da plataforma Sora se não querem o material incluído, o que é não Como essas coisas geralmente funcionam. A lei sobre como as empresas de IA devem lidar com o material protegido por direitos autorais está longe de ser resolvido, e seria razoável esperar ações judiciais contestando isso.

Na postagem do blog da semana passada, Altman escreveu que o Openai está “ouvindo muitos dos retos” que querem mais controle sobre como seus personagens são usados ​​em Sora. Ele diz que a empresa planeja dar a essas partes mais “controle granular” sobre seus personagens. Ainda assim, “pode ​​haver alguns casos de gerações de vantagem que passam por isso não deveriam”, escreveu ele.

Mas outra questão é a facilidade com que você pode usar as participações especiais de pessoas reais. As pessoas podem restringir quem pode usar sua participação especial, mas quais limites haverá para o que essas participações especiais podem ser feitas nos vídeos de Sora?

Aparentemente, este já é um problema que o OpenAI está sendo forçado a responder. O chefe de Sora, Bill Peebles, publicou em 5 de outubro que os usuários agora podem restringir como sua participação especial pode ser usada – atraindo -a de aparecer em vídeos políticos ou dizer certas palavras, por exemplo. Quão bem isso funcionará? É apenas uma questão de tempo até que a participação de alguém seja usada para algo nefasto, explícito, ilegal ou pelo menos assustador, provocando um processo alegando que o Openai é responsável?

No geral, ainda não vimos a aparência de Sora em grande escala (o OpenAI ainda está distribuindo acesso ao aplicativo por meio de códigos de convite). Quando o fizermos, acho que isso servirá como um teste sombrio: a IA pode criar vídeos tão finos para o engajamento sem fim que eles superarão vídeos “reais” para nossa atenção? No final, Sora não está apenas testando a tecnologia do OpenAI – está nos testando e quanto de nossa realidade estamos dispostos a negociar por um rolo infinito de simulação.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *