A nova ferramenta de Inteligência Artificial Sora e seus desafios jurídicos

No dia 15 de fevereiro, a OpenAI – mesma empresa responsável pelo ChatGPT –  anunciou uma ferramenta chamada Sora, que pode gerar vídeos a partir da transcrição de textos.  A introdução desse novo sistema de inteligência artificial (IA), representa um marco significativo no avanço tecnológico e impactará na indústria do entretenimento.  

Embora não haja um pioneirismo na criação do processo de transformação de comandos de textos para vídeos, nenhuma das ferramentas existentes é apta a competir com o Sora. O referido software cria vídeos de forma rápida e com imagens de alta qualidade, além de produzir conteúdos criativos automatizados. No entanto, como qualquer nova promessa revolucionária, traz consigo uma série de avanços e desafios legais.

Um deles é a responsabilidade, ou seja: Quem será responsabilizado por eventuais danos causados por ações da IA Sora? Em sistemas tradicionais, a responsabilidade recai sobre os humanos envolvidos. No entanto, com uma IA autônoma como a Sora, identificar quem é o responsável torna-se uma tarefa desafiadora. Questões como a possibilidade de responsabilização dos fabricantes, dos desenvolvedores de software ou dos operadores de IA precisam ser abordadas de forma clara e precisa.

Além disso, a privacidade e a proteção de dados requerem uma atenção especial. Como o Sora lidará com os dados sensíveis dos usuários? Será necessário garantir que ela cumpra rigorosos padrões de segurança e privacidade praticados em diferentes territórios para evitar violações e abusos.

Outra preocupação relevante é a questão da discriminação algorítmica. Como qualquer sistema de IA, a Sora pode ser suscetível a reproduzir preconceitos presentes nos dados de treinamento.

A regulação do Sora também deverá abordar questões éticas, como transparência, prestação de contas e governança. Os algoritmos deverão ser compreensíveis e auditáveis, permitindo que especialistas e reguladores avaliem o seu funcionamento e tomem medidas corretivas, se necessário.

Importante destacar que as questões levantadas acima são questionamentos prévios feitos após o anúncio da nova ferramenta e que os Termos e Condições de Uso e a Política de Privacidade deverão ser analisados com cautela. Até a presente data, o software está em fase de testes e está disponibilizado para um grupo restrito de usuários. Segundo a OpenAI, o Sora terá proteções contra conteúdos violentos, de cunho sexual e com celebridades, deixando uma marca criptografada para indicar que o conteúdo foi gerado por IA. No entanto, sabe-se que a atribuição da autoria gerará muitas discussões.

Com relação à possibilidade de geração de conteúdo com deepfakes, especialistas alertam que os marcadores não resolverão o problema, pois será possível retirá-los ou até falsifica-los. Por essa razão, tal questão também poderá gerar diversas disputas legais.

Por fim, cabe destacar que as inovações tecnológicas têm desafiado constantemente o panorama legal e os profissionais que têm maior entendimento do assunto podem desenvolver abordagens e soluções jurídicas para os desafios apresentados por essas tecnologias, assessorando os seus clientes, desenvolvendo políticas de uso e diretrizes internas relacionadas ao uso das tecnologias dentro das organizações e garantindo que o uso dessas novidades seja ético e legal.

Nadia Andreotti Tüchumantel Hackerott é consultora associada do HBC Advogados e possui extensa experiência na área de Propriedade Intelectual e assuntos relacionados ao Direito Eletrônico e Proteção de Dados. Pós-graduada em Direito Contratual e em Direito Digital e Compliance. Fez cursos de extensão em Propriedade Intelectual pela University of New Hampshire (Franklin Pierce) nos Estados Unidos e no Japão, pelo Japan Patent Office (JPO). Coordenadora e autora das obras “Aspectos Jurídicos do E-commerce” e “Influenciadores digitais e seus desafios jurídicos” e autora de artigos jurídicos para a Revista dos Tribunais e Fenalaw.

VOCÊ TAMBÉM PODE GOSTAR DE: