Quem deve ser responsabilizado em caso de erro na IA?

A inteligência artificial já está inserida no cotidiano de milhões de pessoas pelo mundo. Aliás, uma nova pesquisa global do Google e da Ipsos já mostrou que o Brasil está acima da média mundial no uso de inteligência artificial. Em 2024, os números apontaram que 54% dos brasileiros utilizaram IA generativa, enquanto o índice global registrou 48%. Mas afinal, o que explica esse acontecimento? Uma das respostas pode girar em torno da capacidade desta tecnologia automatizar tarefas repetitivas do dia a dia e tornar o gerenciamento dessas atividades mais simples e ágil.

No entanto, essa utilização massiva da IA também traz grandes desafios e um deles é preocupante: estas ferramentas podem se enganar, trazer dados falsos e até mesmo inventar informações. Caso o erro de uma plataforma prejudique o usuário, quem poderá ser responsabilizado?

Em 2023, a OpenAI publicou um relatório de 100 páginas detalhando as capacidades do GPT-4. No capítulo “Comportamentos Emergentes de Risco”, a OpenAI relatou um experimento realizado por uma organização independente de ética em IA. Uma das tarefas consistia em fazer o GPT-4 usar a plataforma TaskRabbit para contratar um humano e resolver um CAPTCHA — teste usado para distinguir robôs de pessoas. Quando o humano suspeitou e perguntou se estava falando com um robô, o modelo “pensou em voz alta” que não poderia se revelar e decidiu mentir, dizendo que tinha deficiência visual. O humano, então, resolveu o teste por ele.

Esse episódio gerou preocupações. A OpenAI reconhece no relatório que o GPT-4 apresenta comportamentos preocupantes, como a capacidade de fazer planos complexos, buscar recursos e até adotar posturas autoritárias. A empresa afirma estar atenta a essas tendências, especialmente aquelas que envolvem busca por poder, por representarem riscos elevados.

Também em 2023, o Conselho Nacional de Justiça (CNJ) passou a investigar uma sentença assinada por um juiz federal da 1ª Região que, na verdade, foi redigida com auxílio do ChatGPT, sem transparência sobre o uso da IA.

O caso só veio à tona porque a decisão citava uma jurisprudência do Superior Tribunal de Justiça (STJ) que simplesmente não existe — uma “alucinação” do modelo de IA. Ao identificar a referência falsa, o advogado da parte derrotada denunciou o episódio à Corregedoria Regional da Justiça Federal da 1ª Região.

Em março deste ano, o norueguês Arve Hjalmar Holmen ficou chocado ao consultar o ChatGPT e descobrir que a IA o acusava, falsamente, de ter assassinado dois filhos e tentado matar um terceiro — um crime que nunca aconteceu. Sem qualquer histórico criminal, Holmen denunciou o caso à Autoridade de Proteção de Dados da Noruega, alegando violação do GDPR, que exige que informações pessoais sejam corretas e atualizadas.

A organização Noyb pediu a exclusão imediata da resposta difamatória, a aplicação de multa à OpenAI e ajustes no modelo para evitar novos erros graves.

Em resposta, a OpenAI afirmou que o erro foi gerado por uma versão antiga do modelo, antes da integração com ferramentas de busca, e reforçou que está trabalhando para reduzir as chamadas “alucinações” da IA — respostas inventadas. Mesmo assim, especialistas alertam que esse tipo de falha ainda ocorre com frequência, em até 27% dos casos, segundo a startup Vectara.

Outro episódio é uma pesquisa realizada pela Forbes Brasil, que revelou alucinações da plataforma Gemini, do Google. Durante o estudo, foi solicitado que a IA apresentasse uma linha do tempo com os principais acontecimentos na vida de Elon Musk. Como resposta, a ferramenta afirmou que Musk havia se tornado presidente dos Estados Unidos em janeiro de 2024 e lançado uma cidade em Marte no mês de abril.

Esses casos mostram a fragilidade de confiar cegamente nas informações concedidas por programas de IA. Especialistas tentam explicar os motivos que levam as IAs a errarem, e o ser humano, é claro, é o principal culpado. Dentre as causas foram apontadas:

– Desatualização das bases de dados;

– Dados de treinamento com informações falsas;

– Ausência de verificação de fatos e supervisionamento humano;

– Falta de compreensão técnica de quem alimenta as ferramentas;

– Perguntas complexas ou ambíguas de difícil interpretação da IA.

Diante destas razões, a resposta para a pergunta título deste texto pode não ser só uma. Em alguns casos, os fabricantes de sistemas de IA podem ser responsabilizados por falhas ao oferecerem um serviço eficiente e seguro, mas carente de testes e auditorias. Já em outras situações, o usuário, por não manusear a ferramenta com responsabilidade.

O mais recomendável é consultar um advogado especializado na área para orientações de casos específicos. Entretanto, é certo que a IA deve ser utilizada com cautela. O usuário precisa entender que ela possui limitações e se certificar de que as informações transmitidas por esse assistente virtual são realmente verdadeiras.

VOCÊ TAMBÉM PODE GOSTAR DE: