A transformação digital, impulsionada pelo desenvolvimento exponencial das novas tecnologias, tem alterado de maneira significativa as estruturas sociais, econômicas e jurídicas contemporâneas. Nesse contexto, a proteção de dados pessoais e a regulamentação da inteligência artificial (IA) impõem desafios regulatórios inéditos e complexos, exigindo respostas normativas adequadas e em constante evolução. Daniel Solove, renomado jurista norte-americano, é enfático ao destacar que os modelos regulatórios tradicionais não são mais suficientes para lidar com os riscos atuais, sobretudo diante da opacidade e automação das tecnologias emergentes, cada vez mais complexas¹.
De acordo com a argumentação, Daniel Solove critica a abordagem limitada que muitas legislações adotam ao tratar a privacidade e proteção de dados a partir de um prisma excessivamente relacionado à violação da esfera individual per se, desconsiderando os múltiplos níveis de vigilância e coleta automatizada de dados que, inclusive, já é realizada em larga escala na própria sociedade brasileira. Neste contexto, aponta que a regulação deve ir além da lógica binária de “consentimento x invasão”, incorporando uma análise mais ampla acerca dos riscos estruturais gerados pela sociedade tecnológica, como as relações de poder entre usuários e os grandes conglomerados de tecnologia, além dos impactos sistêmicos sobre os direitos fundamentais². Tudo, tensionado ainda pela relação entre Estado x organizações privadas que, recentemente no Brasil, se manifestaram energética sobre propostas legislativas nacionais, inclusive no esforço ativo de desacreditar a opinião pública. Essa perspectiva reforça, assim, a necessidade de atualização normativa e de construção de marcos legais mais sofisticados, capazes de acompanhar o ritmo acelerado das inovações tecnológicas.
É fato que a inteligência artificial representa um dos temas centrais do debate jurídico global. Mais que um hype de mercado, os modelos de IA, ao tomarem decisões com base em grandes volumes de dados, levantam preocupações sobre vieses algorítmicos, discriminação automatizada, opacidade decisória e responsabilização. Tais riscos não se limitam à privacidade individual, mas também avançam sobre temas importantes como responsabilidade civil, criminal, propriedade intelectual e direitos do autor. Por fim, alcançam a própria estrutura democrática, especialmente quando utilizados por instituições públicas ou grandes plataformas privadas em contextos sensíveis, como justiça, segurança pública, saúde e processos eleitorais³.
Neste cenário, as estratégias geopolíticas adotadas por diferentes blocos e países refletem abordagens diversas quanto à regulação da IA. Assim como fez com o tema da privacidade e proteção de dados pessoais, a União Europeia, por meio do Artificial Intelligence Act (AI Act), tem buscado liderar o processo regulatório, adotando um modelo baseado em risco e centrado na proteção de direitos fundamentais. Essa proposta estabelece diferentes categorias de risco para os modelos baseados em IA (inaceitável, alto, limitado e mínimo), com exigências proporcionais à criticidade identificada⁴. Assim, a ênfase europeia recai sobre pilares normativos como a transparência, a rastreabilidade, a governança ética e a exigência de conformidade prévia à comercialização dos sistemas.
Nos Estados Unidos, a abordagem tem sido mais fragmentada e orientada pelo incentivo à inovação. O país adota regulações setoriais, com maior foco em diretrizes éticas e padrões técnicos voluntários do que em obrigações legais generalizadas. Embora existam propostas no Congresso norte-americano voltadas à criação de um marco federal para IA, até o momento, predomina uma lógica de autorregulação e de estímulo à competitividade entre as big techs⁵, em linha com o papel central que tais empresas desempenham na economia norte-americana. O modelo também é essencialmente semelhante ao visto quando da regulação do tema da privacidade e proteção de dados, destacando legislações estaduais esparsas sobre o tema como o CCPA da Califórnia.
A China, por sua vez, adota uma estratégia ainda mais distinta, centrada no controle estatal e na segurança nacional. O país tem promovido regulações específicas, como o Regulation on the Management of Algorithmic Recommendation Services e a Lei de Segurança de Dados, que reforçam a supervisão governamental sobre o uso de algoritmos e dados pessoais. A política chinesa busca aliar o avanço tecnológico à manutenção do controle político, enfatizando a vigilância como ferramenta de governança⁶. Nesse modelo, a proteção de dados é tratada como uma dimensão da soberania digital e da estabilidade social, mais do que como um direito individual dada a sua forma de organizacional.
Essas diferentes estratégias refletem os valores normativos e as prioridades institucionais de cada região: enquanto uns privilegiam a proteção de direitos fundamentais como estratégia política, outros adotam uma lógica mais liberal e pró-inovação, dominada ou não pela amarras governamentais de acordo com seus respectivos modelos estruturantes enquanto sociedade. Todas essas abordagens, todavia, enfrentam o desafio comum de regulamentar sistemas altamente complexos e em constante mutação, exigindo não apenas normas técnicas, mas também princípios jurídicos claros, mecanismos de supervisão eficazes e formas de cooperação internacional⁷.
A partir da crítica de Daniel Solove e da análise dos modelos regulatórios internacionais, torna-se evidente que o direito deve abandonar sua postura reativa e adotar uma postura mais proativa, intersetorial e multidisciplinar. A regulação da inteligência artificial e das novas tecnologias demanda um novo paradigma jurídico, que reconheça os limites das abordagens tradicionais e incorpore elementos de governança dinâmica, avaliação de impacto, participação democrática e inclusão digital. Somente assim será possível garantir que os avanços tecnológicos estejam a serviço da dignidade humana, da justiça social e da proteção dos direitos fundamentais.
É importante compreender a regulação de novas tecnologias não apenas na esfera de interesses geopolíticos existentes, certamente inafastáveis do debate, mas também trazê-los para a esfera do impacto individual que tais ferramentas tecnológicas promoverão no planeta em um futuro próximo. Se regulação demasiada pode ser prejudicial, a sua ausência também não é inaceitável, bem como a transferência indiscriminada de todo controle ao Estado em detrimento da liberdade também não deve ser.