Logo Valor

Criminalizar o uso da IA não basta

Logo Valor

Criminalizar o uso da IA não basta

Por Cecilia Mello

A inteligência artificial (IA) já não é uma promessa futura — é realidade. Ferramentas capazes de gerar textos, imagens, vídeos e vozes com realismo cada vez maior desafiam a noção de verdade e pressionam os sistemas jurídicos a se atualizarem. Diante desse cenário, o mundo discute como regular e responsabilizar o uso da IA, especialmente quando seus efeitos extrapolam os limites éticos e legais. O Brasil participa desse debate, mas o caminho até uma regulação eficaz, equilibrada e tecnicamente segura ainda está em construção.

Nos últimos anos, o Congresso Nacional recebeu diversas propostas voltadas à criação de um marco regulatório da IA e à criminalização de condutas específicas, como a disseminação de deepfakes, a manipulação de conteúdo eleitoral e fraudes algorítmicas. A iniciativa mais estruturada até o momento é o substitutivo ao Projeto de Lei nº 2.338/2023, aprovado pelo Senado em dezembro de 2024 e atualmente em análise na Câmara dos Deputados. Com base em um anteprojeto elaborado por juristas e proposto pelo então presidente do Senado, Rodrigo Pacheco (PSD-MG), o texto reúne dispositivos de sete projetos anteriores, incluindo o PL 21/2020, e de dezenas de emendas parlamentares.

A partir dessa aprovação, vários projetos que tratavam de temas semelhantes foram considerados prejudicados e enviados ao arquivo — entre eles, o PL 5.051/2019, o PL 5.691/2019, o PL 872/2021, o PL 3.592/2023, e os PLs 210 e 266/2024. Essa consolidação legislativa é importante por evitar sobreposições normativas e reduzir o risco de contradições jurídicas. No entanto, ela concentra o debate regulatório em um único texto, o que exige atenção redobrada da sociedade civil e do setor jurídico para os próximos desdobramentos na Câmara.

O substitutivo estabelece princípios para o desenvolvimento e uso ético da IA, garante a proteção de direitos fundamentais e dos criadores de conteúdo artístico e reforça a responsabilidade dos desenvolvedores. Por outro lado, exclui da categoria de “alto risco” os algoritmos de redes sociais, o que provocou divergência entre a base do governo e a oposição. Embora não trate de censura ou controle de opinião, o texto impõe aos responsáveis pelos sistemas a obrigação de zelar pelas ferramentas que disponibilizam à sociedade. Sua tramitação foi precedida de amplo diálogo social, com 14 audiências públicas, e o projeto é considerado um avanço por colocar o ser humano no centro das decisões envolvendo IA — ainda que pontos críticos permaneçam abertos.

Entre as propostas ainda em discussão, destaca-se o PL 2.306/2023, que propõe a identificação obrigatória de conteúdos gerados por IA, com previsão de penalidades em caso de fraude ou omissão dessa informação. Outro avanço recente é o PL 6.119/2023, aprovado na Comissão de Defesa do Consumidor da Câmara, que altera o Código Penal e o Código de Defesa do Consumidor para prever pena de quatro a oito anos de reclusão para quem utilizar IA com o objetivo de manipular, enganar ou induzir o consumidor ao erro — endurecendo a punição para publicidade enganosa praticada por meio de tecnologia.

Apesar desses avanços, o Brasil ainda carece de uma legislação geral e consolidada sobre IA. Hoje, práticas abusivas são enquadradas em normas genéricas, como o Código Penal e o Marco Civil da Internet. Essa lacuna normativa gera insegurança para desenvolvedores e usuários, além de dificultar a uniformização da jurisprudência. A consequência é um cenário vulnerável, propenso a judicializações complexas e decisões inconsistentes.

Esse desafio não é exclusivo do Brasil. Nos Estados Unidos, o avanço da regulação ocorre principalmente em nível estadual. A Califórnia e o Texas já criminalizam deepfakes em contextos eleitorais e pornográficos, mas os projetos federais — como o Deepfake Accountability Act e o Algorithmic Accountability Act — estão parados no Congresso. O primeiro busca criminalizar manipulações com fins fraudulentos ou difamatórios; o segundo exige auditorias para prevenir discriminação algorítmica. Ambos carecem de previsão para votação.

A União Europeia lidera o debate global com o AI Act, aprovado em março de 2024, que proíbe usos considerados inaceitáveis, impõe limites ao reconhecimento facial em espaços públicos e prevê multas severas — até 7% do faturamento global — para violações. A norma será implementada gradualmente até 2026. A UE também revisa sua Diretiva sobre Crimes Cibernéticos para incluir, até 2025, tipos penais relacionados à IA.

Outros países adotam abordagens distintas. A China impõe regras rígidas desde 2023, exigindo identificação de conteúdos gerados por IA e proibindo deepfakes não autorizados. O Reino Unido, por meio do Online Safety Act, já criminaliza deepfakes maliciosos, embora ainda não tenha uma legislação geral sobre IA. No Canadá, o projeto C-27 (AIDA) propõe uma regulação com foco em transparência e responsabilidade civil, e segue em tramitação.

[..]

Cecilia Mello é sócia e fundadora do Cecilia Mello Advogados. Atuou como desembargadora federal no TRF-3 de 2003 a 2017, advogada e procuradora do Estado de SP de 1985 a 2003. Vice-presidente do Conselho Superior de Assuntos Jurídicos da Fiesp. Mestre em Direito, Justiça e Cidadania pelo IDP.

Leia a íntegra em Valor Econômico


Posts relecionados

Logo Valor
Justiça nega liminar e mantém limite para compensação fiscal

Igor Mauler Santiago, sócio do escritório Mauler Advogados, falou sobre o tema ao...

O compliance e os desafios ambientais do agronegócio

O sucesso do agronegócio brasileiro dependerá crucialmente de pesquisa, investimentos em infraestrutura e...

Fale conosco

Endereço
Rua Wisard, 23 – Vila Madalena
São Paulo/SP
Contatos

(11) 3093 2021
(11) 974 013 478