Como o Japão regula a inteligência artificial com leveza e precisão
Por: Beatriz Haikal, Daniel Becker e Gabriela Sotomayor
Samurais não impunham a espada com pressa. Agiam com disciplina e autocontrole, espírito que parece inspirar a nova legislação japonesa sobre inteligência artificial. Com a promulgação da Lei sobre a Promoção da Pesquisa, Desenvolvimento e Utilização de Tecnologias Relacionadas à IA (2025), o Japão propõe uma terceira via regulatória.
Diferente do modelo europeu, centrado em riscos e sanções, e da abordagem norte-americana, marcada por ordens executivas fragmentadas, a legislação japonesa aposta na coordenação intersetorial, no fomento à inovação e na governança baseada em confiança. Em tempos de disputas por protagonismo tecnológico, o Japão apresenta um caminho alternativo que merece atenção.
A lei adota como fundamentos a eficiência administrativa, a competitividade industrial, a segurança nacional e a cooperação internacional orientada à estabilidade e ao desenvolvimento global. No lugar de impor obrigações rígidas e sanções administrativas, a norma estabelece deveres voluntários dirigidos a universidades, empresas e cidadãos.
O foco da norma é claro: fomentar o desenvolvimento da IA como tecnologia estratégica, promovendo sua adoção no setor público e privado. Para isso, prevê incentivos à pesquisa, compartilhamento de infraestrutura e dados, capacitação de talentos e articulação internacional.
A norma também responde a desafios estruturais. O Japão tem quase 30% da população com mais de 65 anos e pode enfrentar um déficit de 11 milhões de trabalhadores até 2040, segundo o Recruit Works Institute (RWI). A IA aparece, assim, como eixo da Society 5.0, estratégia que busca integrar tecnologia ao cotidiano para manter bem-estar e produtividade em uma sociedade envelhecida.
Embora mencione a importância da transparência e do uso adequado, a norma não impõe exigências técnicas específicas nem diferencia tipos de risco. Trata-se de um marco de soft law, que abandona a lógica punitiva e aposta em uma abordagem construtiva, baseada em análise de incidentes, orientação e aconselhamento. O enfoque está menos na responsabilização imediata e mais na consolidação de boas práticas e no aperfeiçoamento progressivo do ecossistema regulatório.
Essa escolha se evidencia ainda mais frente a outras potências
A União Europeia, por meio do EU AI Act, optou por um regime exigente, com registros obrigatórios, avaliações de impacto e penalidades severas. Ainda que orientado à proteção de direitos fundamentais, esse modelo acaba impondo barreiras à inovação.
No Brasil, o PL 2.338/2023 segue a lógica europeia, com princípios como proteção de direitos humanos, supervisão humana, não discriminação e transparência. O texto, aprovado no Senado, está em análise na Comissão Especial da Câmara, com relatoria de Luisa Canziani, em fase de revisão técnica e diálogo setorial.
Nos Estados Unidos, ainda não há uma legislação consolidada. Em 2025, Trump revogou a ordem do governo Biden e editou a Ordem Executiva 14.179, priorizando competitividade econômica, liberdade para inovação e segurança nacional. Apesar de orientada por princípios gerais, os EUA operam sob um arcabouço regulatório fragmentado, com diretrizes não vinculantes. Paralelamente, a Câmara dos Deputados aprovou uma proposta de moratória que proíbe estados de legislar sobre IA por dez anos — medida ainda pendente no Senado e vista como uma tentativa de evitar um mosaico regulatório.
É verdade que a leveza normativa pode levantar críticas quanto à ausência de enforcement e à falta de salvaguardas explícitas para usuários afetados por decisões automatizadas. Ainda assim, a estrutura da lei indica um marco fundacional voltado ao planejamento estratégico e se destaca por sua clareza, com ênfase no papel do Japão na formulação de normas internacionais, sugerindo um protagonismo diplomático.
A escolha legislativa também reflete características culturais específicas do Japão, como sua tradição de governança coordenada, alto grau de confiança entre governo e sociedade e forte integração entre setores produtivos e administrativos. Isso não significa que o modelo deva ser replicado de forma acrítica, mas sim que ele pode inspirar alternativas regulatórias mais adaptadas à realidade de cada contexto.
Ao estruturar sua política de IA com base na confiança mútua entre governo, indústria, academia e sociedade, o Japão demonstra que não precisa sufocar a experimentação. Em vez de limitar antes de compreender, sua proposta se ancora em uma governança iterativa, que oferece um ponto de partida para a inovação responsável. Para países que ainda constroem sua capacidade regulatória, essa pode ser uma lição valiosa: regular também é uma arte — e o Japão parece dominá-la com precisão de seus antigos guerreiros.
Beatriz Haikal
é sócia de Proteção de Dados e Inteligência Artificial no BBL | Becker Bruzzi Lameirão Advogados, graduada em Direito pela PUC-Rio, pós-graduada em Estado e Sociedade pela Associação do Ministério Público do Estado do Rio de Janeiro (Amperj), membro da Comissão de Proteção de Dados da OAB-RJ, Certified Information Privacy Manager (CIPM) pela International Association of Privacy Professionals (IAPP), IAPP Member, OneTrust Certified Privacy Professional, professora convidada de instituições como Ibmec, Curso Fórum e Faculdade CERS.
Daniel Becker
é sócio das áreas de Resolução de Disputas e de Proteção de Dados e Inteligência Artificial no BBL | Becker Bruzzi Lameirão Advogados, diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA), especialista em litígios contratuais oriundos de setores regulados, organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao Professor Richard Susskind; O fim dos Advogados? Estudos em Homenagem ao Professor Richard Susskind, vol. 2; Regulação 4.0, vol. I e II; Litigation 4.0; e Comentários à Lei Geral de Proteção de Dados, todos publicados pela Revista dos Tribunais.
Gabriela Sotomayor
é advogada de Proteção de Dados e Inteligência Artificial no BBL (Becker Bruzzi Lameirão Advogados), graduada em Direito pela Uerj, One Trust certified privacy professional e membro da Comissão de Crimes Digitais da OAB-RJ.