“IA física é o futuro”, diz CEO da Nvidia
A inteligência artificial deixou o reino abstrato dos algoritmos invisíveis. Ela agora ocupa espaços físicos, move-se entre nós e toma decisões que impactam corpos, não apenas dados. Robôs humanoides em fábricas, veículos autônomos em centros logísticos e bots trabalhando ao lado de humanos já não são ficção científica — são realidade operacional que desafia os pilares tradicionais do direito.
O CEO da Nvidia declarou recentemente que “o futuro da IA é a IA física”, mas garantiu que esse futuro não está distante. Essa afirmação ressoou com urgência no mercado mundial e acende um alerta para o jurídico brasileiro. Consequentemente, advogados e executivos precisam compreender que o arcabouço legal atual apresenta lacunas críticas. Portanto, este é o momento de preparação estratégica.
Lacunas na legislação brasileira
A legislação brasileira não possui normas específicas para acidentes envolvendo IA física. Assim, os casos serão tratados por analogia ao Código Civil, CDC e CLT. Contudo, esse modelo apresenta limitações significativas.
Fabricio Polido, sócio de L.O. Baptista, explica que “a legislação pressupõe que o dano seja previsível ou decorrente de um defeito de fabricação”. Quando um robô causa dano por decisão autônoma aprendida, a cadeia de causalidade torna-se complexa. Além disso, dificulta-se a prova do nexo causal.
A responsabilidade objetiva do risco da atividade permanece aplicável. No entanto, sistemas que aprendem e mudam comportamento desafiam conceitos tradicionais. Beatriz Haikal, sócia do BBL Advogados, reforça que “os institutos tradicionais de culpa, nexo causal e defeito foram concebidos para produtos estáticos ou condutas humanas”.
O PL da Inteligência Artificial busca preencher essas lacunas, propondo responsabilidade objetiva para sistemas de alto risco. Ademais, estabelece presunção de causalidade favorecendo vítimas.
Cadeia de responsabilidade civil permanece indefinida
Quem responde quando um robô causa dano? A resposta depende do caso concreto. Entretanto, a tendência é responsabilização solidária entre fabricante, operador e proprietário.
Leandro Aghazarm, do Henneberg Ferreira Marques, esclarece: “O fabricante ou integrador tende a responder quando o dano decorre de defeito de concepção e fabricação”. A empresa usuária responde pelo risco da atividade. Já o programador responde apenas se houver erro técnico comprovável.
Na prática, o Judiciário direciona responsabilidade para quem detém maior controle. Consequentemente, empresas assumem riscos significativos. Beatriz Haikal observa que “essa lógica tende a ser reforçada pela aplicação combinada da teoria do risco da atividade”.
O CDC oferece base importante, mas mostra-se insuficiente. Sistemas que se modificam após colocação no mercado exigem regime específico. Assim, contratos bem estruturados tornam-se essenciais para alocação de riscos.
Proteção de inovações exige estratégia multicamadas
A IA física combina hardware, software e aprendizado de máquina. Portanto, requer proteção jurídica híbrida e complexa.
Fabricio Polido destaca que “a proteção de produtos e processos inovadores em IA física requer uma estratégia de Propriedade Intelectual híbrida”. Patentes protegem hardware e processos inventivos. Direitos autorais cobrem código-fonte. Contudo, o maior ativo reside nos modelos treinados.
Beatriz Haikal complementa: “grande parte do valor econômico reside menos no algoritmo abstrato e mais em ativos dificilmente patenteáveis, como conjuntos de dados proprietários”. Segredo industrial torna-se ferramenta central. Ademais, contratos devem prever titularidade sobre melhorias geradas por aprendizado contínuo.
A interação constante entre camadas tecnológicas cria desafios únicos. Assim, empresas precisam estabelecer cláusulas sobre resultados gerados pelo robô no ambiente do cliente. Portanto, a estratégia de PI deixa de ser estática.
Dados coletados geram questões de titularidade e controle
Robôs em ambientes corporativos coletam volumes massivos de dados. Entretanto, a titularidade permanece com o indivíduo, conforme LGPD.
A empresa atua como controladora dos dados. Portanto, deve respeitar finalidade, minimização e transparência. Michel Berruezo, do Pellegrina e Monteiro Advogados, afirma que “a legislação brasileira assegura ao empregador a propriedade sobre o produto intelectual e tecnológico desenvolvido por trabalhadores”.
Dados biométricos recebem proteção reforçada. São classificados como sensíveis pela LGPD. Consequentemente, exigem base legal específica e consentimento explícito. Leandro Aghazarm alerta: “será preciso muito cuidado acerca dos tipos de câmeras e sensores a serem inseridos em robôs”.
Em espaços públicos, a coleta deve ser justificada. Ademais, requer transparência total aos titulares. Dados derivados ocupam zona cinzenta no ordenamento brasileiro. Portanto, contratos precisam definir propriedade sobre insights gerados.
Automação não gera passivo por si só
A substituição de trabalhadores por robôs é direito do empregador. No entanto, a forma de implementação pode gerar passivos significativos.
Fabricio Polido esclarece: “O risco de passivo surge não pela automação em si, mas pela forma como a substituição e dispensa são conduzidas”. Demissões em massa sem plano de requalificação podem ser questionadas judicialmente. Além disso, violações a normas coletivas ampliam riscos.
Michel Berruezo destaca que “em 2025, o STF julgou, de forma unânime, a Ação Direta de Inconstitucionalidade por Omissão 73”. O Legislativo não cumpriu o artigo 7º, XXVII, da Constituição. Portanto, projetos de lei propõem negociações coletivas obrigatórias.
Beatriz Haikal reforça que “o risco jurídico não decorre da tecnologia em si, mas das escolhas empresariais na forma de adoção”. A OIT criou em 2024 o Observatório sobre IA e Trabalho. Consequentemente, o debate internacional intensifica-se sobre proteções adequadas.
Segurança do trabalho exige validação contínua
Humanos e robôs operando lado a lado criam novos desafios de segurança. A NR-12 e Nota Técnica 31/2018 regulamentam cobots no Brasil.
Michel Berruezo explica que “os modelos probabilísticos, se comparados ou conjugados aos sensores ópticos, aumentam a eficiência do maquinário”. Sistemas de parada automática melhoram significativamente. Contudo, o comportamento do robô pode mudar devido ao aprendizado.
[…]
Michel Berruezo reforça: “os advogados deverão, mais do que nunca, compreender o funcionamento dos modelos de IA”. Ciência de dados e computação entram no currículo jurídico. Consequentemente, letramento em IA torna-se competência nuclear.
Leandro Aghazarm complementa que “serão especialmente valorizadas competências em responsabilidade civil tecnológica”. Atuação multi e interdisciplinar torna-se padrão. Portanto, escritórios capazes de integrar conhecimento jurídico e tecnológico estarão melhor posicionados.
