Complexa equação da regulação da IA

Logo Conjur

Complexa equação da regulação da IA

27 de setembro de 2023, 21h22

Por Daniel Becker e Ludmilla Campos

Não é novidade para ninguém a velocidade galopante da evolução da inteligência artificial na última década. O desenvolvimento de uma estratégia regulatória eficaz para a IA, portanto, tem sido vista como essencial, uma vez que a inação significa, inevitavelmente, ficar para trás. Isso não quer dizer, contudo, que se deve regulamentar a matéria de qualquer forma e a qualquer custo. Essa ascensão global da inteligência artificial traz, a reboque, a penumbra regulatória, sendo certo que a ausência de diretrizes claras, podem perpetuar incertezas e instabilidades neste setor, resultando em estratégias de precificação inconsistentes.

O tema é, inegavelmente, complexo, e demanda uma abordagem cuidadosa por envolver uma equação intrincada com quatro fatores chave: expertise, produção, dinâmicas de precificação no mercado global e ímpeto regulatório.

A nível internacional, a ausência de uma regulamentação abrangente pode levar a disparidades entre os diferentes mercados globais, com cada país ou região adotando abordagens regulatórias distintas. Em cascata, haveria um desequilíbrio entre os preços dos produtos de acordo com a região, a depender, claro, das demandas, mas igualmente das regulamentações locais.

Num primeiro momento e em menor escala, são exemplos concretos, o não lançamento do Threads na União Europeia e o risco de banimento do ChatGPT nos países integrantes do bloco após o drástico movimento inicial da Itália nesse sentido. Em maior escala, pode-se provisionar uma concentração da produção e aplicação tecnológica em países que detenham intimidade com a pesquisa tecnológica, capital de investimento, capacidade de extrair ou adquirir insumos necessários à linha produtiva, o que, em linha, antecipa um desbalanço no desenvolvimento das nações.

Os primeiros indícios desse cenário, aliás, já podem ser notados no que a imprensa apelidou de uma nova “Guerra Fria” entre EUA e China. A atual disputa geopolítica e econômica gira em torno dos semicondutores, que desempenham papel fundamental em uma ampla gama de produtos, desde celulares até data centers e inteligência artificial. A qualidade, custo-benefício e a busca por tecnologias emergentes são fatores determinantes nessa competição, que já envolve sanções comerciais e limitações. Enquanto a China usa seu poder econômico para lidar com as restrições, os EUA buscam parcerias para reduzir a dependência chinesa.

O olhar brasileiro, por sua vez, mostra o outro lado da moeda, ainda mais desafiador: o país não é um grande produtor de tecnologia de IA, mas busca regulá-la devido às significativas implicações em diversas áreas, como saúde, transporte e segurança. A falta de produção local ganha um peso ainda maior quando o debate recai sobre a regulamentação da IA. Afinal, seria apropriado regulamentar algo que o Brasil não produz de forma significativa? Há risco concreto de estancar a já paupérrima produção tecnológica no setor de IA aqui?

A ausência de intimidade com a tecnologia e suas nuances pode desaguar no estabelecimento de regras rígidas demais ou prematuras, que, por sua vez, podem sufocar a inovação e impor barreiras de entrada. Se a escolha pela não regulamentação gera insegurança jurídica e mercadológica, por outro lado, a regulamentação equivocada pode limitar a capacidade do Brasil a se adaptar às mudanças tecnológicas e aproveitar plenamente os benefícios da IA.

Para orientar melhor a abordagem do Brasil em relação à regulamentação da IA, é crucial observar as experiências de outros países, com a cautela de se resguardar as particularidades locais para não importar aquilo que não faria sentido ao framework nacional. Muitas nações estão adotando uma abordagem cautelosa, concentrando-se em uma compreensão completa da tecnologia antes de impor regulamentações definitivas. Isso inclui a criação de grupos de trabalho, o lançamento de consultas públicas e o estabelecimento de parcerias com o setor industrial para desenvolver diretrizes e regulamentos informados e contextualizados.

Na vanguarda do tema está a União Europeia. O Bloco composto por 27 nações debateu o tema no curso dos últimos dois anos e, após o lançamento do ChatGPT, potencializou o discurso regulatório ante a preocupação com os impactos da tecnologia no emprego e na sociedade em geral. Assim, em junho de 2023, o Parlamento Europeu aprovou o EU AI ACT, cuja proposta proíbe o uso de IA em práticas consideradas de alto risco, como sistemas de vigilância em massa, além de definir requisitos específicos para a transparência e explicabilidade dos sistemas de IA que impactem os direitos dos cidadãos. Com a vigência estimada para o próximo ano, o texto deve ainda passar pela Comissão Europeia, pelo Conselho Europeu e, ainda, pela aprovação dos membros do bloco.

Já a China, por exemplo, adotou uma abordagem cautelosa, de tentar regular a IA sem soterrá-la. Para isso, antes de lançar-se à elaboração de uma normativa definitiva sobre o tema, definiu guidelines [1] que, fundamentadas no controle da informação, exigem que os desenvolvedores de IA registrem seus produtos no “registro de algoritmos da China”, um repositório governamental recém-criado que reúne informações sobre como os algoritmos são treinados, e se submetam a uma autoavaliação de segurança.

Os Estados Unidos, por sua vez, caminham em regulação de forma mais lenta. Há ainda muita discordância sobre qual o melhor caminho regulatório a se seguir, mas, inegavelmente, há empenho da Administração em compreender o tema e fomentar a pesquisa antes de impor restrições e responsabilidades. Indústria, grupos da sociedade civil e acadêmicos vêm sendo ouvidos através de audiências públicas e os legisladores americanos já propuseram alguns projetos de lei, ainda em seus estágios iniciais.

No cenário brasileiro ainda não existe uma legislação específica que trate exclusivamente do uso de IA. A iniciativa legislativa teve seu pontapé inicial com a proposta do PL 21/2020, posteriormente convertido no PL n° 2.338/2023, ora em trâmite no Senado Federal, e por meio do qual corretamente propôs-se a promoção de uma aliança entre o avanço tecnológico, o fomento econômico e a manutenção das garantias essenciais das pessoas. Mas ainda falta expertise.

Discutir um framework regulatório para o tópico dos sistemas de inteligência artificial é 1) compreender, sem poder antecipar, o impacto significativo nas operações das empresas que oferecem sistemas de inteligência artificial, já que uma proposta normativa ao tema balizaria as modalidades permitidas, as práticas de coleta e tratamento de dados e outras questões práticas importantes. Mudanças dessa natureza exigiriam ajustes nas estratégias de negócios e consequentes investimentos — que desaguariam nos preços das soluções.

Ademais, vislumbrar a introdução de um novo panorama regulatória às empresas de inteligência artificial 2) englobaria uma possível demanda por rearranjos em estruturas corporativas de pesquisa e desenvolvimento de tecnologias para garantir a conformidade dos produtos com as balizas propostas, resultando, assim, em investimentos adicionais que representam um incremento nos custos de transação.

A mudança de comportamento, como dito acima, não afeta apenas os personagens da ponta de cá da tecnologia. A incerteza regulatória — novamente, pela inexistência de um texto legal ou por proposta de conteúdo vazio e incompetente ao que se propõe — 3) também pode impactar as expectativas em relação aos produtos e serviços de inteligência artificial. Os personagens que se encontram na ponta de lá da tecnologia, isso é, os clientes, assinantes e contratantes de softwares e outros instrumentos dessa natureza, podem optar por esperar por regulamentações mais claras antes de adotar em definitivo tecnologias dessa natureza, o que pode reduzir a demanda e, potencialmente, levar a uma queda nos preços.

Apesar dos desafios, é importante reconhecer o imenso potencial econômico que a IA oferece ao Brasil. Projeções indicam que a IA pode contribuir com US$ 15 trilhões para a economia global até 2030, um valor oito vezes maior que o PIB do Brasil. Esse potencial econômico destaca a urgência de o país se posicionar, estrategicamente, no campo da IA. Há de se pontuar, contudo, que o tema não segue inteiramente ao relento em território nacional. Diz-se isso porque a Lei Geral de Proteção de Dados (LGPD), em vigor desde setembro de 2020, que estabelece diretrizes para o tratamento de dados pessoais, embora não seja exclusiva para a IA, traz princípios fundamentais como transparência, finalidade, minimização de dados e responsabilidade no tratamento das informações, aplicáveis aos sistemas de IA, bem como deveres que devem ser observados pelos agentes de IA quando em desempenho das funções de agentes de tratamento.

Na trilha para regular a IA, o Brasil enfrenta o desafio de equilibrar a necessidade de rigor com a importância da flexibilidade e inovação. É preciso endurecer a legislação para garantir que as questões éticas, sociais e de segurança sejam abordadas de forma robusta. Mas sem perder a ternura, ou seja, sem desencorajar a vitalidade, criatividade e inovação que são fundamentais para o avanço da IA no país. A chave está em encontrar um equilíbrio, o que requer um profundo entendimento tanto dos aspectos técnicos quanto dos impactos éticos e sociais da tecnologia. Com isso em mente, o caminho a seguir exige tanto rigor quanto sensibilidade, posicionando o Brasil de forma estratégica na corrida global de IA.

[1] Cyberspace Administration of China (CAC). Algorithm Recommendation Regulation. Disponível em: http://www.cac.gov.cn/2022-01/04/c_1642894606364259.htm. Acesso em 15 set. 2023.

Cyberspace Administration of China (CAC). Deep Synthesis Regulation. Disponível em: http://www.cac.gov.cn/2022-12/11/c_1672221949354811.htm. Acesso em 15 set. 2023.

Cyberspace Administration of China (CAC). Generative AI Regulation. Disponível em: http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm. Acesso em 15 set. 2023.

Daniel Becker é sócio das áreas de Resolução de Disputas e de Proteção de Dados e Regulatório de Novas Tecnologias no BBL – Becker Bruzzi Lameirão Advogados, diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA) e organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao professor Richard Susskind, O fim dos advogados? Estudos em homenagem ao professor Richard Susskind, vol. 2,Regulação 4.0, vol. I e II e Litigation 4.0.

 

Ludmilla Campos é advogada da área de Proteção de Dados e Regulatório de Novas Tecnologias no BBL, graduada em Direito pela Uerj, pesquisadora no Núcleo de Estudos e Pesquisa em Direito Internacional da Uerj (Nepedi) e one trust certified privacy professional.

Revista Consultor Jurídico, 27 de setembro de 2023, 21h22

 

Fonte: ConJur


Posts relecionados

Novos decretos do saneamento básico: o novo sempre vem

Confira o artigo de Danielle Franco, do GVM Advogados, no JOTA

Logo Estadão
Ministério da Mulher, da Família e dos Direitos Humanos deixou de executar 40% do orçamento em 2020

Em artigo, Carmela Zigoni discorre sobre não utilização dos recursos destinados aos ministérios...

Fale conosco

Endereço
Rua Wisard, 23 – Vila Madalena
São Paulo/SP
Contatos

(11) 3093 2021
(11) 974 013 478