Reconciliar o tempo dos processos políticos com o ritmo de avanço tecnológico se aproxima daquilo que chamamos de missão impossível. Ainda assim, é justamente na esfera política e nas entidades governamentais que se identifica a concentração do poder necessário para decidir que se retarde ou acelere o ritmo de muitos desses processos.
Nesse contexto, a pauta global hoje se debruça sobre a regulação da Inteligência Artificial e no Brasil não é diferente. Com o fenômeno do ChatGPT que atingiu 100 milhões de usuários ativos em apenas dois meses desde o seu lançamento e a constatação de que o Brasil está entre os cinco países que mais visitam o site, a urgência de enfrentar o dilema da Inteligência Artificial ganhou os holofotes.
Em que pese a curiosidade gerada pelo famoso chatbot de IA generativa, a complexidade do dilema sócio regulatório imposto pela IA é muito mais abrangente, dado que as aplicações de IA são inúmeras e têm o potencial de disruptar diversos setores econômicos a um só tempo, permitindo a eventual automação em massa de muitas funções hoje ocupadas por humanos.
Daí se cogitar que uma das questões mais importantes da economia do século XXI venha a ser o que fazer com todas as pessoas que eventualmente venham a ser tornar supérfluas[1] em um mundo automatizado. Se o desenvolvimento da IA efetivamente desembocará nessa sociedade automatizada e numa sociedade “pós-trabalho” é algo completamente incerto. Fato é que este é um dos cenários possíveis com que a humanidade se depara e as decisões político-econômicas de hoje certamente impactarão em relevante medida a definição destes rumos.
Pioneira, a União Europeia vem trabalhando no tema há anos e, em abril de 2021, a Comissão Europeia submeteu à discussão a primeira proposta para regulação da IA buscando um modelo que pudesse servir como referencial global, dada a extraterritorialidade inerente ao desenvolvimento e aplicação da tecnologia.
Em essência, a proposta europeia se pauta em uma abordagem baseada em riscos que permite o tratamento proporcional dos diferentes sistemas de inteligência artificial. Para tanto, classifica os sistemas em quatro categorias de riscos: risco mínimo, risco limitado, alto risco e, por fim, risco excessivo ou inaceitável. A proposta é a de que a regulação foque em setores e aplicações específicas de IA, com ênfase nas áreas já reguladas da economia, propiciando a edição de medidas proporcionais e adequadas à classificação do risco sistêmico de cada IA[2].
Enquanto isto, no Brasil, após algumas propostas incipientes, o Senado Federal instituiu, em fevereiro de 2022, Comissão de Juristas com o objetivo de subsidiar a elaboração de proposta legislativa robusta, capaz de estabelecer direitos para proteção da pessoa natural impactada pela IA e dispor de ferramentas de governança, bem como de arranjo institucional adequado para fiscalização e supervisão do uso e desenvolvimento de sistemas de IA, propiciando segurança jurídica para a inovação e o desenvolvimento tecnológico.
Após quase um ano de trabalhos dos experts, que envolveu uma séria de audiências públicas, seminário internacional, oitiva de especialistas e representantes de diversos segmentos, além de estudo sobre a regulamentação de IA em mais de 30 países para análise do panorama mundial, a regulação parecia encaminhada nos termos do PL 2338/2023.
Em linha com a proposta europeia, o projeto estabelece uma regulação baseada em riscos e uma modelagem regulatória fundada em direitos. Traz instrumentos de governança e mecanismos para o gerenciamento dos riscos atrelados ao desenvolvimento de IA, dentre os quais a análise de impacto algorítmico, e veda (ou seja, atrasa) as aplicações que impliquem risco excessivo. Fixa ainda o regime de responsabilidade civil aplicável – diferenciado entre o regime de responsabilidade objetiva para sistemas de alto risco e de risco excessivo e o regime de culpa presumida para os demais sistemas, em privilégio da proteção do usuário.
Há também, é claro, a instituição de uma autoridade responsável pela supervisão e fiscalização de todo o ecossistema regulatório, posto este que a Autoridade Nacional de Proteção de Dados (ANPD) vem advocando para si.
Ocorre que, em 28 de novembro de 2023, o Senador Marcos Pontes apresentou Emenda Substitutiva ao PL 2338/2023, emenda esta que, além de simplista, traz consigo consideráveis retrocessos, como bem salienta Filipe Medon, um dos experts que participou da Comissão de Juristas que viabilizaram a proposta original.
Diante da magnitude da discussão e da complexa rede de consequências a advir da regulação de IA, não parece razoável que se abandone um trabalho sério, coletivo e bem fundamentado em prol de uma emenda individual que sinaliza desconhecimento do atual estado de desenvolvimento de IA, como revela o seu art. 14º. Afinal, o dispositivo que, em teoria, se presta a enfrentar os novos dilemas postos pela IA generativa pretende solucionar tais impasses simplesmente fixando o dever de imposição de marca d’água para identificar os conteúdos gerados por IA, ignorando tanto a insuficiência da medida, como a impossibilidade prática de sua implementação em muitos casos.
Diante deste cenário e a fim de garantir a relevância e o alinhamento do Brasil para com o contexto regulatório global, retomar a discussão em prol do aprimoramento do PL 2338/2023 parece ser o caminho mais sensato para enfrentar uma vez mais o velho novo dilema de regular tecnologias disruptivas.
Clique aqui e acesse o artigo na revista Análise
[1] Harari, Yuval Noah. Homo Deus: uma breve história do amanhã. 1ª ed. São Paulo: Companhia das Letras, 2016. p. 321
[2] Joshua P. Meltzer; Aaron Tielemans. The European Union AI Act. Next steps and issues for building international cooperation. Brookings institution (2022). https://www.brookings.edu/wp-content/uploads/2022/05/FCAI-Policy-Brief_Final_060122.pdf