CompartilharComentarSiga-nos no A A
A regulação da IA – inteligência artificial é um tema emergente no cenário global, refletindo preocupações sobre seus impactos éticos, sociais, econômicos e políticos. Tecnologias baseadas em IA têm transformado setores como saúde, educação, segurança pública e comércio, trazendo inovações significativas, mas também desafios complexos que envolvem desde a transparência na tomada de decisões até o impacto sobre os direitos fundamentais.
No Brasil, o PL 2.338/23 surge como uma tentativa de estabelecer normas gerais para o desenvolvimento e uso responsável de sistemas de IA, buscando equilibrar inovação tecnológica e proteção aos direitos fundamentais. Este marco regulatório insere-se em um contexto de crescente dependência de tecnologias inteligentes e necessidade de garantir transparência, segurança e equidade em suas aplicações, ao mesmo tempo em que procura posicionar o Brasil como um ator relevante no cenário internacional de governança tecnológica.1
Dados recentes mostram que o mercado de IA movimenta mais de US$ 136 bilhões globalmente, com projeções de crescimento exponencial nos próximos anos. No entanto, casos emblemáticos de falhas éticas, como sistemas de reconhecimento facial com vieses raciais ou deepfakes utilizados para desinformação, reforçam a urgência de uma regulação eficaz. Além disso, debates globais, como os conduzidos pela União Europeia em torno do regulamento de IA,2 destacam a importância de uma abordagem equilibrada que promova inovação sem negligenciar a proteção dos direitos humanos. Diante desse cenário, o PL 2338/23 apresenta soluções importantes, mas também levanta polêmicas que exigem análise crítica e reflexiva.
1. Princípios fundamentais e direitos garantidos
O PL 2338/23 adota princípios como transparência, não discriminação, explicação das decisões automatizadas e supervisão humana (arts. 2º e 3º). Entre os direitos assegurados, destacam-se a proteção contra vieses discriminatórios e a possibilidade de contestação de decisões (art. 9º). Essas previsões alinham-se a regulamentações internacionais, como o regulamento Europeu de IA,3 fortalecendo o compromisso com a proteção dos direitos humanos em um cenário de avanços tecnológicos acelerados.
No entanto, a definição de “sistemas de IA” (§4º, I) apresenta limitações ao se concentrar em aplicações preditivas, deixando de lado soluções generativas amplamente utilizadas em áreas como criação de conteúdos, arte e produção de textos. Essa lacuna ignora a evolução de modelos generativos, que já influenciam profundamente setores criativos e corporativos. A inclusão de parâmetros mais abrangentes, como a norma ISO/IEC 22989, seria essencial para evitar interpretações restritivas que comprometem a segurança jurídica e garantir que o marco regulatório acompanhe o desenvolvimento tecnológico global.
Ademais, a ausência de maior detalhamento sobre a rastreabilidade e auditabilidade das decisões automatizadas limita a aplicação do princípio da transparência. Sistemas generativos, como os usados em deepfakes e criação de mídias, podem ter impactos significativos na sociedade, o que exige uma abordagem regulatória que não apenas delimite riscos, mas também promova a educação sobre seus potenciais usos e malefícios. Assim, um marco mais robusto e abrangente é necessário para garantir um equilíbrio adequado entre regulação e inovação.
2. Governança e classificação de risco
A estrutura de governança proposta prevê avaliação preliminar obrigatória para sistemas de alto risco, como aplicações na saúde e segurança pública (art. 17). Essa exigência é crucial para identificar potenciais impactos negativos, garantindo maior responsabilidade dos fornecedores e operadores. Contudo, a ausência de critérios claros para “risco excessivo” (art. 14) pode gerar interpretações subjetivas, dificultando a implementação uniforme da legislação. Uma definição mais precisa é necessária para diferenciar entre riscos aceitáveis e aqueles que requerem medidas rigorosas de mitigação.4
A criação do SIA – Sistema Nacional de Regulação e Governança de IA, coordenado pela ANPD, é uma inovação positiva que promete maior articulação entre diferentes setores e autoridades. No entanto, seu prazo de dois anos para operacionalização (§45 e §74) exige medidas transitórias para evitar lacunas regulatórias. Essas medidas poderiam incluir a formação de grupos de trabalho provisórios e a adoção de diretrizes temporárias que garantam o cumprimento parcial das disposições do marco regulatório enquanto o sistema definitivo não entra em vigor.5
Além disso, é fundamental assegurar a integração do SIA com normas e iniciativas internacionais, como o regulamento Europeu de IA, para alinhar a legislação brasileira com padrões globais. Tal abordagem não apenas fortalecerá a competitividade do Brasil no cenário global, mas também facilitará a troca de informações e boas práticas com outras jurisdições. Por fim, deve-se priorizar a formação e capacitação de recursos humanos especializados para garantir que as estruturas regulatórias tenham capacidade técnica suficiente para enfrentar os desafios impostos pela inteligência artificial
3. Polêmicas e lacunas do marco regulátorio
Três aspectos controversos destacam-se no texto do PL
- Autorregulação por agentes privados: A possibilidade de empresas criarem agências de autorregulação (art. 10) pode comprometer a imparcialidade e a fiscalização pública. Embora possa ser uma alternativa para descentralizar a supervisão regulatória, essa medida exige critérios rigorosos de certificação e monitoramento, a fim de garantir que os padrões estabelecidos sejam adequados e aplicáveis em diferentes setores. Além disso, a falta de fiscalização robusta pode criar um ambiente de autorregulação ineficaz, colocando em risco a transparência e a proteção de direitos fundamentais.
- Uso de sistemas biométricos: Embora regulamentados (art. 15), faltam mecanismos eficazes para prevenir abusos e proteger direitos fundamentais, especialmente em aplicações de vigilância em massa. Tais sistemas têm sido alvo de críticas globais por promoverem discriminações raciais e por ampliarem o risco de vigilância estatal excessiva. No cenário brasileiro, seria essencial detalhar os requisitos técnicos para garantir a segurança dos dados biométricos e assegurar a supervisão de órgãos independentes.6
- Mineração de dados: A permissão limitada para instituições de pesquisa (art. 16) não aborda plenamente a questão dos direitos autorais e a necessidade de um ecossistema de dados acessível. A falta de regulação clara para o uso de grandes volumes de dados públicos e privados pode gerar barreiras para a inovação e, simultaneamente, expor indivíduos a riscos relacionados à privacidade. Para um ecossistema equilibrado, o marco regulatório deveria incentivar a criação de repositórios abertos de dados, protegidos por medidas de anonimização e com uso condicionado à ética e à segurança.7
O PL 2338/23 representa um passo significativo na regulamentação da inteligência artificial no Brasil, mas ainda enfrenta desafios para sua implementação eficaz. A ampliação das definições de sistemas de IA, o fortalecimento da governança pública e a criação de critérios objetivos para classificação de riscos são medidas fundamentais. Para avançar de maneira equilibrada, é imperativo alinhar a legislação brasileira aos padrões globais, integrando boas práticas e normas internacionais que promovam transparência e segurança.
Além disso, o sucesso deste marco regulatório depende de um esforço conjunto entre os diversos setores da sociedade: governos, empresas, academia e sociedade civil. A inclusão ativa de especialistas multidisciplinares e a criação de mecanismos de fiscalização participativa podem contribuir para a construção de um ecossistema de IA que respeite os direitos fundamentais e incentive a inovação responsável.
Finalmente, é necessário investir na formação de profissionais qualificados e na conscientização pública sobre os benefícios e riscos da IA. O desenvolvimento de um marco regulatório eficaz não deve apenas buscar mitigar riscos, mas também impulsionar o Brasil como um líder regional em tecnologia e governança digital, garantindo que a inteligência artificial seja utilizada de maneira a maximizar seu impacto positivo para a sociedade.
___________
1 BRASIL. Projeto de Lei nº 2338, de 2023. Disponível em: http://www25.senado.leg.br. Acesso em: 18 dez. 2024.
2 UNIÃO EUROPEIA. Regulamento de IA. Bruxelas: UE, 2021.
3 PINHEIRO, Patrícia Peck. Aprovado o relatório final do PL 2338/2023. Peck Advogados, 2024.
4 MARCÍLIO, Thiago. Quatro polêmicas sobre o projeto que regula a inteligência artificial. Consultor Jurídico, 2024.
5 Idem, ibidem.
6 PINHEIRO, Patrícia Peck. Op. cit.
7 MARCÍLIO, Thiago. Op. cit.
Jamille Porto Rodrigues
Advogada e Professora de Direito Digital, Inteligência Artificial e Novas tecnologias aplicada ao Direito e Marketing Jurídico.