IA no STF: Inovação e transparência na justiça digital   Migalhas
Categories:

IA no STF: Inovação e transparência na justiça digital – Migalhas

CompartilharComentarSiga-nos noGoogle News A A

1. Introdução

No dia 16/12/24, o STF inaugurou a MarIA – Módulo de Apoio para Redação com Inteligência Artificial -, uma ferramenta baseada em inteligência artificial generativa com o objetivo de otimizar a elaboração de textos processuais. Desenvolvida com apoio da empresa Elogroup Consulting Ltda., que cedeu os direitos do código-fonte e dos componentes da IA, a iniciativa representa um marco na modernização do Judiciário brasileiro. No entanto, sua implantação também levanta questões sensíveis sobre transparência, accountability e os impactos da automação no devido processo legal.

A ferramenta MarIA tem três funções principais: (i) gerar ementas automáticas a partir de votos e decisões dos ministros, (ii) elaborar relatórios processuais em REs – recursos extraordinários e AREs – recursos extraordinários com agravo e (iii) realizar uma análise inicial das reclamações que chegam ao STF, auxiliando na identificação de demandas repetitivas. O presidente do STF, ministro Luís Roberto Barroso, destacou que a iniciativa visa reduzir a sobrecarga processual e garantir maior celeridade à tramitação dos processos, considerando o acervo de mais de 83,8 milhões de ações em curso no Judiciário brasileiro.

A promissora capacidade de otimização processual da MarIA, todavia, suscita desafios relacionados à transparência dos métodos utilizados pela ferramenta e à necessidade de supervisão humana efetiva. Embora a Secretaria de Tecnologia e Inovação do STF tenha ressaltado que todas as decisões continuarão sendo revisadas por ministros e servidores, a utilização de inteligência artificial no Judiciário exige um debate aprofundado sobre suas implicações para os princípios do contraditório, da ampla defesa e da fundamentação das decisões judiciais.

Ademais, a adoção da MarIA reflete uma tendência global de incorporação de soluções tecnológicas no Direito, impulsionando mudanças estruturais na forma como o Judiciário interage com informações processuais. Tal cenário reforça a necessidade de estabelecer mecanismos de governança que garantam a equidade, a imparcialidade e o respeito aos direitos.

2. Desafios éticos e jurídicos da automação

A automatização de tarefas judiciais por meio da MarIA apresenta desafios éticos e jurídicos que vão além da mera modernização do Judiciário. Um dos principais entraves diz respeito à opacidade dos algoritmos utilizados, conhecidos como black box algorithms (algoritmos de caixa-preta). Quando um relatório ou resumo processual é gerado por um sistema cuja lógica permanece desconhecida, surge a dúvida sobre a conformidade dos critérios utilizados com os princípios constitucionais, como a transparência, a previsibilidade e o devido processo legal.

A ausência de explicabilidade nos modelos de inteligência artificial tem sido amplamente discutida em diversas áreas do Direito e da Administração Pública. Um caso emblemático ocorreu na Holanda, onde o governo utilizou um sistema automatizado, o SyRI – System Risk Indication, para detectar fraudes em benefícios sociais. O algoritmo operava sem transparência, cruzando dados de milhares de cidadãos sem que os critérios de análise fossem divulgados. Após denúncias de discriminação contra imigrantes e grupos socioeconomicamente vulneráveis, o sistema foi declarado ilegal pelo Tribunal de Haia em 2020, sob a justificativa de violar direitos fundamentais, como a privacidade e a não discriminação.

Outro exemplo relevante ocorreu no Reino Unido, com o uso de um algoritmo para definir notas de estudantes durante a pandemia de Covid-19, quando as provas presenciais foram canceladas. O sistema, desenvolvido para substituir as avaliações tradicionais, acabou prejudicando alunos de escolas públicas, reduzindo injustamente suas notas com base em padrões históricos de desempenho escolar. Após uma onda de protestos e contestação judicial, o governo britânico foi obrigado a abandonar a metodologia e reconsiderar os critérios de avaliação.

Esses exemplos demonstram que, sem mecanismos claros de auditoria e explicabilidade, algoritmos podem reforçar desigualdades e tomar decisões problemáticas sem que os afetados tenham meios eficazes de contestação. No caso da MarIA, ainda que seu objetivo seja auxiliar na sistematização de informações processuais e não substituir o julgamento humano, a opacidade de seu funcionamento pode gerar riscos semelhantes.

A neutralidade dos algoritmos também é passível de questionamento. Sem avaliações contínuas, a automação pode reproduzir ou agravar preconceitos existentes, desafiando a própria ideia de imparcialidade judicial. Por fim, torna-se essencial definir claramente a responsabilidade sobre os relatórios gerados: se uma inconsistência ou erro for identificado, qual será o nível de supervisão e correção possível? Essa questão coloca em debate os limites da autonomia técnica e ressalta a necessidade de fiscalização constante, garantindo que a tecnologia seja um instrumento de aprimoramento da justiça, e não de reforço a desigualdades estruturais.

3. Transparência algorítmica: Um imperativo democrático

A implementação da MarIA no STF representa um salto significativo na modernização do Judiciário, ao utilizar inteligência artificial generativa para auxiliar ministros e servidores na análise e síntese de informações processuais. Essa inovação, embora não detenha autonomia decisória, desempenha um papel crucial na formulação de votos, elaboração de relatórios e análise preliminar de reclamações, influenciando, de maneira direta e indireta, a interpretação dos magistrados. Diante desse cenário, a transparência algorítmica se impõe como um elemento central para garantir o uso ético da tecnologia, em estrita conformidade com os princípios do devido processo legal.

Para assegurar que a MarIA atue como uma ferramenta de apoio confiável, é imperativo que os critérios, dados e parâmetros que orientam suas respostas sejam amplamente divulgados aos operadores do Direito. Essa divulgação não exige, necessariamente, a abertura irrestrita do código-fonte, mas sim o estabelecimento de mecanismos que permitam compreender a lógica de funcionamento da ferramenta. Dessa forma, eventuais vieses poderão ser identificados e corrigidos preventivamente, evitando distorções que possam comprometer a prática judicial.

A necessidade de transparência algorítmica encontra respaldo em diversos casos reais que evidenciam os riscos de sistemas opacos. Por exemplo, investigações acadêmicas e análises de sistemas de policiamento preditivo empregados em centros urbanos dos Estados Unidos demonstraram que, quando os critérios e parâmetros não são amplamente divulgados, os algoritmos podem direcionar recursos de forma discriminatória. Tais estudos apontam para a intensificação do escrutínio sobre comunidades historicamente marginalizadas, evidenciando que a falta de transparência e auditoria pode agravar desigualdades sociais e reproduzir vieses estruturais.

Outro exemplo relevante é o episódio ocorrido no Reino Unido durante a pandemia de Covid-19, quando um algoritmo utilizado para definir as notas de estudantes afetou desproporcionalmente alunos de escolas públicas. Esse caso ilustra como a ausência de clareza nos critérios de avaliação pode prejudicar a confiança no processo decisório, limitando a possibilidade de contestação e comprometendo a justiça de maneira significativa.

A previsibilidade dos resultados gerados pela MarIA deve ser garantida por meio de auditorias constantes e de um sistema robusto de monitoramento. Somente com a fiscalização contínua será possível aprimorar os mecanismos de síntese e organização dos dados, mitigando o risco de que vieses algorítmicos passem despercebidos e influenciem de forma indevida a elaboração de peças jurídicas. Essa abordagem não só fortalece a confiabilidade da tecnologia, mas também resguarda a imparcialidade do processo judicial, assegurando que a inovação tecnológica se converta em suporte à atividade jurisdicional e não em fator de comprometimento da justiça.

Portanto, a transparência algorítmica emerge não apenas como uma exigência técnica, mas como um compromisso ético indispensável para o fortalecimento do Estado Democrático de Direito. Ao garantir que a MarIA opere de maneira clara e passível de escrutínio, o STF reafirma seu papel de protagonista na construção de um Judiciário moderno, que integra inovação e responsabilidade. Essa postura promove uma justiça digital que respeite os direitos fundamentais, inspire confiança na sociedade e se torne um verdadeiro aliado na promoção da equidade e da transparência nos processos decisórios.

4. Governança algorítmica e transparência das decisões

A introdução da MarIA no STF impõe desafios que vão além do aspecto tecnológico, exigindo a adoção de um modelo de governança algorítmica que regulamente seu uso e estabeleça diretrizes para sua supervisão. Embora a ferramenta não tome decisões judiciais, sua influência na elaboração de ementas, relatórios e análises preliminares demanda um controle rigoroso sobre sua implementação, evitando que erros ou vieses estruturais comprometam a neutralidade do sistema judicial.

A governança algorítmica da MarIA deve garantir que seu uso esteja alinhado aos princípios constitucionais e aos direitos fundamentais, assegurando que os conteúdos gerados pela IA sejam sempre revisados por magistrados e servidores antes de serem incorporados aos processos. Além disso, deve-se estabelecer um protocolo de auditoria contínua, avaliando regularmente se as informações apresentadas pela ferramenta refletem corretamente o entendimento jurisprudencial e os precedentes aplicáveis a cada caso.

A transparência na geração de conteúdo é um fator determinante para que a MarIA cumpra sua função de apoio sem comprometer a legitimidade do processo judicial. Para isso, é necessário que os parâmetros utilizados pela inteligência artificial na formulação de resumos e relatórios sejam documentados e acessíveis aos operadores do Direito, permitindo que advogados e partes envolvidas possam compreender e questionar eventuais inconsistências.

Além disso, é fundamental que a governança da MarIA seja flexível e adaptável às transformações tecnológicas e jurídicas. À medida que novos desafios surgem na aplicação da inteligência artificial no Judiciário, as normas e protocolos que regem sua utilização devem ser continuamente aprimorados para garantir que a ferramenta permaneça confiável, ética e transparente. Dessa forma, a modernização do Judiciário por meio da inteligência artificial pode ocorrer de maneira segura, garantindo que a tecnologia esteja a serviço da justiça, e não o contrário.

5. O caso COMPAS: Lições sobre transparência e discriminação algorítmica

O sistema COMPAS – Correctional Offender Management Profiling for Alternative Sanctions, desenvolvido pela empresa Northpointe (atualmente Equivant), tem sido amplamente utilizado no sistema judicial dos Estados Unidos para avaliar o risco de reincidência criminal de réus. No entanto, sua implementação levantou questões significativas sobre viés algorítmico e transparência na tomada de decisões judiciais assistidas por inteligência artificial.

O caso State v. Loomis (881 N.W.2d 749, 2016) foi um marco na discussão sobre o uso do COMPAS em sentenças judiciais. Eric Loomis foi condenado a seis anos de prisão com base, em parte, na avaliação de risco gerada pelo algoritmo. A defesa argumentou que a falta de transparência do COMPAS violava o direito ao devido processo legal, uma vez que os critérios exatos utilizados para a classificação do réu eram considerados propriedade intelectual da empresa desenvolvedora e não podiam ser contestados pela defesa. A Suprema Corte de Wisconsin decidiu contra Loomis, afirmando que o COMPAS poderia ser utilizado como uma ferramenta auxiliar na sentença, desde que não fosse o único critério determinante. Contudo, a decisão gerou preocupações generalizadas sobre a confiabilidade e imparcialidade dos algoritmos no sistema de justiça criminal.

Além do caso Loomis, um estudo de 2016 conduzido pela ProPublica1 revelou evidências de que o COMPAS apresentava um viés sistemático contra réus negros. Os jornalistas investigativos analisaram mais de 7.000 casos em Broward County, Flórida, e descobriram que o algoritmo tendia a classificar réus negros como de “alto risco” de reincidência com muito mais frequência do que réus brancos, mesmo quando o histórico criminal era semelhante.

O estudo destacou casos emblemáticos como o de Brisha Borden e Vernon Prater. Borden, uma jovem negra de 18 anos, foi classificada como de alto risco após ser presa por pegar uma bicicleta e um patinete deixados na rua, sem intenção clara de furtá-los. Já Prater, um homem branco de 41 anos, condenado por crimes mais graves, incluindo roubo à mão armada, recebeu uma classificação de baixo risco. Dois anos depois, Borden não cometeu novos crimes, enquanto Prater foi preso novamente por um assalto. Esse e outros casos demonstraram que o COMPAS errava em sua previsão de reincidência de maneira enviesada contra minorias raciais.

Além disso, a análise revelou que os réus brancos tinham maior probabilidade de serem classificados erroneamente como de “baixo risco” em comparação com os réus negros. A falta de transparência no funcionamento do algoritmo impediu que advogados de defesa e juízes compreendessem completamente como essas decisões estavam sendo tomadas, reforçando a necessidade de uma regulamentação mais rigorosa sobre o uso de IA no sistema judicial.

A investigação da ProPublica também apontou que a metodologia do COMPAS era protegida como segredo comercial pela Northpointe, dificultando a avaliação independente de seus critérios e funcionamento. Isso gerou um debate sobre a necessidade de maior transparência e auditabilidade de algoritmos utilizados em decisões judiciais, sobretudo aqueles que influenciam a privação de liberdade dos indivíduos.

A experiência com o COMPAS ilustra os riscos da opacidade algorítmica no sistema de justiça, o que levanta preocupações semelhantes quanto à implementação da MarIA pelo STF. No caso do COMPAS, a falta de transparência em seus critérios de pontuação levou a questionamentos sobre sua influência na privação de liberdade dos réus, evidenciando como a dependência de sistemas automatizados pode impactar diretamente a justiça das decisões. Embora a MarIA não tome decisões judiciais, seu papel na estruturação da pesquisa jurídica e na organização de jurisprudência pode influenciar indiretamente a fundamentação dos magistrados.

Assim como no COMPAS, a ausência de transparência na forma como os dados são processados e apresentados pode resultar em vieses que afetam a condução dos julgamentos. Se a MarIA priorizar certos precedentes em detrimento de outros ou estruturar a pesquisa jurídica de maneira seletiva, pode-se criar uma falsa impressão de consenso jurisprudencial, limitando o espectro de interpretações consideradas pelos ministros. A diferença fundamental entre os dois sistemas não elimina o risco de que a opacidade algorítmica comprometa a imparcialidade e a previsibilidade do Direito.

A correlação entre os dois casos evidencia a necessidade de mecanismos que garantam a transparência e a auditabilidade dos algoritmos utilizados no Judiciário. O COMPAS demonstrou como a confiança em modelos opacos pode levar a distorções na aplicação da justiça, e a MarIA, ainda que em um contexto distinto, também pode moldar decisões de forma indireta caso não sejam estabelecidos critérios claros sobre seu funcionamento e sua influência na interpretação do Direito. Se no COMPAS a falta de explicabilidade levantou dúvidas sobre a justiça das sentenças, na MarIA, a ausência de transparência pode comprometer a confiabilidade das informações utilizadas pelos magistrados, reforçando a necessidade de controle e escrutínio sobre sua aplicação.

Considerações finais

A MarIA representa um marco transformador na modernização do Judiciário brasileiro, trazendo a promessa de otimizar processos e aliviar a sobrecarga que há tempos desafia o sistema judicial. Contudo, essa inovação deve ser acompanhada de um compromisso firme com a transparência e a governança colaborativa. Se os algoritmos que geram ementas, relatórios e análises processuais permanecerem opacos, o risco é que a automação acabe reproduzindo vieses já existentes, comprometendo a imparcialidade e a previsibilidade das decisões judiciais. Assim, é fundamental que os critérios, dados e parâmetros que orientam a MarIA sejam divulgados de forma clara, permitindo que operadores do Direito, advogados e a sociedade possam acompanhar e questionar seu funcionamento.

Essa abertura não significa necessariamente a divulgação total do código-fonte, mas a implementação de mecanismos robustos de auditoria contínua e supervisão democrática. A criação de um ambiente onde a tecnologia se submeta a avaliações periódicas e a feedbacks constantes pode transformar a MarIA em um sistema dinâmico, capaz de se adaptar e evoluir conforme os desafios éticos e jurídicos se apresentam. A experiência com outros sistemas automatizados reforça que a ausência de transparência pode levar a injustiças e discriminações, demonstrando a importância de um controle rigoroso na aplicação de soluções tecnológicas no âmbito judicial.

Para que a MarIA cumpra seu papel de apoio sem comprometer os direitos fundamentais, é essencial que sua governança seja construída de forma colaborativa, envolvendo não apenas o Judiciário, mas também representantes do Legislativo, especialistas em inteligência artificial, ética e a sociedade civil. Essa articulação entre diversos atores é crucial para garantir que a tecnologia esteja a serviço da justiça, evitando que se torne um instrumento de exclusão ou acentuação de desigualdades. Além disso, a criação de canais de feedback que possibilitem a correção de inconsistências e a melhoria contínua da ferramenta promoverá um ambiente de constante aprendizado e aprimoramento.

Por fim, incentivar a pesquisa e o desenvolvimento de novas metodologias para aprimorar a explicabilidade dos algoritmos é vital para que o Judiciário se posicione não apenas como consumidor de tecnologia, mas como protagonista na definição de diretrizes éticas para a inteligência artificial. Dessa forma, a inovação pode caminhar lado a lado com os valores democráticos, transformando a MarIA em um símbolo de justiça digital que fortaleça a confiança da sociedade no sistema judicial e contribua para a construção de um futuro onde tecnologia e ética se entrelacem de maneira harmônica e justa.

__________

1 ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing  . Acesso em: 02 fevereiro 2025.

2 ALMEIDA, Virgílio; et al. Algorithmic Institutionalism: the changing rules of social and political life. Cambridge: Cambridge University Press, 2023.

3 BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília, DF: Senado Federal, 1988. (Referência aos princípios da publicidade dos atos judiciais e do devido processo legal: art. 5º, LX; art. 93, IX).

4 MEDINA, Damares. MarIA: tecnologia, opacidade e o futuro da jurisdição constitucional – os desafios de uma revolução algorítmica no judiciário. 23 dez. 2024.

5 STF. STF lança MarIA, ferramenta de inteligência artificial que dará mais agilidade aos serviços do Tribunal. Disponível em: https://noticias.stf.jus.br. Acesso em: 16 dez. 2024.

6 UNIÃO EUROPEIA. Artificial Intelligence Act: proposal for a regulation laying down harmonized rules on artificial intelligence. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence. Acesso em: 17 dez. 2024.

Victor Habib Lantyer de Mello

Victor Habib Lantyer de Mello

Advogado e Professor. Mestre em Direito pela Universidade Católica do Salvador. Autor de dezenas de livros jurídicos. Pesquisador multipremiado.

Leave a Reply

Your email address will not be published. Required fields are marked *