CompartilharComentarSiga-nos no A A
Com o crescimento da inteligência artificial existem grandes expectativas sobre o que essas tecnologias podem alcançar, com o setor público e privado fazendo investimentos expressivos em sua pesquisa, desenvolvimento e aplicação.
No entanto, ao lado dos benefícios amplamente divulgados, surgem também novas preocupações e desafios regulatórios: o risco de que essas ferramentas digitais sejam usadas para fins destrutivos ou que causem consequências graves e imprevistas.
Dessa forma, o avanço e a implantação da computação cognitiva estão acompanhados pela expansão de um ecossistema que envolve ideias, práticas, especialistas e organizações dedicadas a avaliar as vulnerabilidades e moldar a percepção pública sobre eles.
Embora as expectativas e preocupações influenciem o rumo e a disseminação da IA, é importante lembrar que ela já tem sido presente, transformando notavelmente a sociedade e a vida cotidiana.
O sistema inteligente não só torna certas tarefas mais rápidas e eficientes, mas também altera qualitativamente as relações sociais, práticas e instituições, muitas vezes de forma sutil e gradual.
Os dois lados da inteligência artificial
De fato, a inteligência artificial tem sido uma aliada em áreas como saúde, educação e Administração Pública, oferecendo soluções rápidas e eficazes para problemas complexos.
No entanto, seu impacto é controverso. Por um lado, ela pode ser usada para melhorar aspectos que carecem de mais funcionalidades. Por outro, sua expansão levanta questões sobre a substituição de empregos e o surgimento de novos obstáculos éticos.
Um exemplo claro desse efeito é a substituição de dubladores. Com o avanço da IA, especialmente na geração de voz e linguagem, empresas já têm optado por usar essas ferramentas para substituir dubladores humanos, gerando debates sobre a preservação de empregos criativos.
O setor de entretenimento, tradicionalmente focado em talentos humanos, agora enfrenta um dilema: adotar a inovação e, ao mesmo tempo, mitigar as consequências sobre os profissionais da indústria. Esse é apenas um dos muitos exemplos em que a tecnologia se mostra como uma faca de dois gumes – ao mesmo tempo que ajuda, também pode atrapalhar.
Outro risco emergente com a aplicação da computação cognitiva está relacionado à sua utilização para cometer crimes. A automação tem facilitado a execução de atividades ilícitas, como fraudes financeiras e ataques cibernéticos. Isso porque, criminosos aproveitam a capacidade dos algoritmos de IA para explorar vulnerabilidades em sistemas digitais, criando uma nova frente de desafios para as autoridades.
A sofisticação dessas ferramentas digitais em simular comportamentos humanos também levanta a questão de falsificações (deepfakes), que podem ser usadas para desinformação e manipulação de imagens ou vídeos. Desse modo, esse uso malicioso coloca em evidência a necessidade de uma estrutura normativa que incentive a inovação e proteja as sociedades dos efeitos negativos dessa tecnologia.
Regulação da inteligência artificial
Em março de 2024, os países da União Europeia aprovaram a primeira lei global que impõe regras amplas para a utilização e o desenvolvimento da inteligência artificial. A iniciativa visa regular diferentes níveis de perigos associados ao seu uso, desde aplicações de baixo risco, como filtros de spam, até em setores críticos como saúde e justiça.
A legislação reflete a preocupação com a transparência, ética e segurança na evolução da IA, estabelecendo parâmetros rígidos que exigem responsabilidade por parte dos programadores e usuários dessa tecnologia.
Enquanto isso, o Brasil ainda está em uma fase inicial de discussão. Embora haja boas intenções por parte de legisladores e reguladores, ainda não existe consenso sobre como abordar essa normatização. A ausência de uma estrutura jurídica precisa deixa o país vulnerável a abusos e limitações na implementação da inovação.
Em meio a esse cenário de indefinição, o ITS Rio publicou recentemente um relatório abrangente sobre o panorama legislativo da IA no Brasil. O estudo faz um mapeamento das principais iniciativas legais, políticas públicas e estratégias nacionais que tratam do tema, mostrando que, apesar de iniciativas isoladas, ainda há muito a ser feito para garantir a governança adequada do sistema inteligente no país.
Entretanto, no Brasil, a resolução 332/18, emitida pelo CNJ – Conselho Nacional de Justiça, é um dos primeiros esforços formais para normalizar o emprego da computação cognitiva em um setor específico: o Poder Judiciário. A resolução trata da ética, transparência e governança no desenvolvimento e uso da IA nos tribunais, buscando agilizar e tornar mais coerente o processo judicial, sem abrir mão da equidade e isonomia.
A resolução foi um progresso importante, pois definiu critérios éticos que deveriam ser seguidos pelos tribunais, incluindo a necessidade de respeitar os direitos fundamentais. Esse marco regulatório foi um passo notável para assegurar que a tecnologia seja utilizada de forma justa e equilibrada, minimizando potenciais danos de discriminação e marginalização decorrentes de preconceitos e estigmas algorítmicos.
A adoção da inteligência artificial em setores críticos como o Judiciário levanta uma série de questões éticas. Como certificar que a IA não reforce preconceitos e discriminações já existentes na sociedade? Como evitar que erros de julgamento causados por vieses computacionais prejudiquem indivíduos vulneráveis? A resolução 332/18 é uma tentativa de responder a essas questões, mas ela sozinha não basta, é necessário um ordenamento que evite certas questões legais.
Inteligência artificial na advocacia
Nesse sentido, a advocacia tem vivenciado transformações com a inteligência artificial, principalmente no que diz respeito à automação de tarefas rotineiras e ao aumento da eficiência dos profissionais. Isso porque é possível automatizar tarefas como pesquisa legal, redação de peças processuais e análise de contratos, liberando os advogados para lidarem com outras funções criativas. Como resultado, minimiza erros humanos, aumenta a produtividade e melhora o gerenciamento dos prazos.
No entanto, a implementação da computação cognitiva em softwares jurídicos exige alguns cuidados. Considerando, que seus códigos são treinados com um vasto número de dados, caso eles contenham vieses, o sistema pode acabar perpetuando discriminações ou preconceitos. Essa situação é particularmente preocupante no contexto normativo, onde decisões injustas podem prejudicar indivíduos e afetar direitos básicos.
Para mitigar esses riscos, é importante que seu uso seja acompanhado de rigorosas avaliações de consequências e medidas de mitigação de estigmas. Além disso, a implementação de mecanismos de controle que assegurem a imparcialidade das sentenças legais automatizadas é imprescindível para evitar falhas de julgamento que possam surgir de estereótipos inconscientes ou falhas nos dados de treinamento dos algoritmos.
Outro aspecto, é que a capacidade de entender como um sistema inteligente chegou a uma determinada conclusão ou recomendação é indispensável para garantir a confiança dos usuários, sejam eles advogados, juízes ou partes envolvidas em um processo. No âmbito judicial, a aplicabilidade é ainda mais relevante, pois veredictos que impactam vidas e direitos devem ser claros e justificáveis.
Adoção responsável da IA
A decisão de utilizar a inteligência artificial não deve ser impulsiva; deve ser cuidadosamente avaliada, levando em consideração seus efeitos e riscos. O seu uso consciente exige uma análise prévia, principalmente em relação às implicações éticas e legais.
Embora ainda falte diretrizes específicas sobre o tema, é essencial observar as leis existentes para evitar infrações que possam gerar consequências jurídicas. A ausência de uma regulamentação não isenta os usuários e desenvolvedores do compromisso de garantir a conformidade com as normas aplicáveis.
Além disso, os programadores de sistemas inteligentes, assim como outras ferramentas digitais, têm o dever de validar que suas ferramentas sejam transparentes. Isso significa que os algoritmos e escolhas devem ser explicáveis e compreensíveis para os usuários, permitindo que estes saibam como as sentenças foram tomadas e, caso necessário, possam contestá-las.
Essa honestidade é fundamental para promover a credibilidade na tecnologia, além de assegurar a responsabilização dos criadores de software. Quando a IA é capaz de justificar suas escolhas de forma clara, os erros de julgamento podem ser identificados e corrigidos, evitando que determinações injustas ou prejudiciais passem despercebidas. Esse processo fortalece o emprego ético da inovação, assegurando que a mesma seja uma aliada confiável e justa no seu campo de atuação.
No entanto, é possível perceber o quanto a inteligência artificial pode ser benéfica no cotidiano de muitos setores. Mas, é preciso estar preparado para lidar e equilibrar seus ganhos com os problemas que podem surgir. Enquanto não há uma lei direta, a utilização da IA dependerá principalmente da consciência em tratar a tecnologia de maneira adequada, prevenindo possíveis malefícios.
Eduardo Koetz
Eduardo Koetz é advogado, sócio-fundador da Koetz Advocacia e CEO do software jurídico ADVBOX . Especialista em tecnologia e gestão, ele também se destaca como palestrante em eventos jurídicos.