CompartilharComentarSiga-nos no A A
A privacidade de dados tornou-se uma das questões mais sensíveis na era digital. Tecnologias de inteligência artificial, como o ChatGPT, dependem de grandes volumes de dados para fornecer respostas personalizadas e eficientes. No entanto, essa coleta de dados coloca empresas como a OpenAI no centro de um dilema ético e jurídico: como atender a solicitações governamentais de informações sem comprometer a privacidade dos usuários? A recente atualização da OpenAI Law Enforcement User Data Request Policy (2024) ilustra os desafios de equilibrar conformidade legal, direitos humanos e segurança pública. Este artigo examina criticamente essas questões, explorando o impacto para advogados e operadores do Direito e propondo soluções práticas para promover transparência e proteção de dados.
1. Diretrizes atuais da OpenAI: Bases e limites
De acordo com a política de 2024, a OpenAI condiciona a divulgação de dados de usuários a processos legais válidos, exigindo conformidade com as legislações locais e princípios de direitos humanos1. Nos Estados Unidos, apenas mandados judiciais ou equivalentes podem obrigar a empresa a fornecer informações confidenciais. Na União Europeia e na Irlanda, é necessário observar o GDPR – Regulamento Geral de Proteção de Dados e outros instrumentos legais regionais2.
Porém, há exceções preocupantes. Em casos de emergência, como risco iminente de morte ou lesão física grave, a OpenAI pode divulgar dados sem mandado, avaliando a situação caso a caso3. Esses procedimentos destacam uma lacuna entre a proteção de dados e as prerrogativas de segurança pública.
2. Reflexão jurídica: Privacidade x Segurança Pública
A tensão entre privacidade e segurança é amplificada no contexto das tecnologias de IA. A OpenAI pode ser compelida a atender solicitações governamentais mesmo fora de suas jurisdições principais, desde que os pedidos sejam realizados via tratados de assistência legal mútua (MLATs) ou outros mecanismos diplomáticos4.
Esse tipo de cooperação internacional levanta questões críticas: até que ponto as garantias locais de proteção de dados são efetivas quando os dados atravessam fronteiras? No Brasil, jurisprudências relacionadas ao uso de aplicativos de mensagens destacam que qualquer solicitação de dados deve ser proporcional e justificada, evitando violações desnecessárias à privacidade5.
3. O papel da notificação aos usuários
A política da OpenAI prevê notificações aos usuários cujos dados são solicitados, salvo quando proibido por lei ou em situações emergenciais. Entretanto, a ausência de notificações prévias pode comprometer a confiança nas plataformas, especialmente em países onde os direitos fundamentais nem sempre são respeitados.
Exemplo Internacional: No caso Schrems II, julgado pelo TJUE – Tribunal de Justiça da União Europeia, determinou-se que transferências de dados entre a UE e os EUA devem garantir padrões equivalentes de proteção. Essa decisão ressalta a importância de políticas transparentes para preservar a confiança dos usuários.
4. Repercussões para advogados e operadores do Direito
4.1. A Exposição de dados confidenciais de clientes
Advogados frequentemente lidam com informações sensíveis protegidas pelo sigilo profissional. Quando essas informações são processadas por ferramentas de IA, como o ChatGPT, há o risco de que solicitações governamentais comprometam essa confidencialidade. A política da OpenAI permite o fornecimento de informações apenas mediante mandados judiciais válidos ou em situações emergenciais. Contudo, tais exceções podem expor vulnerabilidades no sigilo profissional, essencial à advocacia.
4.2. Estratégias de prevenção para escritórios de advocacia
Para mitigar os riscos de exposição de dados sensíveis, escritórios de advocacia devem adotar medidas de compliance e segurança digital. Entre essas estratégias, destacam-se:
4.3. Impactos na advocacia preventiva
A introdução de IA redefine o papel da advocacia preventiva. Escritórios que utilizam ferramentas como o ChatGPT devem realizar auditorias regulares para assegurar que os dados processados estejam em conformidade com a LGPD e normas internacionais como o GDPR. Além disso, consultorias preventivas para empresas sobre o uso seguro dessas tecnologias se mostram essenciais.
4.4. Responsabilidade ética e reputação
A má gestão de ferramentas que comprometam a privacidade pode resultar em sanções éticas aplicadas pela OAB e multas administrativas previstas na LGPD. Além disso, a exposição de informações sensíveis pode impactar negativamente a confiança dos clientes e a reputação dos escritórios.
Conclusão: Propostas e perspectivas futuras
A crescente adoção de ferramentas de IA exige soluções equilibradas para proteger a privacidade dos usuários e atender a legítimos interesses de segurança pública. Como propostas práticas, destacam-se:
O futuro da privacidade na IA depende de um esforço conjunto entre operadores do Direito, empresas tecnológicas e governos, tendo a transparência e o respeito aos direitos fundamentais como pilares desse avanço.
___________
1 OPENAI. OpenAI Law Enforcement User Data Request Policy. Versão 2024.07. Disponível no arquivo fornecido.
2 UNIÃO EUROPEIA. Regulamento Geral de Proteção de Dados (GDPR). Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX:32016R0679.
3 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm.
4 TJUE. Caso Schrems II (C-311/18).
5 LESSIG, Lawrence. Code and Other Laws of Cyberspace. 2. ed. Nova York: Basic Books, 2006.
Jamille Porto Rodrigues
Advogada e Professora de Direito Digital, Inteligência Artificial e Novas tecnologias aplicada ao Direito e Marketing Jurídico.