Meta não pode usar dados de usuários de redes sociais para treinar IA   Migalhas
Categories:

Meta não pode usar dados de usuários de redes sociais para treinar IA – Migalhas

CompartilharComentarSiga-nos noGoogle News A A

A ANPD – Autoridade Nacional de Proteção de Dados determinou a suspensão do uso de dados de usuários divulgados em plataformas da empresa Meta (Instagram, Facebook e Messenger) para o treinamento de sistemas de IA – inteligência artificial.

Leia Mais

ANPD condena INSS por vazamento de dados

O conselho decisório da ANPD aprovou a medida cautelar, que foi oficializada no DOU – Diário Oficial da União nesta terça-feira, 2. Em caso de descumprimento, a empresa estará sujeita a uma multa diária de R$ 50 mil.

Segundo o despacho, a ordem dever ser cumprida imediatamente. Foi dado prazo de cinco dias, a partir da intimação, para que a Meta apresente ao governo:

  • documentação que ateste a adequação da Política de Privacidade, mediante a exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa; e
  • declaração assinada pelo encarregado, por membro do corpo diretivo ou representante legalmente constituído, atestando a suspensão do tratamento de dados pessoais para fins de treinamento de IA generativa no Brasil.

Veja o documento na íntegra.

 (Imagem: Freepik)

ANPD proibiu que Meta siga nova política em redes sociais, a qual previa uso de dados de usuários para treinamento de inteligência artificial.(Imagem: Freepik)

Mudanças

Em junho deste ano, a Meta implementou nova política de privacidade que abrange suas redes sociais. Ela autorizou o uso de conteúdos públicos compartilhados pelos usuários para o treinamento de IA generativa.

“Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, declarou a ANPD em nota oficial.

A ANPD decidiu, por iniciativa própria, fiscalizar a nova política da Meta e identificou “riscos de dano grave e de difícil reparação aos usuários”, indicando uma possível violação da LGPD – Lei Geral de Proteção de Dados.

“A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, afirmou a autoridade em nota.

A medida foi justificada pelo uso de dados pessoais de crianças e adolescentes no treinamento dos sistemas de IA da Meta, o qual está sujeito a proteção especial pela LGPD.

Além disso, destacou “obstáculos excessivos e não justificados” para que os usuários possam se opor ao tratamento de seus dados pessoais.

Segundo a autoridade, os usuários compartilharam suas informações pessoais esperando interações com amigos, comunidades próximas e empresas de interesse, e não que esses dados fossem utilizados no treinamento de IA.

Resposta da Meta

Em resposta, a Meta expressou desapontamento com a decisão da ANPD.

A empresa ressaltou que não é a única a utilizar informações coletadas para o treinamento de IA e afirmou ser mais transparente que muitos participantes da indústria que utilizam conteúdos públicos para esse fim.

“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, declarou a companhia.

Leave a Reply

Your email address will not be published. Required fields are marked *