Deep fake e a imagem póstuma: Limites e possibilidades na era da IA   Migalhas
Categories:

Deep fake e a imagem póstuma: Limites e possibilidades na era da IA – Migalhas

CompartilharComentarSiga-nos noGoogle News A A

Em recente jogo de futebol entre São Paulo e Nacional do Uruguai, válido pela Copa Libertadores da América, um detalhe antes de a partida se iniciar chamou a atenção do público: o telão do estádio transmitiu gravação em vídeo, realizada por IA – inteligência artificial, na qual a imagem e a voz de Telê Santana – lendário treinador do clube paulistano, falecido em 2006 – foram usadas para expressar mensagens de apoio à equipe e torcida são-paulinas.

Uma vez que Santana, por razões óbvias, não consentiu em vida com a divulgação do material, surge a dúvida: em tempos de proliferação de ferramentas de inteligência artificial, quais seriam as circunstâncias a tornar lícito o uso desautorizado da voz e da imagem alheia?

Até há pouco, a questão se resolvia à luz do que dispõem os art. 18 e 20 do CC: se há finalidade comercial no uso da imagem alheia, é certo que se trata de ato ilícito, sujeito à reparação civil; se não há, o uso é a priori lícito, salvo se atingidas a honra, boa fama ou respeitabilidade da pessoa retratada.

Por mais que já fosse custoso determinar a ocorrência ou não de ofensa à “honra, boa fama ou respeitabilidade”, critérios vagos e imprecisos, a atual etapa da inteligência artificial agudiza o problema, já que, atualmente, não se trata mais do mero uso ou reprodução não autorizada, mas, por vezes, de manipulação propriamente dita1, com a criação de conteúdo inédito, criado a partir de gravações de áudio, imagens e vídeos antigos.

Trata-se da inteligência artificial generativa, modelo de IA que não apenas é capaz de “aprender” – isto é, ter capacidade de fazer previsões ou tomar decisões a partir de algoritmos2  -, como também o é de, a partir da base de dados que possui (“input”), criar algo totalmente novo (“output”), capaz de concorrer e se confundir com uma obra humana.

A IA generativa representa uma novidade, na medida em que não somente é capaz de aprender padrões complexos de comportamento a partir de uma base de dados, como também é capaz de gerar novo conteúdo, em diferentes formatos de mídia3. 

Como o novo conteúdo gerado a partir de IA generativa fatalmente guarda similaridade com sua base de dados, há evidente risco de natureza ética: o resultado pode representar distorção da realidade (por força de uma base de dados enviesada, por exemplo), bem como ser confundido com ela.

Com relação ao segundo caso, às falsificações hiper-realistas de imagens, vídeos e áudios – realizadas através de machine learning, cujo resultado é uma mídia altamente similar à figura humana, a ponto de se tornar muito difícil distinguir o que é real do que foi produzido artificialmente – dá-se o nome de deep fake4.

O uso dessa ferramenta está comumente ligado ao intuito deliberado de provocar danos à imagem alheia, a partir da manipulação maliciosa de uma base de dados. 

Não por acaso, no âmbito da Justiça Eleitoral, por exemplo, a recente resolução 23.732/24, do TSE, vedou o uso de deep fake criada para favorecer ou prejudicar determinada candidatura.

Já no âmbito cível, a lacuna normativa sobre deep fake permanece. Embora seja verdade que há atualmente em tramitação no Congresso Nacional um projeto de lei sobre inteligência artificial (PL 2338/24), até o presente momento, o projeto esboçado tem tomado como referência as ferramentas de IA de natureza preditiva, sem englobar IA generativa.

Mesmo a lei 12.965/14 (“Marco Civil da Internet”), que estabeleceu um regime de responsabilidade civil para os diferentes agentes da internet, não foi arquitetada à luz das novidades trazidas pela inteligência artificial generativa. Nos termos do art. 19 dessa lei, salvo nos casos de divulgação desautorizada de cenas de nudez ou de atos sexuais, os provedores de aplicação (categoria que engloba mecanismos de busca, redes sociais e sites que hospedam outros sites) só responderão pelo conteúdo publicado por seus usuários se, após ordem judicial específica, não tomarem providências para tornar indisponível o conteúdo apontado como violador. 

Isso significa que os provedores só responderão diretamente pelo uso de deep fake por parte de seus usuários quando o output em questão revelar imagens de nudez ou de atos sexuais; do contrário, os provedores somente serão responsabilizados pela divulgação de deep fakes se descumprirem ordem judicial de remoção de conteúdo. 

Mas não se desconhece o fato de que o uso de deep fake pode não ter finalidade ilícita. Há o emprego dessa ferramenta no cinema, videogames e museus, como o Museu Dalí, na Florida, que usa tecnologia deep fake para emular o artista Salvador Dalí, a fim de promover interatividade com os visitantes5.

No entanto, em casos como esse, ainda que inexista intenção criminosa no uso da imagem alheia, a exploração comercial dessa imagem demanda algum tipo de consentimento, sob pena de reparação civil, conforme prevê o já abordado art. 20 do CC.

Nos casos em que a deep fake cria imagens artificiais de pessoas falecidas, por óbvio, a autorização se encontra prejudicada: ainda que o sujeito tenha em algum momento consentido com a captação e a veiculação das imagens, não tinha como autorizar expressamente o uso delas como input para a criação de novas imagens por meio de inteligência artificial. 

Trata-se de algo ainda mais complexo quando se relembra que (i) a autorização do uso de imagem comumente é interpretada de modo restritivo; e (ii) os direitos de personalidade são intransmissíveis6.

Diante da dificuldade de delimitar os limites da proteção ao direito de imagem de pessoa falecida à luz das novidades trazidas pela IA generativa, Medon7 propõe três parâmetros: (i) a previsão contratual, expressa e em vida, na qual o sujeito autoriza a família a expor sua própria imagem – algo que, argumenta, poderia se dar até de modo negativo, pois “a menos que houvesse desautorização expressa em vida de que as imagens não pudessem vir a ser usadas para a criação de novas, seria lícito que os herdeiros autorizassem a sua recriação”; (ii) a finalidade da recriação da imagem – quanto maior for o interesse público, maior será a possibilidade de o uso ser lícito; (iii) a adequação da imagem criada post mortem a` imagem-atributo – isto é, o conjunto de atributos cultivados pelo indivíduo e reconhecido pela sociedade8 (ARAÚJO e NERES JUNIOR, 2017, p. 206) – construída em vida pela pessoa, sendo certo que a ideia é aproximar ao máximo a reconstrução da imagem daquilo que a pessoa construiu em vida.

No exemplo do ex-treinador de futebol, a licitude do uso de sua imagem post mortem encontraria abrigo no terceiro desses parâmetros; evidentemente, seria mais árduo sustentar a licitude se o uso da imagem do treinador estivesse vinculado à campanha publicitária de outra agremiação, com a qual ele não construiu relação afetiva em vida.

Como se vê, trata-se de tema candente e repleto de nuances. A IA generativa, aqui abordada a partir do exemplo das ferramentas de deep fake, remodelou os limites à proteção do direito à imagem no ambiente virtual. Cabe ao legislador, portanto, preencher as lacunas normativas existentes, seja por meio do PL 2338/24, seja por meio de novas iniciativas que tenham capacidade de, enfim, regulamentar o uso de deep fake no país – tanto para aferir parâmetros de uso lícito da ferramenta, quanto para estabelecer um regime de responsabilidade civil própria.

___________

1 FIDALGO, Vítor Palmela. Inteligência artificial e direitos de imagem, in: MAPELLI, Aline; GIONGO, Marina; CARNEVALE, Rita Os impactos das novas tecnologias no direito e na sociedade. Erechim: Deviant Ltda, 2018.

2 KAUFMAN, Dora. Deep learning: a Inteligência Artificial que domina a vida do século XXI. Teccogs: Revista Digital de Tecnologias Cognitivas, TIDD | PUC-SP, São Paulo, n. 17, p. 17-30, jan-jun. 2018.

3 LEME, Alvaro; SPINELLI, Egle. O novo sempre vem? Literacia generativa e inteligência artificial na campanha da Volkswagen com Elis. Organicom, v. 21, n. 44, p. 97-108, 2024.

4 CAIRES MATOS, B. & DA SILVA SOTERO, A. P. Deepfakes e o Direito à Imagem no Ciberespaço: Necessidade De Uma Normatização Específica. Cenas Educacionais, 7. 2024. p. 14

5 CAIRES MATOS, B. & DA SILVA SOTERO, A. P. Deepfakes e o Direito à Imagem no Ciberespaço: Necessidade De Uma Normatização Específica. Cenas Educacionais, 7. 2024. p. 16

6 DINIZ, Maria Helena. Curso de Direito Civil Brasileiro. Teoria Geral do Direito Civil. V.1. 32ª Ed. São Paulo: Saraiva, 2015, p. 135.

7 MEDON, Filipe. O direito à imagem na era das deepfakes. Revista Brasileira de Direito Civil – RBDCivil, Belo Horizonte, v. 27, p. 251-277, jan./mar. 2021.

8 ARAÚJO, Luiz Alberto David e NUNES JUNIOR, Vidal Serrano. Curso de Direito Constitucional. 21ª Ed. São Paulo: Verbatim, 2017. p. 206.

Patrik Matos Gonçalves

Patrik Matos Gonçalves

Advogado no Mudrovitsch Advogados

Mudrovitsch Advogados Mudrovitsch Advogados

Leave a Reply

Your email address will not be published. Required fields are marked *