Deep Fake e a Realidade Artificial

por: Felipe Ferreira Simões dos Santos

O texto aborda como a inteligência artificial (IA), especialmente com os deep fakes, desafia a confiança naquilo que vemos. Fazendo uma analogia com São Tomé, que precisou ver para crer, o texto revela que hoje a IA pode criar imagens, sons e vídeos tão realistas que tornam difícil distinguir o verdadeiro do falso. Casos como os hologramas de Tupac Shakur e Robert Kardashian ilustram essa questão. Os deep fakes são produzidos com redes de IA que combinam dados visuais para gerar simulações convincentes, levantando preocupações éticas e legais, como a proteção de imagem e privacidade. No Brasil, o uso de imagens sem consentimento é regulado pela Constituição e pelo Código Civil. Além disso, o fenômeno da “Infocalypse” alerta para o impacto da desinformação gerada por IA, especialmente à medida que essas tecnologias se aprimoram, exigindo ferramentas para detectar manipulações, principalmente em contextos sensíveis como eleições.

 

A Inteligência Artificial e o novo ‘Ver para Crer’ de São Tomé.

Eu não acreditarei nisso, se não vir as marcas dos cravos nas suas mãos e não puser os meus dedos na marca no seu lado”. Esta conhecida passagem bíblica e a posterior afirmação atribuída à Jesus Cristo em resposta à São Tomé “Você creu porque me viu” fazem parte do Evangelho de João 20:25-29 e retratam o momento no qual São Tomé demonstrou dúvidas sobre a ressurreição de Jesus. Segundo essa parte da Bíblia, São Tomé, para ter certeza quanto a veracidade do fato, explanou que precisava sentir as chagas de Jesus para se convencer que realmente era Ele. 

Infelizmente nos dias de hoje não se pode mais acreditar em tudo que se vê, São Tomé! 

Com o uso da Inteligência Artificial (IA) e os melhoramentos tecnológicos dos últimos anos, conteúdos de imagens, vídeos e sons criados por IA ficam tão perfeitos que São Tomé não teria dúvida sobre a sua veracidade. 

Em outubro de 2020, foi noticiado na mídia que o rapper Kanye West havia presenteado sua atual ex-esposa Kim Kardashian em seu aniversário com um “holograma” de seu falecido pai, Robert Kardashian, que morreu em 2003. Através da utilização de imagem e som, uma simulação de seu pai a parabenizava pelo aniversário e dizia que continuava cuidando de todos de onde ele estivesse. 

Antes disso, em 2012 um holograma do falecido rapper californiano Tupac Shakur, morto em 1996, surpreendeu seu público ao proporcionar a aparição post-mortem do cantor em um dueto com Snoop Dogg. Naquela ocasião, o fantasma de Tupac foi reconstruído e apresentado pela Digital Domain Media Group, empresa especializada em efeitos digitais de Hollywood, a partir da ideia e organização do rapper Snoog Dogg e do produtor Dr. Dre. 

Os hologramas também já foram utilizados em momentos históricos da sociedade. Em 2015, por iniciativa do grupo No Somos Delito, ocorreu uma manifestação em Madrid, Espanha, que reuniu dezoito mil hologramas e ficou conhecida como Hologramas por La Libertad. A tecnologia foi empregada por conta da proibição da presença de pessoas em manifestações, o que motivou ao grupo a corporificar os manifestantes em imagem e som na praça central da cidade, sem qualquer corpo presente. 

Mais recentemente foram identificadas imagens humanas geradas por Inteligência Artificial (IA), conhecidas como deep fake. 

 

Deep fake e Privacidade no Desafio da Manipulação de Imagens.

Termo originado da fusão das palavras “deep learning” (aprendizagem profunda a partir do uso maciço de dados) e “fake” (fraudulento ou falsificado), deep fake pode ser definida como um tipo de mídia sintética criada a partir de imagens, áudio e vídeo que podem ter sido manipulados ou totalmente gerados por Inteligência Artificial (IA). São identidades falsas criadas a partir da aplicação de técnica de síntese de imagem humana gerada por IA. 

O termo deep fake teve sua origem em um membro anônimo de uma rede social chamada Reddit que se utilizou do termo como seu nome de usuário. Em 2017, ele aplicou algoritmos de aprendizagem profunda para substituir o rosto de uma atriz famosa, unindo-o ao corpo de outra atriz em um vídeo pornográfico, postando-o sem o consentimento das atrizes naquela rede social. Figuras públicas como os Presidentes dos Estados Unidos da América Barack Obama e Donald Trump também já foram alvo de deep fake.

A criação de um deep fake ocorre a partir da combinação e sobreposição de imagens e vídeos preexistentes utilizando-se da tecnologia Generative Adversarial Network (GAN), ou rede geradora antagônica. 

Importante destacar que no Brasil tem-se como invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, conforme rege o artigo 5º, inciso X da Constituição Federal. Neste sentido, faz-se necessária autorização para a transmissão da palavra ou o uso da imagem, podendo ensejar em indenização nos casos em que atingirem a honra, a boa fama ou a respeitabilidade, incluindo as que se destinam para fins comerciais, conforme determina o artigo 20 da Lei nº 10.406/2002, Código Civil. 

O problema do uso desenfreado da IA na manipulação das imagens é que a mente humana não está preparada para duvidar daquilo que vê, pelo contrário, entende como verdadeiro (ou pelo menos não falso) o que se pode ser perceptível visualmente. É o “ver para crer” de São Tomé. 

A desinformação produzida tem recebido o nome de Infocalypse. O termo foi utilizado pela primeira vez em 2016 pelo americano Aviv Ovadya para alertar a sociedade sobre o risco da desinformação a partir do uso manipulado de dados. Aviv entendia que “the Infocalypse is not a static “thing” or one-off event, but rather an ever-evolving state of affairs, in which we all increasingly exist. A partir das palavras do tecnólogo, é possível extrair uma genuína preocupação sobre as possíveis consequências que um uso equivocado da tecnologia de Inteligência Artificial pode proporcionar para a sociedade. 

Schick acrescenta que “the Infocalypse is evolving into an ever-more potent phenomenon with dangerous implications for everything from geopolitics to our individual lives.” Ela defende que a sociedade tem sido inundada de desinformação e mensagens com o intuito de enganar e manipular para fins nefastos.  

A Perfeição dos Deep Fakes e o Desafio de Reconhecer o Irreal.

O fato de se saber que uma IA pode efetivamente criar uma materialização do ser humano é algo ainda desconhecido de muitos. Existem sistemas que, a partir de partes de rostos de terceiros, criam imagens de pessoas irreais. Tais criações ultrapassam a compreensão das pessoas acostumadas a terem na visão a possibilidade da afirmação de algo como verdadeiro. 

É importante que haja divulgação à sociedade dessas possibilidades, para que se possa treinar o cérebro a criticar qualquer informação que pareça minimamente estranha ou irreal, principalmente, pois, essas imagens, vídeos e sons saíram do ambiente cinematográfico e estão cada vez mais nos smartphones de todos. Ou seja, qualquer pessoa atualmente pode receber um vídeo ou gravação falsa que, se não estiver preparada, não conseguirá perceber a falsidade e acabará sendo enganada. E pior, ainda poderá compartilhar da mensagem perpetuando-a na rede mundial de computadores, fazendo com que a mídia ganhe repercussões de suposta veracidade. 

Outro perigo que tem preocupado os especialistas está na dificuldade de se identificar uma imagem reinventada à medida que a Inteligência Artificial tem se aprimorado. A partir do momento em que a IA tem sido a responsável pela própria criação das imagens, pela experiência acumulada a IA tem conseguido consertar eventuais falhas anteriormente percebidas, resultando em vídeos, imagens e sons cada vez mais perfeitos, tornando difícil identificá-los como deep fake. Neste sentido, os experts têm considerado que a busca pela melhor IA de detecção de deep fake é uma verdadeira corrida armamentista, haja vista a possibilidade de seu uso nas próximas eleições ao redor do mundo. 

Na busca deste melhoramento, já existem detectores que permitem medir o ritmo de batimentos cardíacos e a circulação do fluxo sanguíneo da pessoa que aparece no vídeo, objetivando tentar identificar se ele foi ou não manipulado.

 

Referências:

BÍBLIA. Português. Bíblia Sagrada. Almeida Revista e Atualizada. Disponível em: https://www.bible.com/pt/bible/1608/JHN.20.25.ARA. Acesso em 05 out.2024.

BTM Afrika. Surprise From Heaven: Kanye West Surprises Kim Kardashian With Hologram From Dad On 40th Birthday. Youtube. Disponível em: https://www.youtube.com/watch?v=mumSFH5zqnk&t=52s. Acesso em 05 out.2024.

CERDÁN MARTÍNEZ, V.; PADILLA CASTILLO, G. (2019). Historia del fake audiovisual: deepfake y la mujer en un imaginario falsificado y perverso, en Historia y comunicación social 24 (2), 505-520. Disponível em: https://revistas.ucm.es/index.php/HICS/article/view/66293. p. 506. 

KLEINA, Nilton. Como foi feito o holograma de Tupac Shakur que impressionou o mundo? Tecmundo.com. Disponível em: https://www.tecmundo.com.br/holografia/22409-como-foi-feito-o-holograma-de-tupac-shakur-que-impressionou-o-mundo-.htm. Acesso em 05 out.2024.

QUEM. Kim Kardashian ganha holograma do pai como presente de Kanye West. 29.10.2020. Disponível em: https://revistaquem.globo.com/QUEM-News/noticia/2020/10/kim-kardashian-ganha-holograma-do-pai-como-presente-de-kanye-west.html. Acesso em 05 out.2024.

REDDIT. Disponível em: https://www.reddit.com/. Acesso em 05 out.2024.

SCHICK, Nina. Deep Fakes The Coming Infocalypse. 2020. ISBNs: 978-1-5387-5431-1, n.p.

YOUTUBE. No Somos Delito – Hologramas por la Libertad- Caso. DDB España. 2015.  Disponível em: https://www.youtube.com/watch?v=Id26K_GEhMs. Acesso em 05 out.2024.

YOUTUBE. SnoopDoggTV. Tupac Hologram Snoop Dogg and Dr. Dre. Perform Coachella Live 2012. 2012. Disponível em: https://www.youtube.com/watch?v=TGbrFmPBV0Y. Acesso em 05 out.2024.

YOUTUBE. Zico ouve a voz do pai novamente no Maracanã / Show do Esporte. 2020. Disponível em: https://www.youtube.com/watch?v=uLF-Fs7pPMk. E também: https://exame.com/marketing/mercado-livre-recria-voz-de-pai-de-zico-e-faz-pedido-no-maracana/. Acesso em 05 out.2024.

Enviar Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *