Radar

Profundamente falsa: a imagem na era da pós-verdade

Alexandre Matias Publicado em: 19 de fevereiro de 2019

A atriz Jennifer Lawrence conversa com repórteres durante a edição deste ano da premiação cinematográfica Globo de Ouro, nos Estados Unidos, mas há algo muito estranho nesta entrevista. Seu vestido vermelho, seu colar de pedras preciosas, sua voz e penteado estão impecáveis, mas no lugar de seu rosto, o que assistimos é a face do ator Steve Buscemi, que mexe os lábios e repete as expressões faciais exatamente como a atriz. O vídeo foi encontrado pelo jornalista norte-americano Mikael Talen, que o publicou no Twitter, comentando, no dia 29 de janeiro que havia ido “ao fundo de um buraco negro dos deepfakes mais recentes e este mashup de Steve Buscemi e Jennifer Lawrence é uma imagem a ser contemplada”.

O vídeo é uma esfinge. Ao mesmo tempo em que exibe as maravilhas da tecnologia digital, recriando perfeitamente os traços do rosto de uma pessoa no corpo de outra (embora ainda seja perceptível que é uma montagem, observando os detalhes), ele também cogita possibilidades assustadoras de um futuro falsificado em que celebridades, políticos, atletas e líderes religiosos podem ter suas imagens manipuladas para parecer que estão fazendo ou falando algo que nunca cogitariam, em hipótese nenhuma.

O enigma proposto pela esfinge Jennifer Buscemi surge em outro exemplo recente de como as imagens podem ser manipuladas a partir de computação gráfica, inteligência artificial e más intenções, quando o site de notícias Buzzfeed publicou um vídeo com o título: “Você não vai acreditar no que Obama disse nesse vídeo!”. O título era uma clara alusão às próprias manchetes caça-cliques que apenas instigam a curiosidade para fazer as pessoas irem para um determinado site – estilo popularizado pelo próprio Buzzfeed e usado em inúmeros jogos e testes de personalidade no Facebook feitos por empresas apenas interessadas no uso de seus dados pessoais através da maior rede social do mundo (com conivência cúmplice do cacique Zuckerberg).

O ex-presidente norte-americano Barack Obama começa o vídeo nos alertando sobre o futuro da política graças às tecnologias digitais: “estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um possa dizer qualquer coisa a qualquer hora – mesmo que eles mesmos nunca tenham dito isso”, antes de dizer frases como “Killmonger (o vilão do filme da Marvel Pantera Negra) estava certo” ou “o presidente Trump é um merda completo”. Logo após, a tela se divide e revela o rosto do cineasta Jordan Peele, do premiado filme de terror antirracista Corra!, dublando o primeiro presidente negro a morar na Casa Branca. Conhecido por suas imitações de Obama, Peele continua o discurso, que aparece replicado num rosto do presidente que, por mais verdadeiro que possa parecer, é falso.

“É uma época perigosa. Mais adiante, precisamos estar mais alertas em relação àquilo que confiamos na internet. É uma época em que precisamos nos apoiar em fontes confiáveis de notícias. Parece básico, mas a forma como seguiremos na era da informação será a diferença entre se iremos sobreviver ou se nos tornaremos uma distopia fudida”, conclui o Obama de mentira.

Estes são dois exemplos de deepfakes, falsificações em vídeo feitas por tecnologias digitais e cada vez mais populares na internet. São programas de inteligência artificial que mapeiam rostos e corpos e superpõem objetos distintos com uma eficácia impressionante. Criados a partir de uma tecnologia chamada rede adversarial generativa (também conhecida como GAN, acrônimo do termo em inglês “generative adversarial network”), estes programas criam dados gerados por algoritmos que reconhecem dados que já existem. O software vai aprendendo de forma profunda as referências postas em sua base de dados a ponto de gerar exemplos semelhantes que complementem os dados faltantes – o “deep” do termo não vem da deepweb, a versão clandestina da internet fora dos programas de navegação, e sim do termo “deep learning“, usado para se referir ao aprendizado dos computadores.

Antes de vilanizarmos mais uma vez uma nova tecnologia, não custa reforçar que ela também permitirá que os carros do futuro – que serão autodirigidos – não tenham o “ponto cego” que temos hoje em nossos retrovisores, bem como pode ajudar a preencher imagens em locais de socorro e salvamentos (como em um projeto do departamento de imagem do laboratório de inteligência artificial e ciência da computação do MIT norte-americano, que utiliza câmeras de smartphones para preencher os dados que não são visíveis por outras fontes).

A GAN foi desenvolvida por nerds para falsificar vídeos pornôs incluindo rostos de atrizes de cinema famosas e utiliza uma lógica parecida com os filtros que colocam bigodes e orelhas de gatinho em selfies em movimento no Instagram e a forma como a Apple desenvolveu sua assistente pessoal Siri. Como tem o código aberto, ela surge em inúmeras versões de softwares e aplicativos ao alcance de qualquer um. E se os deepfakes são um passo além na propagação das fake news, que ajudaram a eleger o atual presidente da república com montagens rasteiras de mamadeiras de piroca e boatos sobre dominação comunista e doutrinação marxista, imagine o estrago que podem fazer com reputações no futuro.

Mesmo que a primeira utilização que se imagine para esta situação envolva pessoas públicas – o problema é que sua utilização pode atingir qualquer um, principalmente pelo fato de ser uma tecnologia de fácil utilização. Assassinatos de reputação que já acontecem na escala política podem começar a ocorrer na esfera particulare – envolvendo chantagens, vazamentos de vídeos falsos e destruições de carreira. Pior: em massa.

Alie isso aos fakes de internet que podem se passar por qualquer outra pessoa apenas clonando suas publicações para que outras pessoas achem que o impostor realmente existe – isso pode ser realizado tanto de forma individualizada, com uma única pessoa fingindo ser quem não é, como em escala industrial, fazendo muitos perfis falsos para manipular a opinião das pessoas. A imensa quantidade de dados pessoais que já despejamos em inúmeras redes sociais é matéria prima mais que suficiente para criar clones e fakes indiscriminadamente.

Junte-se a isso um imenso banco de dados facial que empresas e governos vêm reunindo nos últimos tempos. Do aparentemente singelo reconhecimento que o Facebook faz de seu rosto em fotos de seus amigos a drones militares equipados para reconhecer alvos a partir de bancos de dados de fugitivos e foragidos – eis uma nova forma de vigilância e novos níveis de paranoia. A empresa ViaQuatro, concessionária que controla a linha amarela do metrô de São Paulo, teve que recentemente voltar atrás após ligar câmeras que reconheciam seus passageiros, detectando emoções e expressões faciais numa espécie de “pesquisa de opinião forçada”, como definiu o Instituto Brasileiro de Defesa do Consumidor (Idec), responsável por entrar na justiça contra esta nova tecnologia.

O monitoramento da sociedade por câmeras, dispositivos de acesso à internet, GPS e redes sociais é uma constante cada vez mais presente na nova era digital. E sua associação com a inteligência artificial pode ter efeitos devastadores. Mas são apenas detalhes cada vez mais complexos de uma civilização em colapso, que nem precisa de muita tecnologia para chegar a isso, como já demonstrou o assessor político do presidente russo Vladmir Putin, Vladislav Surkov, um dos principais artífices políticos do déspota russo que lidera seu país há quase 20 anos.

Surkov estudou teatro e aplicou algumas teorias do teatro de vanguarda na vida política. Ele foi além do conceito básico de manipulação de pessoas ou de grupos sociais para manipular o próprio tecido da realidade, misturando maquiavelicamente verdade e ficção para que ninguém tenha certeza do que está acontecendo, como mostrou o documentarista inglês Adam Curtis em seu premonitório filme HiperNormalização (HyperNormalisation), de 2016. O assessor de Putin fez o Kremlin financiar grupos homofóbicos ultradireitistas e grupos progressistas a favor dos direitos dos homossexuais simultaneamente, apenas para causar perplexidade e ter o controle da narrativa.

Um exemplo prático desta nova política visual do século 21 – e que usa a imagem como figura central neste novo conflito, descrito pelo próprio Surkov como “guerra não-linear” – foi o concerto realizado em março de 2016 nas ruínas da cidade de Palmira, para marcar a retirada das tropas russas da Síria. Coberto por jornalistas de todo o mundo, o concerto regido pelo maestro russo Valery Gergiev, que fora maestro da Orquestra Sinfônica de Londres, repercutiu por todas as agências de notícias  – mas as forças armadas russas continuaram no local, mesmo após o concerto midiático. Afinal, a Rússia retirou ou não as tropas de lá?  “O objetivo principal não é vencer a guerra, mas usá-la para criar um estado constante de percepção instável, para manipular e controlar”, explicou Surkov referindo-se à tática usada na guerra contra a Ucrânia anos antes.

Já estamos vivendo este cenário. Imagens são criadas para manipular nossa noção de realidade, disparadas simultaneamente para milhares de pessoas através de aplicativos de mensagens instantâneas ao mesmo tempo em que desacreditam a mídia tradicional. Recentemente, em Lyon, na França, dois diferentes grupos de “gilets jaunes” – as jaquetas amarelas usadas como símbolo “contra tudo que está aí” como a camiseta amarela da CBF foi utilizada nos protestos de direita no Brasil – se confrontaram, cada um defendendo diferentes extremos do espectro ideológico. Depois da era da pós-verdade chegamos à era da pós-imagem, quando ver para crer ganha perigosos contornos surrealistas.

 

Alexandre Matias (44) é jornalista, curador e diretor artístico e cobre cultura, mídia e tecnologia há mais de vinte anos. Seu trabalho está baseado no site Trabalho Sujo (www.trabalhosujo.com.br)

 

Tags: , , ,