Vídeo manipulado no qual Joe Biden mostra a língua viralizou no Twitter e foi republicado por Donald Trump
“As pessoas já acreditam em desinformação e têm pouco questionamento no que diz respeito à informação quando ela vem em texto. A gente acredita que quando ela vem em vídeo, o senso crítico das pessoas é ainda menos aguçado. As pessoas tendem a acreditar muito em vídeo”, explica Joana Varon, da Coding Rights, organização de direitos digitais.
Além dos vídeos compartilhados por Trump, circula nas redes americanas um vídeo da presidente da Câmara, Nancy Pelosi, com potencial danoso: o vídeo foi editado de maneira que a deputada democrata aparenta estar bêbada. Também não se trata de uma deepfake propriamente, mas de uma técnica de manipulação chamada de shallowfake – também capaz de confundir usuários e causar dano à reputação.
Ataque à reputação de mulheres, como o vídeo de Pelosi, são um dos principais usos maliciosos das deepfakes. Segundo estudo da empresa americana de proteção contra ameaças visuais, Sensitivity, 95% das deepfakes encontradas online em 2019 eram de vídeos falsos de atos sexuais não consensuais.
A atriz Scarlett Johansson tem sido vítima desse tipo de ataque desde 2018. Seu rosto foi um dos primeiros a ser disponibilizado para a produção de deepfakes no Impressions App, que alega evitar que a ferramenta seja usada para vídeos sexuais através de um algoritmo que busca e deleta conteúdos pornográficos e de nudez. No entanto, o influencer Daniel Xavier, já usou o aplicativo para fazer piada de conotação sexual com o rosto de Justin Bieber. Em um vídeo recente, publicado no dia 9 de agosto, ele aparece, com o rosto do cantor, chupando um picolé de maneira sensualizada.
“As pessoas acham que as deepfakes precisam ser perfeitas para causar um dano. Mas não é esse o problema. Na maioria dos casos de vídeos deepfakes de conteúdo sexual não consensual, as pessoas não acreditam que é de fato uma celebridade naquela cena. É sobre humilhá-las”, explica Sam Gregory, da Witness.
Uso de imagem sem autorização pode ter consequências jurídicas
A autorização de uso de imagens de quem tem os rostos incluídos num aplicativo de deepfake é outro ponto problemático da tecnologia, na avaliação de especialistas em direito digital. Segundo Gregory, aplicativos que disponibilizam a imagem de pessoas para a produção de deepfakes, sejam elas celebridades ou não, precisam de uma autorização. “A ideia de consenso das pessoas que estão sendo manipuladas é importante”, diz.
Questionado sobre se o aplicativo firmou acordo de uso de imagem com as celebridades disponíveis, o Impressions disse que não poderia comentar possíveis contratos. A reportagem entrou em contato com a Universal Records, que representa Justin Bieber e outros artistas cujos rostos estão disponíveis no aplicativo, mas não obteve resposta.
Para Joana Varon, da Coding Rights, a ausência de autorização para uso de imagem “pode ter implicações legais”, mas ela assume que ainda não há debate legal a respeito do tema, uma vez que é uma tecnologia nova.
As leis brasileira e americana permitem que a imagem de pessoas públicas sejam utilizadas para fins de sátira e apropriação criativa. No entanto, o Impressions disponibiliza o rosto de celebridades para os mais diversos fins – proibindo somente através de seus termos o uso da ferramentas para fins comerciais e maliciosos.
“Direito de imagem existe e a gente está entrando em uma nova era de discussão, porque não é propriamente uma cena de filme para uma apropriação criativa. É usar um rosto para manipular e criar uma outra cena”, analisa Varon.
Solução definitiva é educação midiática, aponta pesquisador
Apesar dos riscos e problemas éticos e legais envolvendo as deepfakes, a popularização dessa tecnologia é inevitável, na avaliação de pesquisadores. “O impressions é apenas a ponta do iceberg”, avalia Gregory .”Muitos desenvolvedores estão trabalhando nessa área e está ficando cada vez mais fácil de acessar essa tecnologia, por isso devemos nos preparar para ver mais conteúdos desse tipo em breve.”
Segundo Bruno Sartori, a exposição a esse tipo de conteúdo pode ser benéfica. “Essa tecnologia tem que se espalhar para que daqui a dois anos nas campanhas presidenciais todo mundo saiba que é possível criar conteúdo dessa maneira e que quando um conteúdo desse surgir elas saibam dizer que é falso da mesma maneira que a gente olha para uma foto e reconhece que tem Photoshop”, defende.
Joana Varon também também defende que há usos positivos: “não podemos demonizar a tecnologia”, argumenta. “Existem usos positivos, como o de sátira, que são usos criativos sempre respeitando aí a liberdade de expressão”, aponta.
“É difícil saber se isso está ajudando ou dificultando. A crescente disponibilidade para que qualquer um possa fazer deepfakes facilita também que sejam feitas as coisas com as quais jornalistas e ativistas se preocupam”, pondera Gregory. Para o pesquisador, a solução definitiva é a educação midiática, e as plataformas devem informar aos usuários sobre como usar a tecnologia de maneira adequada. “Existe uma obrigação, quando você faz uma ferramenta como essa, de ensinar as pessoas sobre quando é e quando não é apropriado usá-la. É bom que as pessoas conheçam as deepfakes, mas o que nós realmente queremos que elas façam é refletir sobre os interesses por trás do compartilhamento de informações”, conclui.
Nenhum comentário:
Postar um comentário