Vivemos uma era em que a inteligência artificial, antes tema de ficção científica, agora molda aspectos profundos da sociedade – inclusive a forma como entendemos e confiamos na realidade. Uma das reações adversas desse avanço tecnológico são os deepfakes: imagens, vídeos e áudios manipulados por IA generativa, capazes de imitar rostos, vozes e gestos com altíssimo grau de realismo.
A democratização dessas ferramentas, que estão cada vez mais intuitivas e fáceis de usar, representa um ponto de inflexão. Embora a tecnologia tenha aplicações criativas e benéficas, seu uso para fins de desinformação levantou sérias preocupações em áreas como segurança da informação, política, jornalismo, privacidade individual e até mesmo direito. Segundo um relatório da Europol, o uso de deepfakes para fins maliciosos deve aumentar exponencialmente no mundo todo, impactando não apenas eleições e mercados financeiros, mas a própria confiança coletiva nas instituições e na informação. Como podemos, enquanto sociedade e profissionais da tecnologia, nos preparar para esse cenário em que a verdade pode ser fabricada em alguns segundos?
O que são deepfakes – e por que eles preocupam tanto?
Os deepfakes são mídias sintéticas geradas ou alteradas com a ajuda de algoritmos de deep learning, como as Redes Adversariais Generativas (GANs). Basicamente, uma GAN funciona com duas redes neurais em competição: uma geradora, responsável por criar a mídia falsa, e uma discriminadora, que tenta identificar o conteúdo falso. Até aqui, a proporção de problema e solução parece ser a mesma, mas, o grande detalhe é que essas redes treinam uma à outra e o resultado desse processo são falsificações cada vez mais perfeitas.
A princípio, essa inovação abriu portas para criações artísticas e educacionais muito valiosas. Exemplos incluem a recriação de figuras históricas em museus, o desenvolvimento de ferramentas de acessibilidade para pessoas com deficiências de fala e até mesmo a dublagem automática de filmes com sincronização labial perfeita em múltiplos idiomas.
No entanto, a mesma tecnologia que viabiliza esses avanços alimenta um catálogo de usos maliciosos e é aí que a preocupação com essas tecnologias entra em cena. Além das fraudes e extorsões cada vez mais sofisticadas, os deepfakes são ponto de partida para a criação de discursos políticos falsos, danos à reputação de pessoas e empresas e pornografia não consensual, em que imagens de pessoas, majoritariamente mulheres, são inseridos em conteúdo pornográfico, causando danos psicológicos e reputacionais devastadores. Nos casos que envolvem política, os efeitos dessas inovações também podem ser devastadores, uma vez que esses conteúdos moldam a opinião pública e podem, inclusive, ser decisivos para eleições.
Os riscos reais dos deepfakes para a segurança da informação
No contexto da segurança da informação, os deepfakes representam uma ameaça de muitas faces. Cibercriminosos já utilizam áudios falsos para simular a voz de CEOs e aplicar fraudes financeiras. O caso de 2019, em que uma empresa britânica de energia perdeu US$ 243 mil, foi apenas o começo. Em um incidente mais recente e impactante, em 2024, um funcionário de uma multinacional em Hong Kong foi enganado e transferiu US$ 25 milhões após participar de uma videoconferência com recriações digitais de seus colegas, incluindo o CFO da empresa.
Além de fraudes financeiras diretas, os riscos incluem o uso de áudio ou vídeo para solicitar acesso a sistemas críticos ou informações sensíveis, além da disseminação de links fraudulentos em conteúdos que parecem vir de fontes confiáveis. Outro risco real dessa tecnologia é gerar pânico por meio de notícias falsas sobre o mercado financeiro ou meios de pagamento amplamente utilizados, como o Pix.
E quando a desconfiança passa a reinar?
Para aumentar ainda mais o grau de complexidade, esse tema tornou possível negar a verdade, descartando-a como se fosse deepfake. Esse fenômeno está cada vez mais comum e tem até nome: Dividendo do Mentiroso (Liar's Dividend). Nesse contexto, o impacto social dos deepfakes vai muito além de uma simples separação entre verdadeiro ou falso, sendo caracterizado pela desconfiança diante de toda e qualquer informação.
Um político flagrado em uma situação comprometedora, por exemplo, pode simplesmente alegar que o conteúdo é uma farsa gerada por IA, produzindo dúvida suficiente para escapar da responsabilidade.
O cérebro humano, programado para confiar em sinais visuais e auditivos, é particularmente vulnerável. Um vídeo falso, bem executado, gera uma resposta emocional muito mais forte do que um texto, tornando-o mais persuasivo e propenso à viralização antes que qualquer checagem de fatos possa ocorrer. Se tudo pode ser falsificado, em quem confiar? O enfraquecimento de uma base comum de fatos é um terreno fértil para a polarização, o extremismo e a manipulação política em larga escala.
Como identificar um deepfake: sinais, ferramentas e hábitos
Embora a tecnologia avance rapidamente, muitos deepfakes ainda apresentam falhas e imperfeições. A consciência disso e a visão atenta são os primeiros agentes de defesa. Ao se deparar com um conteúdo duvidoso, observe:
- Piscadas e movimentos oculares: analise os movimentos oculares como piscadas muito frequentes ou quase inexistentes, notando se parecem naturais.
- Sincronização labial: tente perceber se há pequenos desalinhamentos entre o som da voz e os movimentos da boca.
- Detalhes do rosto e cabelo: veja se o contorno do rosto está desfocado, se a textura da pele é excessivamente lisa ou se os fios de cabelo parecem artificiais, com movimento incomum.
- Iluminação e sombras: procure inconsistências na forma, como a luz no rosto, em comparação com o resto do ambiente.
- Qualidade do áudio: áudio robótico, com entonação estranha ou ruídos de fundo sintéticos geralmente são perceptíveis. Ouça com atenção e tente identificar se o conteúdo é fake.
Além da observação, é importante verificar a fonte e até contar com algum site checador de fatos. Ferramentas como o Microsoft Video Authenticator e o Intel FakeCatcher estão sendo desenvolvidas para ajudar no combate a esse tipo de conteúdo. Mas, a solução a longo prazo também está nos hábitos de quem usa a internet.
O papel do pensamento crítico nesta nova era
Mais do que qualquer ferramenta, o principal antídoto contra a desinformação é o pensamento crítico e a alfabetização midiática. Em um mundo inundado por conteúdo artificial, a capacidade de questionar a origem da informação é uma habilidade essencial.
- Pausar antes de compartilhar: a desinformação se alimenta da impulsividade e do viés de confirmação. Pare por um momento e se pergunte: "Esta informação parece boa demais (ou ruim demais) para ser verdade?".
- Verificar a fonte: o conteúdo vem de um veículo de imprensa confiável? A conta que o compartilhou tem um histórico sólido? E mesmo se tiver um bom histórico, sempre leve em consideração um comportamento incomum.
- Fazer uma triangulação: a mesma notícia está sendo veiculada por outras fontes independentes e de credibilidade?
- Usar a busca reversa: ferramentas como o Google Lens e TinEye permitem verificar se uma imagem ou um frame de vídeo já foi usado em outro contexto.
Deepfakes e legislação: estamos preparados?
Como é de se esperar, a legislação avança em ritmo mais lento que a tecnologia, mas o tema é urgente, afinal, os desafios regulatórios são imensos. Como punir o uso malicioso sem esbarrar em tópicos como acusação injusta? A responsabilidade deve recair sobre quem cria, quem compartilha ou sobre as plataformas que hospedam o conteúdo?
Encontrar esse equilíbrio tem sido um dos dilemas centrais dos novos tempos, independentemente da nacionalidade. Na União Europeia, a AI Act (Lei de Inteligência Artificial) já está aprovada e estabelece regras de transparência, exigindo que deepfakes sejam claramente rotulados como conteúdo artificial. Nos Estados Unidos, diversos estados têm avançado no tema de forma independente, mas ainda não há uma legislação federal para a indústria de IA. No Brasil, o debate ocorre principalmente no âmbito do Projeto de Lei 2630, conhecido como PL das Fake News, e em discussões sobre a atualização do Marco Civil da Internet e da Lei Geral de Proteção de Dados (LGPD) para contemplar os riscos da IA generativa.
Caminhos para um futuro mais confiável
A tecnologia, por si só, não resolverá um problema que é fundamentalmente humano e social. Os caminhos para um futuro mais confiável nesse sentido passa por uma abordagem multifatorial e colaborativa.
Governos e legisladores precisam criar marcos regulatórios ágeis e equilibrados, que punam o uso malicioso sem sufocar a inovação e a liberdade. Empresas, escolas e governos têm a responsabilidade de investir em educação digital e alfabetização midiática desde a educação básica, capacitando as pessoas não apenas para consumir, mas para interpretar e compartilhar informações de forma ética e responsável.
As próprias plataformas de tecnologia devem investir proativamente em ferramentas de detecção, rotulagem clara de conteúdo artificial e transparência sobre seus algoritmos de recomendação, que hoje aceleram a viralização.
Imprensa e checadores de fatos, mais do que nunca, devem ser guardiões da verdade, adotando novas ferramentas de verificação, além de educar o público. Quanto a nós, cidadãos, cabe a responsabilidade de cultivar um ceticismo saudável e de nos tornarmos um agente de contenção, e não de propagação da desinformação.
A verdade continuará sendo um valor negociado socialmente. No cenário moldado pela IA generativa, nossa capacidade de navegar pela realidade dependerá menos da perfeição da tecnologia e mais do discernimento ético e coletivo.