Prevenir os Audio Deepfake: Conselhos e Propostas

Nas últimas eleições legislativas na Eslováquia surgiram episódios que devem criar preocupação em Portugal: Durante os dois dias de reflexão (em que – como em Portugal – os partidos políticos estão proibidos de fazer declarações) surgiram vários audios deepfake. Num deles, ouvia-se Michal Šimečka, do partido “Liberal Progressivo” e Monika Tódová do jornal “Denník N” que debatiam a melhor forma de falsificar as eleições pela compra de votos da comunidade “romani” local. O audio foi amplamente partilhado em várias redes sociais nos dias que antecederam as eleições e, pouco depois, surgiam outros audios em que o candidato afirmava que iria duplicar o preço da cerveja (!). A 9 de Outubro surgiu outro caso idêntico com um audio falso e gerado por Inteligência Artificial (IA) no primeiro dia da conferência do Labour britânico. O video eslovaco foi analisado pela Eleven Labs e esta empresa especializada confirmou – com elevada probabilidade – tratar-se de um audio falso gerado por IA.

O Digital Markets Act europeu obriga as redes sociais a serem mais activas na contenção deste tipo de conteúdos mas – por estes exemplos – tal não parece estar a acontecer e estes casos (sobretudo o eslovaco) revela que os deepfakes de audio (mais fáceis de produzir e credíveis que os com vídeo) são uma ameaça à democracia e que estiveram no ar o tempo suficiente para conseguirem viralizar.

O padrão comum nestes casos é o uso de audio com palavras montadas por IA e foram classificados como “provavelmente falsos” por especialistas mas as análises não são imediatas e são sempre realizadas a pedido, pagas caso a caso e, ademais, indicam apenas uma probabilidade de se tratar – ou não – de um deepfake.

Outro problema é que estes deepfakes são cada vez mais sofisticados e realistas e actualmente já conseguem sintetizar frases a partir de amostras de frases dos alvos. Graças ao uso de técnicas de “deep learning” as simulações de audio serão cada vez mais realistas a um ponto em que, em breve, será impossível de as distinguir de audios reais, mesmo com o recurso de organizações especializadas. Isso, contudo e felizmente, ainda não acontece.

Quem quiser pode fazer um deepfake audio (ou video) ele próprio, sem ter recursos tecnológicos ou conhecimentos de tecnologia. Basta começar por usar o ChatGPT para criar um texto credível identificando o político para que a IA gere um discurso com frases e expressões já usados por essa figura pública e depois pagar 5 dólares a uma dessas empresas que geram áudios a partir de amostras. Na CpC fizemos vários testes e concluímos que nenhuma das plataformas testadas conseguia produzir um áudio credivel porque todas tendiam a usar o sotaque do português do Brasil. Isto não quer dizer que tal não seja possível porque a tecnologia é a mesma e já existe. Basta apenas que o actor malicioso use uma ferramenta não comercial (ao alcance de agentes estatais ou de grandes empresas e organizações) ou esperar alguns meses até que a opção para gerar vozes em português de Portugal esteja disponível nas plataformas online actualmente já existentes.

As próximas eleições em Portugal serão as eleições para o Parlamento Europeu de junho do próximo ano. Tendo em conta que actualmente já mais de 60% da legislação nacional resulta da transposição de directivas europeias e que este é o palco ideal para operações de manipulação e desinformação como aquelas que regimes como o da federação russa têm lançado um pouco por todo o mundo será de esperar que existam operações deste tipo não apenas em Portugal mas em todos os países que elegem deputados para o Parlamento Europeu.

A CNE deve estar particularmente atenta a estes fenómenos conhecidos como “deepfakes audio” e ter mecanismos de resposta rápida (através da realização de contratos com empresas especializadas neste tipo de investigação e criando uma equipa dedicada para receber e processar as denúncias que os cidadãos e partidos irão fazer aquando das eleições e da campanha eleitoral.

A este respeito é preciso que todos – cidadãos e não-especialistas – estejamos atentos às redes sociais e a todos os audios polémicos que possam aqui surgir já que este (audio deepfakes) parecem estar a ser a ferramenta usada pelas organizações por detrás destas operações de desinformação.

Há várias “pistas” para a identificação de um audio deepfake:
1. Os audio podem ter cadências vocais irregulares
2. Resíduos de audio nas transições entre palavras
De uma forma mais complexa e profissional:
1. análise espectal
2. uso de algoritmos de deep learning para analisar gravações reais e compará-las com audio de deepfake alegamente do mesmo autor.
3. detecção de artefactos audio inseridos no registo sonoro.

Apelamos a que a CNE esteja especialmente atenta à possibilidade de ocorrência deste fenómeno e que o Ministério Público seja célere e eficaz na reação a estes fenómenos.

Há também que seguir de perto e desenvolver o trabalho da equipa da Universidade de Aveiro que desenvolveu um “sistema capaz de analisar imagens, sejam em formato vídeo, sejam em fotografia. Em primeiro lugar o sistema vai esmiuçar os objetos, pretendendo-se que no final da análise todos os objetos presentes nas imagens estejam rastreados, de forma a que sejam ou não identificados aqueles que possam estar potencialmente ligados a grupos extremistas” e estendê-lo aos audios de deepfake. Uma variante desta aplicação poderia ser usada pela CNE para processar os pedidos de intervenção que irá em breve provavelmente receber.
(https://observador.pt/2018/12/10/universidade-de-aveiro-ganha-concurso-da-nato-para-detetar-mensagens-extremistas/)

O Parlamento Europeu também poderá replicar o “No Fakes Act” dos EUA e e que visa proteger actores e artistas do uso não autorizado da sua imagem por IA e produzir uma directiva que leve os países membros a penalizar todos os que utilizem as vozes de terceiros – designadamente por agentes políticos em contexto de eventos eleitorais – de forma fraudulenta no contexto europeu para criarem audios deepfake.

Enviada a CNE
GPs da AR
e enviada na forma de petição ao Parlamento Europeu

Uma opinião sobre “Prevenir os Audio Deepfake: Conselhos e Propostas

Deixe um comentário