O Caso para a Regulação de Deepfakes

Em resumo

Os deepfakes, que outrora eram uma novidade, evoluíram rapidamente para uma ameaça sistémica aos negócios, à sociedade e à democracia—exigindo uma regulação urgente, ferramentas de deteção robustas e uma literacia mediática mais forte para salvaguardar a confiança no mundo digital.

O Caso para a Regulação de Deepfakes

Os deepfakes já não são uma novidade. Estão rapidamente a tornar-se uma ameaça sistémica para os negócios, a sociedade e a democracia. De acordo com o Parlamento Europeu, cerca de 8 milhões de deepfakes serão partilhados em 2025, em comparação com apenas 0,5 milhões em 2023. No Reino Unido, duas em cada cinco pessoas afirmam ter encontrado pelo menos um deepfake nos últimos seis meses. Mas, onde antes poderiam ter sido relativamente fáceis de identificar, a crescente sofisticação dos modelos de IA disponíveis publicamente tornou a deteção mais difícil do que nunca.

Os avanços em redes generativas adversariais (GANs) e modelos de difusão têm sido catalisadores para o crescimento de deepfakes avançados e hiper-realistas. Ambas as tecnologias têm sido fundamentais para permitir a troca de rostos e a modulação de voz de forma fluida em chamadas de vídeo ou transmissões ao vivo. Isso melhorou enormemente a experiência do usuário, com capacidades como avatares virtuais tornando jogos e reuniões mais personalizados e imersivos. Mas também abriu a porta para golpes de impersonação em tempo real.

Você pode pensar que apenas os não iniciados falhariam em reconhecer uma imitação de alguém que conhecem bem e confiam. Mas em maio do ano passado, um grupo de golpistas se passou por um gerente sênior da empresa de engenharia Arup, convencendo com sucesso um funcionário do departamento financeiro a transferir HK$200 milhões para cinco contas bancárias locais. Ataques semelhantes se passando por funcionários seniores e CEOs foram lançados contra empresas como Ferrari, WPP e Wiz nos últimos 12 meses, minando a confiança nas comunicações digitais.

A clonagem de voz também aumentou juntamente com os deepfakes. A síntese de voz impulsionada por IA agora é capaz de replicar a voz humana com um grau de precisão surpreendente. Astonishingly, apenas alguns segundos de áudio são suficientes para criar uma cópia quase perfeita. Isso pode ser ótimo para todos os tipos de usos criativos, como audiolivros personalizados ou dobragem, mas tem o potencial de causar imenso dano.

Em julho deste ano, uma mulher na Flórida foi enganada ao entregar 15 mil dólares em dinheiro para fiança após ouvir o que ela acreditava ser a sua filha a chorar por ajuda após um acidente de carro. O chamador, um clone de IA agindo como a sua filha, acabou por transferir a chamada para um suposto advogado, que forneceu instruções para a transferência. O fato de que esses clones são montados usando meros trechos das vozes das pessoas, que podem ser facilmente encontrados através de canais de redes sociais, destaca o potencial para uso indevido.

Nas redes sociais, a linha entre a realidade e a ficção está a desfocar-se. Influenciadores virtuais gerados por IA dominam o panorama de marketing online, oferecendo às marcas personas totalmente controláveis. As audiências agora têm de navegar num mundo onde personalidades legítimas e artificiais são virtualmente indistinguíveis, levantando questões sobre autenticidade na mídia. Em Hollywood, deepfakes são usados para rejuvenescer atores ou recriar figuras históricas. Embora isso dê às empresas de produção a capacidade de melhorar a qualidade do seu conteúdo a um custo relativamente baixo, também dá aos golpistas os meios para reproduzir uma semelhança convincente de celebridades famosas e usá-la para provocar controvérsia.

Mas as apostas vão muito além da má representação de celebridades. Deepfakes podem ser usados para semear divisão política, espalhando narrativas falsas ou fabricando vídeos de figuras políticas fazendo discursos falsos. As consequências podem ser profundas, influenciando a opinião pública, mudando o curso das eleições nacionais e potencialmente envenenando o discurso político global.

Perante tantas ameaças, os governos em todo o mundo estão a responder. Na Europa, a Lei da IA contém uma cláusula para a rotulagem obrigatória de conteúdos gerados ou modificados com a ajuda de IA, que devem ser rotulados como tal para tornar os utilizadores cientes da sua origem. Embora a lei não proíba os deepfakes, proíbe o uso de sistemas de IA que manipulam as pessoas de forma encoberta em certos contextos. Alguns governos estão a usar ou a investir ativamente em tecnologias de deteção que podem identificar mudanças subtis em vozes, rostos ou imagens.

Mas a regulamentação ainda está atrasada em relação à tecnologia. Rotulagem obrigatória, algoritmos de detecção de artefatos de IA e forense de áudio são uma parte importante da solução, mas conter a ameaça dos deepfakes requer uma estratégia muito mais ampla e abrangente. Uma regulamentação robusta e diretrizes éticas, juntamente com investimento em alfabetização midiática, têm um papel igual, se não maior, no combate à fraude e desinformação dos deepfakes.

A regulamentação e as diretrizes éticas devem tornar-se mais proativas, com a marcação de água e os padrões de divulgação obrigatória a tornarem-se características habituais de qualquer estratégia de deepfake. A literacia mediática, por sua vez, deve ser tratada como uma prioridade. Os cidadãos devem ser equipados com as habilidades de pensamento crítico para questionar o que veem e ouvem. Apenas trabalhando juntos, entre reguladores, o setor privado e a sociedade civil, podemos proteger a vida digital e garantir que a ameaça dos deepfakes se torne uma coisa do passado.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)