1. Início
  2. VoiceOver
  3. Origem do deepfake de Joe Biden vem à tona após interferência eleitoral
VoiceOver

Origem do deepfake de Joe Biden vem à tona após interferência eleitoral

Cliff Weitzman

Cliff Weitzman

CEO e fundador da Speechify

Gerador de voz por IA nº 1.
Crie gravações de voz com qualidade humana
em tempo real.

apple logoApple Design Award 2025
Mais de 50M de usuários

Origem do deepfake de Joe Biden vem à tona após interferência eleitoral

Na última hora antes das primárias de New Hampshire, um plano sinistro foi colocado em prática, usando tecnologia de inteligência artificial para imitar a voz do presidente Joe Biden em um robocall. Essa tentativa inédita de interferência eleitoral escancarou a interseção entre IA, deepfakes e desinformação, levantando preocupações sobre as possíveis consequências para os processos democráticos. Vamos analisar tudo o que você precisa saber sobre o golpe do deepfake envolvendo um robocall do presidente dos EUA, Joe Biden, incluindo quem esteve envolvido.

O que é o golpe do deepfake de Joe Biden?

Na segunda-feira, 22 de janeiro de 2023, o gabinete do procurador-geral de New Hampshire informou que estava investigando relatos de um aparente robocall que usou inteligência artificial para imitar a voz do presidente Joe Biden e desencorajar os eleitores do estado a irem às urnas.

Esse golpe tinha como objetivo desencorajar eleitores a participarem das primárias do estado, alegando falsamente que votar na primária de alguma forma impactaria a eleição geral de novembro. A voz gerada por IA do Biden pedia aos eleitores para "guardarem" seus votos para a próxima eleição federal, alegando que votar na primária beneficiaria os republicanos e facilitaria a reeleição de Donald Trump.

Identidade do deepfake de Joe Biden no robocall

O identificador de chamadas do robocall falso do Biden parecia ter sido enviado por Kathy Sullivan, ex-presidente do Partido Democrata estadual e organizadora do Granite for America, um super PAC que faz campanha para que eleitores escrevam o nome de Biden em apoio ao presidente. No entanto, ele não estava fazendo campanha em New Hampshire e não estaria na cédula, já que estava na posição inicial do calendário das primárias presidenciais democratas.

“Essa ligação está vinculada ao meu número pessoal de celular sem minha permissão”, disse Sullivan em um comunicado. “É uma interferência eleitoral descarada e claramente uma tentativa de me assediar e outros eleitores de New Hampshire que planejam escrever o nome de Joe Biden na terça-feira.”

Áudio do golpe deepfake de Joe Biden

No áudio falso do robocall obtido pela NBC, é possível ouvir uma voz assustadoramente parecida com a de Biden dizendo seu bordão favorito, “What a bunch of malarkey.” A mensagem segue afirmando que “é importante que você guarde seu voto para a eleição de novembro” e “votar nesta terça-feira só favorece os republicanos em sua busca para eleger Donald Trump de novo. Seu voto faz diferença em novembro, não nesta terça-feira.”

Depois do episódio, a secretária de imprensa da Casa Branca, Karine Jean-Pierre, informou ao público que a mensagem foi gerada por IA para espalhar desinformação e não veio da campanha de Biden.

Em um comunicado, a gerente de campanha de Biden, Julie Chavez Rodriguez, disse que a campanha está “discutindo ativamente ações adicionais a serem tomadas de imediato.”

O que fazer se você recebeu um robocall em nome de Joe Biden?

A mensagem gravada aparentava ser uma tentativa ilegal de espalhar informações falsas e atrapalhar a votação. Embora não se saiba ao certo quantos eleitores receberam a ligação, pelo menos uma dúzia a relatou. O procurador-geral John Formella explicou que quem recebeu tal ligação “deve desconsiderar completamente o conteúdo desta mensagem.”

Origem do deepfake no robocall de Joe Biden é revelada

Segundo a Bloomberg, uma empresa de detecção de fraudes por voz chamada Pindrop Security Inc. descobriu que o robocall deepfake do Biden não foi feito pela campanha de Biden, mas sim por um golpista usando a ElevenLabs, uma start-up de IA que oferece recursos de clonagem de voz.

Embora a declaração de segurança da ElevenLabs permita a clonagem de voz “para certos fins não comerciais se não impactar a privacidade ou interesses econômicos da pessoa”, incluindo “estudo privado, pesquisa não comercial, educação, caricatura, paródia, sátira, discurso artístico e político que contribua para debates públicos, citação”, bem como “crítica e análise”, a ElevenLabs baniu o usuário que criou o robocall deepfake do Biden.

"Estamos comprometidos em evitar o uso indevido de ferramentas de IA de áudio e levamos qualquer incidente de mau uso extremamente a sério", disse a ElevenLabs à Bloomberg.

Deepfake vs. Gerador de Voz AI vs. Clonagem de Voz

À medida que a geração de voz por IA se populariza, é essencial entender os termos deepfake, gerador de voz IA e clonagem de voz, bem como a diferença entre usos éticos e antiéticos dessas ferramentas.

Deepfake

Deepfake refere-se ao uso de inteligência artificial e técnicas de machine learning para criar ou manipular conteúdo de áudio e visual, frequentemente substituindo a aparência de uma pessoa pela de outra de forma realista.

  • Uso ético de deepfake: A tecnologia deepfake pode ser usada eticamente para entretenimento, expressão artística e educação, desde que a intenção não seja enganar ou prejudicar outras pessoas.
  • Uso antiético de deepfake: Quando a tecnologia deepfake é explorada para criar conteúdos enganosos e narrativas falsas ou para personificar outras pessoas com fins maliciosos (como espalhar desinformação ou criar fake news), isso levanta sérias preocupações éticas.

Gerador de Voz AI

Geradores de voz por IA usam algoritmos de aprendizado de máquina para sintetizar vozes humanas artificiais. Geralmente, eles são treinados com grandes volumes de dados de áudio para imitar vozes e tons humanos.

  • Uso ético de gerador de voz IA: Geradores de voz por IA podem ser usados eticamente para diferentes finalidades, como acessibilidade para pessoas com dificuldade de fala, aprendizado de línguas, entretenimento ou narrações.
  • Uso antiético de gerador de voz IA: O uso indevido da geração de voz por IA para criar gravações falsas de áudio com intenções maliciosas, como falsificar a voz de alguém para atividades fraudulentas ou propagar desinformação, é considerado antiético.

Clonagem de voz

Clonagem de voz consiste na criação de uma cópia sintética da voz de uma pessoa, normalmente usando gravações da fala dela como dados de treinamento para um modelo de aprendizado de máquina.

  • Uso ético da clonagem de voz: A clonagem de voz pode ser utilizada eticamente para criar assistentes de voz personalizados, preservar vozes de indivíduos para as futuras gerações com consentimento, ou ajudar pessoas com distúrbios de fala.
  • Uso antiético da clonagem de voz: Fazer clonagem de voz sem autorização para atividades enganosas, como criar gravações falsas para personificar alguém sem consentimento, é altamente antiético e pode causar violações de privacidade e outros abusos.

Mau uso da voz de Joe Biden com IA

O uso indevido da voz de Joe Biden por meio de robocalls gerados por IA é um exemplo claro do potencial de tecnologias artificiais serem usadas como arma para tentar suprimir votos e espalhar desinformação. As consequências de se usar IA para replicar vozes de figuras políticas são graves e amplas. Este episódio antecipa um futuro em que vozes geradas por IA podem ser usadas para propagar narrativas falsas, manipular a opinião pública e minar o processo democrático. O impacto potencial sobre a confiança no discurso político e na integridade das eleições é motivo de grande preocupação.

À medida que a tecnologia de IA avança, cresce o risco de que incidentes como esse se repitam, com especialistas em perícia digital como Hany Farid destacando a necessidade de vigilância para lidar com esses desafios.

Eleitores devem estar atentos à IA nesta eleição

Com a proximidade da eleição presidencial de 2024, os eleitores devem permanecer atentos ao mau uso da tecnologia de IA para tentar influenciar a opinião pública. A desinformação gerada por IA pode se tornar um problema recorrente em campanhas políticas, exigindo maior consciência por parte do eleitorado.

“Temos nos preocupado que a IA generativa seja usada como arma nas próximas eleições e estamos presenciando o que certamente é um sinal do que está por vir”, disse Hany Farid, especialista em perícia digital que analisou a gravação do robocall do Biden, em uma entrevista.

Como usar a voz artificial de forma ética

Depois desse incidente, é fundamental considerar as aplicações éticas da IA de voz. Embora a tecnologia de voz por IA ofereça inúmeras possibilidades, incluindo narrações, cabe a todos utilizá-la de maneira ética. Isso inclui indicar claramente quando vozes geradas por IA estão sendo usadas, evitar intenções maliciosas e respeitar a privacidade e o consentimento.

Leis e regulamentações para IA estão chegando

Com o avanço da tecnologia, legisladores, desenvolvedores de IA, autoridades eleitorais e o público precisam trabalhar juntos para estabelecer salvaguardas, regulamentações e padrões éticos para proteger o processo democrático desses abusos. A integridade das eleições, um dos pilares da democracia americana, depende da nossa capacidade de nos adaptar e responder aos novos desafios do uso da IA. De fato, o Congresso já está discutindo proteções para IA. Em uma recente audiência no Senado, o senador Richard Blumenthal chegou a demonstrar deepfakes exibindo um áudio de sua própria voz criada com software de clonagem de voz por IA e com roteiro desenvolvido pelo ChatGPT, da OpenAI. A Comissão Federal de Eleições também já iniciou um processo para regular deepfakes gerados por IA em anúncios de campanhas políticas em 2024.

Speechify Voice Over Studio: a plataforma ética nº 1 de IA de voz

Speechify Voice Over Studio é a principal plataforma ética de IA de voz, estabelecendo o padrão de excelência em tecnologia de fala sintética. Com mais de 200 vozes text-to-speech realistas disponíveis em vários idiomas e sotaques, o Speechify Voice Over Studio permite criar conteúdo dinâmico e envolvente com facilidade.

Sua plataforma fácil de usar conta com ferramentas de edição de áudio por IA simples e poderosas, fornecendo controle detalhado sobre cada palavra e permitindo ao usuário ajustar tom, pronúncia, entonação e mais. O Speechify Voice Over Studio também prioriza questões éticas, oferecendo clonagem de voz apenas para a sua própria voz, garantindo consentimento explícito e reduzindo o risco de uso indevido.

O Speechify Voice Over Studio é a escolha ideal para criar narrações envolventes para várias aplicações, incluindo conteúdo para redes sociais, jogos, audiobooks, podcasts e muito mais. Potencialize sua experiência de criação de conteúdo e experimente o Speechify Voice Over Studio gratuitamente hoje mesmo.

Perguntas Frequentes

Qual é um exemplo de clonagem de voz por IA antiética?

Um exemplo antiético de clonagem de voz por IA pode envolver o uso da tecnologia para fabricar uma gravação convincente de Elon Musk fazendo declarações falsas sobre questões geopolíticas sensíveis, como o envolvimento de Washington em assuntos de Israel, manipulando a percepção pública e causando discórdia. Esse uso enganoso da clonagem de voz pode explorar a confiança do público e semear discórdia ao atribuir declarações falsas a figuras influentes com o objetivo de avançar uma agenda específica.

O Partido Republicano quer regulamentar a IA?

Segundo uma pesquisa da Fox News, “republicanos estão menos convencidos do que democratas de que o governo federal precisa impor regulamentações sobre sistemas de inteligência artificial e são ainda mais céticos se o governo está preparado para isso.”

Fizeram um deepfake da Taylor Swift?

Foram feitos vários deepfakes antiéticos de Taylor Swift, incluindo fotos e músicas, sem seu consentimento. Segundo relatos, ela está considerando tomar medidas legais contra os criadores desses deepfakes.

Eleitores de New Hampshire receberam um robocall deepfake do Biden dizendo para não votar?

Sim, um golpista criou um deepfake do Biden usando a tecnologia de IA da ElevenLabs para tentar convencer eleitores a não escreverem o nome de Biden nas primárias de New Hampshire.

Produza locuções, dublagens e clones com mais de 1.000 vozes em mais de 100 idiomas

Experimente grátis
studio banner faces

Compartilhe este artigo

Cliff Weitzman

Cliff Weitzman

CEO e fundador da Speechify

Cliff Weitzman é um defensor da causa da dislexia e o CEO e fundador da Speechify, o aplicativo número 1 de conversão de texto em fala do mundo, com mais de 100.000 avaliações 5 estrelas e líder de downloads na App Store na categoria Notícias & Revistas. Em 2017, Weitzman foi incluído na lista Forbes 30 under 30 por seu trabalho para tornar a internet mais acessível a pessoas com dificuldades de aprendizagem. Cliff Weitzman já foi destaque em veículos como EdSurge, Inc., PC Mag, Entrepreneur, Mashable, entre outros importantes meios de comunicação.

speechify logo

Sobre a Speechify

Leitor de texto para fala nº 1

Speechify é a principal plataforma de texto para fala do mundo, confiável por mais de 50 milhões de usuários e com mais de 500.000 avaliações cinco estrelas em suas versões para iOS, Android, extensão para Chrome, web app e aplicativos para Mac desktop. Em 2025, a Apple premiou a Speechify com o prestigiado Apple Design Award na WWDC, chamando-a de “um recurso essencial que ajuda as pessoas a viverem melhor”. A Speechify oferece mais de 1.000 vozes naturais em mais de 60 idiomas e é usada em quase 200 países. As vozes de celebridades incluem Snoop Dogg e Gwyneth Paltrow. Para criadores e empresas, o Speechify Studio oferece ferramentas avançadas, incluindo o Gerador de Voz IA, Clonagem de Voz IA, Dublagem de IA e seu próprio Alterador de Voz IA. A Speechify também integra grandes produtos com sua API de texto para fala de alta qualidade e custo acessível. Em destaque no The Wall Street Journal, CNBC, Forbes, TechCrunch e outros grandes veículos de mídia, a Speechify é a maior provedora de texto para fala do mundo. Visite speechify.com/news, speechify.com/blog e speechify.com/press para saber mais.