Es revela l’origen del deepfake de Joe Biden després d'interferències electorals
A poques hores de les primàries de New Hampshire, es va orquestrar una estratègia amb IA per imitar la veu de Joe Biden en una robotrucada. Aquest inèdit intent d’interferir en les eleccions evidencia l’aliança entre IA, deepfakes i desinformació, i preocupa per les conseqüències potencials per a la democràcia. Repassem què cal saber sobre l'estafa deepfake d'una robotrucada del president Biden i qui hi va estar implicat.
Què és l’estafa deepfake de Joe Biden?
El dilluns 22 de gener de 2023, la fiscalia general de New Hampshire va anunciar que investigava una robotrucada que feia servir IA per imitar la veu de Joe Biden i desanimar els votants d’anar a les urnes.
L’objectiu era desmotivar la participació a les primàries de l'estat, afirmant falsament que votar-hi perjudicaria les eleccions generals de novembre. La veu generada per IA instava a “guardar” el vot per a les generals, i deia que votar a les primàries afavoria els republicans i la reelecció de Trump.
Identificació de la robotrucada deepfake de Joe Biden
La identificació de la trucada imitava el telèfon de Kathy Sullivan, exlíder demòcrata estatal, que dirigeix Granite for America, un super-PAC que promou escriure el nom de Biden a les paperetes com a mostra de suport. Però Biden no feia campanya a New Hampshire, ni apareixia a la papereta per ser capdavanter a les primàries demòcrates.
“Aquesta trucada apareix al meu número personal sense permís,” va dir Sullivan en una declaració. “És una clara interferència electoral i un intent d’assetjar-me a mi i altres votants de New Hampshire que volen escriure Joe Biden dimarts.”
Àudio de l’estafa deepfake de Joe Biden
En l’àudio manipulat de la robotrucada obtingut per NBC, se sent una veu gairebé idèntica a Biden dir la seva frase habitual, “Quina bestiesa.” El missatge aconsella “guardar el vot per al novembre” i diu que “votar dimarts només ajuda els republicans perquè tornin a elegir Trump. El teu vot compta al novembre, no aquest dimarts.”
Després de la difusió, la portaveu de la Casa Blanca, Karine Jean-Pierre, va informar que el missatge era generat per IA per desinformar i que no venia de la campanya de Biden.
En un comunicat, la directora de campanya de Biden, Julie Chavez Rodriguez, va dir que “s’estan valorant més accions immediates.”
Què fer si reps una robotrucada de Joe Biden?
El missatge gravat sembla un intent il·legal de desinformar i alterar la votació. Encara no se sap quants van rebre la trucada, però almenys una dotzena ho va denunciar. El fiscal John Formella va aclarir que qui la rebi “ha d’ignorar completament el contingut del missatge.”
Es revela l’origen de la robotrucada deepfake de Joe Biden
Segons Bloomberg, l’empresa de detecció de frau de veu Pindrop Security Inc. va descobrir que la robotrucada no era de la campanya de Biden, sinó d’un estafador que utilitzava ElevenLabs, una startup d’IA especialitzada en clonació de veu.
Tot i que la política de seguretat d'ElevenLabs permet la clonació de veu “per a certs usos no comercials sempre que no perjudiquis la privadesa o els interessos econòmics de la persona”, incloent “estudi privat, recerca no comercial, educació, paròdia, sàtira, discurs artístic i polític, citacions”, així com “crítica i revisió”, ElevenLabs va suspendre l’usuari que va crear la robotrucada deepfake.
“Ens comprometem a prevenir l’ús indegut de les eines d’IA d’àudio i prenem aquests casos molt seriosament”, va dir ElevenLabs a Bloomberg.
Deepfake vs. Generador de veu IA vs. Clonació de veu
Amb el creixement de les veus generades amb IA, cal conèixer els termes deepfake, generador de veu IA i clonació de veu, així com la diferència entre usos ètics i no ètics.
Deepfake
Un deepfake consisteix a utilitzar IA i tècniques d’aprenentatge automàtic per crear o manipular àudio i vídeo, sovint substituint la imatge o veu d’una persona de manera realista.
- Ús ètic: Pot utilitzar-se per entreteniment, expressió artística o educació, sense intenció d’enganyar o fer mal.
- Ús no ètic: Quan es fa servir per crear contingut fals o suplantar persones amb finalitats malicioses (com desinformació o fake news), genera greus dilemes ètics.
Generador de veu IA
Els generadors de veu IA usen algoritmes d’aprenentatge automàtic per sintetitzar veus humanes. Sovint s’entrenen amb grans conjunts de dades per imitar veus i tons reals.
- Ús ètic: Serveixen per accessibilitat, aprenentatge d’idiomes, entreteniment o locucions.
- Ús no ètic: Manipular enregistraments per suplantar algú o divulgar informació falsa es considera una mala pràctica.
Clonació de veu
Clonar una veu és crear-ne una còpia sintètica, normalment a partir d’enregistraments reals per entrenar un model d’aprenentatge automàtic.
- Ús ètic: S’utilitza per assistents personals, preservar veus amb consentiment, o ajudar persones amb trastorns de parla.
- Ús no ètic: Clonar veus sense permís per suplantar identitat pot violar la privadesa i facilitar-ne el mal ús.
Ús il·lícit de la veu IA de Joe Biden
L’ús fraudulent de la veu de Biden amb robotrucades generades per IA exemplifica com la IA pot utilitzar-se per suprimir el vot i difondre desinformació. Les conseqüències de replicar veus de polítics són preocupants: podrien fomentar narratives falses, manipular l’opinió pública i soscavar processos democràtics, complicant la confiança ciutadana en les eleccions.
Amb l’avanç de la IA, creix el risc d’incidents com aquest, per això experts com Hany Farid reclamen una vigilància creixent davant aquestes amenaces.
Els votants han de vigilar amb la IA aquest any electoral
A mesura que s’acosten les eleccions de 2024, cal estar amatents als usos maliciosos de la IA per manipular l’opinió pública. La desinformació generada pot ser un repte comú a les campanyes i cal conscienciar els votants.
“Ens preocupa que la IA generativa s’usi contra el procés electoral, i veiem indicis del que vindrà,” diu Hany Farid, expert en forense digital que va revisar la robotrucada de Biden en una entrevista.
Com fer un ús ètic de la veu IA
Després d’aquest incident, cal reflexionar sobre els usos ètics de la veu amb IA. Tot i les possibilitats d’aquesta tecnologia, cal utilitzar-la responsablement: indicant si s’ha usat veu d’IA, evitant usos malintencionats i respectant privadesa i consentiment.
Arriben lleis i regulacions sobre la IA
Amb l’evolució tecnològica, legisladors, desenvolupadors, responsables electorals i ciutadania han de fixar normes i estàndards ètics per protegir el procés democràtic. La integritat de les eleccions, pilar de la democràcia, depèn de la capacitat d’adaptació davant els desafiaments de la IA. Ja hi ha debats al Congrés sobre aquesta protecció. En una vista al Senat, el senador Richard Blumenthal va demostrar deepfakes reproduint una veu seva feta amb IA i un guió creat amb ChatGPT. La Comissió Electoral Federal ha iniciat un procés per regular possibles deepfakes a les campanyes de 2024.
Speechify Voice Over Studio: la plataforma d’IA de veu ètica nº1
Speechify Voice Over Studio lidera com a plataforma d’IA de veu ètica, establint l’estàndard en tecnologia de veu sintètica. Ofereix més de 200 veus text a veu en diversos idiomes i accents, per crear continguts dinàmics fàcilment.
La plataforma, fàcil d’usar, integra eines d’edició d’àudio amb IA per ajustar to, pronunciació i entonació detalladament. Prioritza l’ètica i només permet clonar la teva pròpia veu, amb consentiment explícit i minimitzant el risc d’ús inadequat.
Speechify Voice Over Studio és ideal per crear locucions per xarxes, videojocs, audiollibres, podcasts i més. Porta el teu contingut al següent nivell i prova Speechify Voice Over Studio gratis avui mateix.
Preguntes freqüents
Quin és un exemple d’ús no ètic de clonació de veu amb IA?
Un exemple no ètic seria fer una gravació falsa d’Elon Musk fent declaracions enganyoses sobre temes sensibles, com el paper de Washington a Israel, per influir l’opinió pública i crear discòrdia. Aquest ús fraudulent podria explotar la confiança i atribuir falsos missatges a figures importants per promoure una agenda.
El Partit Republicà vol regular la IA?
Segons una enquesta de Fox News, “els republicans confien menys que els demòcrates en la necessitat de regular la IA per part del govern federal i encara són més escèptics sobre la seva capacitat.”
Han fet un deepfake de Taylor Swift?
S’han creat diversos deepfakes no autoritzats sobre Taylor Swift, incloent imatges i música. Segons informen, ella es planteja accions legals contra els autors.
Els votants de New Hampshire van rebre una robotrucada deepfake de Biden per no votar?
Sí, un estafador va fer un deepfake de Biden amb tecnologia d’IA d’ElevenLabs per intentar convèncer els votants de no escriure el seu nom a les primàries de New Hampshire.

