Fuente del deepfake de Joe Biden revelada tras interferencia electoral
¿Buscas nuestro Lector de Texto a Voz?
Destacado en
- Fuente del deepfake de Joe Biden revelada tras interferencia electoral
- ¿Qué es la estafa del deepfake de Joe Biden?
- Identificación de llamada del deepfake de Joe Biden
- Audio de la estafa del deepfake de Joe Biden
- ¿Qué debes hacer si recibiste una llamada automática de Joe Biden?
- Fuente del deepfake de la llamada automática de Joe Biden revelada
- Deepfake vs. Generador de Voz por IA vs. Clonación de Voz
- Uso indebido de la voz de Joe Biden por IA
- Los votantes deben estar alerta ante la IA esta temporada electoral
- Cómo usar la voz IA de manera ética
- Las leyes y regulaciones sobre IA están en camino
- Speechify Voice Over Studio: la plataforma ética de voz de IA número 1
- Preguntas Frecuentes
Algunos votantes recibieron una llamada automática deepfake del presidente Biden. Descubre quién creó el deepfake de Joe Biden y las ramificaciones de la inteligencia artificial poco ética.
Fuente del deepfake de Joe Biden revelada tras interferencia electoral
En la última hora antes de las primarias de New Hampshire, se desveló un plan insidioso que utilizaba tecnología de inteligencia artificial para imitar la voz del presidente Joe Biden en una llamada automática. Este intento sin precedentes de interferencia electoral ha puesto de manifiesto la intersección entre la IA, los deepfakes y la desinformación, generando preocupaciones sobre las posibles consecuencias para los procesos democráticos. Vamos a profundizar en todo lo que necesitas saber sobre la estafa del deepfake que involucra una llamada automática del presidente de EE.UU., Joe Biden, incluyendo quién estuvo involucrado.
¿Qué es la estafa del deepfake de Joe Biden?
El lunes 22 de enero de 2023, la oficina del fiscal general de New Hampshire dijo que estaba investigando informes de una aparente llamada automática que utilizaba inteligencia artificial para imitar la voz del presidente Joe Biden y desanimar a los votantes del estado a acudir a las urnas.
Esta estafa tenía como objetivo desalentar a los votantes de participar en las elecciones primarias del estado, afirmando falsamente que votar en las primarias impactaría de alguna manera en las elecciones generales de noviembre. La voz generada por IA de Biden instaba a los votantes a "guardar" sus votos para las próximas elecciones federales, afirmando que votar en las primarias beneficiaría a los republicanos y facilitaría la reelección de Donald Trump.
Identificación de llamada del deepfake de Joe Biden
La identificación de la llamada falsa de Biden parecía como si hubiera sido enviada por Kathy Sullivan, una ex presidenta del Partido Demócrata estatal que ayuda a dirigir Granite for America, un super-PAC que hace campaña para que los votantes escriban el nombre de Biden para mostrar su apoyo al presidente. Sin embargo, él no estaba haciendo campaña en New Hampshire y no iba a estar en la boleta ya que estaba en la posición inicial para las primarias presidenciales demócratas.
“Esta llamada se vincula a mi número de teléfono personal sin mi permiso,” dijo Sullivan en un comunicado. “Es una clara interferencia electoral y claramente un intento de acosarme a mí y a otros votantes de New Hampshire que planean escribir el nombre de Joe Biden el martes.”
Audio de la estafa del deepfake de Joe Biden
En el audio falso de la llamada automática obtenido por NBC, se puede escuchar una voz que suena inquietantemente similar a la de Biden decir su frase favorita, “¡Qué montón de tonterías!”. El mensaje continúa afirmando, “es importante que guardes tu voto para las elecciones de noviembre y “votar este martes solo habilita a los republicanos en su búsqueda de elegir a Donald Trump nuevamente. Tu voto marca la diferencia en noviembre, no este martes.”
Tras su difusión, la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, informó al público que el mensaje fue generado por IA para difundir desinformación y no provenía de la campaña de Biden.
En un comunicado, la directora de campaña de Biden, Julie Chavez Rodriguez, dijo que la campaña está “discutiendo activamente acciones adicionales a tomar de inmediato.”
¿Qué debes hacer si recibiste una llamada automática de Joe Biden?
El mensaje grabado parecía ser un intento ilegal de difundir desinformación y perturbar la votación. Aunque no está claro cuántos votantes recibieron la llamada, al menos una docena la había reportado. El fiscal general John Formella explicó que cualquiera que haya recibido tal llamada “debería ignorar completamente el contenido de este mensaje.”
Fuente del deepfake de la llamada automática de Joe Biden revelada
Según Bloomberg, una empresa de detección de fraude de voz, Pindrop Security Inc., descubrió que la llamada automática deepfake de Biden no fue realizada por la campaña de Biden, sino por un estafador que utilizó ElevenLabs, una startup de voz por IA que ofrece capacidades de clonación de voz.
Aunque la declaración de seguridad de ElevenLabs permite la clonación de voz “para ciertos propósitos no comerciales si no impactas la privacidad o intereses económicos de la persona,” incluyendo “estudio privado, investigación no comercial, educación, caricatura, parodia, sátira, discurso artístico y político que contribuya a debates públicos, cita,” así como “crítica y revisión,” ElevenLabs prohibió al usuario que creó la llamada automática deepfake de Biden.
"Estamos dedicados a prevenir el mal uso de herramientas de IA de audio y tomamos cualquier incidente de mal uso extremadamente en serio," dijo ElevenLabs a Bloomberg.
Deepfake vs. Generador de Voz por IA vs. Clonación de Voz
A medida que la generación de voz por IA se vuelve más popular, es esencial entender los términos deepfake, generador de voz por IA y clonación de voz, así como la diferencia entre sus usos éticos y no éticos.
Deepfake
Deepfake se refiere al uso de inteligencia artificial y técnicas de aprendizaje automático para crear o manipular contenido audiovisual, a menudo reemplazando la apariencia de una persona con la de otra de manera realista.
- Uso ético de deepfake: La tecnología deepfake puede usarse éticamente para entretenimiento, expresión artística y educación, donde la intención no es engañar o dañar a otros.
- Uso no ético de deepfake: Cuando la tecnología deepfake se explota para crear contenido engañoso y narrativas falsas o para hacerse pasar por individuos con fines maliciosos (como difundir desinformación o crear noticias falsas), plantea serias preocupaciones éticas.
Generador de Voz por IA
Los generadores de voz por IA utilizan algoritmos de aprendizaje automático para sintetizar voces de IA similares a las humanas. A menudo se entrenan con grandes conjuntos de datos para imitar voces y tonos humanos.
- Uso ético de generadores de voz por IA: Los generadores de voz por IA pueden usarse éticamente para diversos propósitos, incluyendo accesibilidad para personas con discapacidades del habla, aprendizaje de idiomas, entretenimiento o doblajes.
- Uso no ético de generadores de voz por IA: El mal uso de la generación de voz por IA para crear grabaciones de audio falsas con intención maliciosa, como falsificar la voz de alguien para hacerse pasar por ellos en actividades fraudulentas o para difundir desinformación, se considera no ético.
Clonación de Voz
La clonación de voz implica crear una copia sintética de la voz de una persona, generalmente utilizando grabaciones de su habla como datos de entrenamiento para un modelo de aprendizaje automático.
- Uso ético de la clonación de voz: La clonación de voz puede usarse éticamente para propósitos como crear asistentes de voz personalizados, preservar las voces de individuos para futuras generaciones con consentimiento, o ayudar a personas con trastornos del habla.
- Uso no ético de la clonación de voz: La clonación de voz no autorizada para actividades engañosas, como crear grabaciones de audio falsas para hacerse pasar por alguien sin su consentimiento, puede ser altamente no ética y puede llevar a violaciones de privacidad y uso indebido potencial.
Uso indebido de la voz de Joe Biden por IA
El uso indebido de la voz de Joe Biden a través de llamadas automáticas generadas por IA es un claro ejemplo del potencial de la tecnología artificial para ser utilizada como arma en intentos de suprimir el voto y difundir desinformación. Las consecuencias de usar indebidamente la IA para replicar las voces de figuras políticas son de gran alcance. Este incidente presagia un futuro donde las voces generadas por IA podrían usarse para difundir narrativas falsas, manipular la opinión pública y socavar el proceso democrático. El impacto potencial en la confianza en el discurso político y la integridad de las elecciones es motivo de seria preocupación.
A medida que la tecnología de IA avanza, el riesgo de que ocurran tales incidentes aumenta, con expertos en forense digital como Hany Farid enfatizando la necesidad de vigilancia para abordar estos desafíos.
Los votantes deben estar alerta ante la IA esta temporada electoral
A medida que se acerca la elección presidencial de 2024, los votantes deben permanecer vigilantes contra el uso indebido de la tecnología de IA en intentos de influir en la opinión pública. La desinformación generada por IA podría convertirse en un problema prevalente en las campañas políticas, lo que requiere una mayor conciencia entre el electorado.
“Nos ha preocupado que la IA generativa se utilice como arma en las próximas elecciones y estamos viendo lo que seguramente es un signo de lo que vendrá”, dijo Hany Farid, un experto en forense digital que revisó la grabación de la llamada automática de Biden, en una entrevista.
Cómo usar la voz IA de manera ética
A raíz de este incidente, es crucial considerar las aplicaciones éticas de la voz IA. Si bien la tecnología de voz IA ofrece numerosas posibilidades, incluyendo doblajes, existe la responsabilidad de usarla éticamente. Esto incluye indicar claramente cuándo se están utilizando voces generadas por IA, evitar intenciones maliciosas y respetar la privacidad y el consentimiento.
Las leyes y regulaciones sobre IA están en camino
A medida que la tecnología sigue avanzando, los legisladores, desarrolladores de IA, funcionarios electorales y el público deben trabajar juntos para establecer salvaguardas, regulaciones y estándares éticos que protejan el proceso democrático de tales abusos. La integridad de las elecciones, una piedra angular de la democracia estadounidense, depende de nuestra capacidad para adaptarnos y responder a los desafíos emergentes relacionados con el uso de la IA. De hecho, el Congreso ya está discutiendo protecciones para la IA. En una reciente audiencia del Senado, el senador Richard Blumenthal incluso demostró deepfakes reproduciendo una grabación de su propia voz creada con software de clonación de voz de IA y con un guion escrito por ChatGPT de OpenAI. La Comisión Federal de Elecciones también ha comenzado un proceso para posiblemente regular los deepfakes generados por IA en los anuncios de campaña política de 2024.
Speechify Voice Over Studio: la plataforma ética de voz de IA número 1
Speechify Voice Over Studio es la principal plataforma ética de voz de IA que establece el estándar de oro en tecnología de voz sintética. Con más de 200 voces realistas de texto a voz disponibles en múltiples idiomas y acentos, Speechify Voice Over Studio permite a los usuarios crear contenido dinámico y atractivo sin esfuerzo.
Su plataforma fácil de usar cuenta con herramientas de edición de audio de IA sencillas, proporcionando control detallado sobre cada palabra, permitiendo a los usuarios ajustar el tono, la pronunciación, el timbre y más. Speechify Voice Over Studio también prioriza las consideraciones éticas al ofrecer clonación de voz únicamente para tu propia voz, asegurando el consentimiento explícito y mitigando el riesgo de mal uso.
Speechify Voice Over Studio es la elección ideal para crear narraciones convincentes para diversas aplicaciones, incluyendo contenido en redes sociales, videojuegos, audiolibros, podcasts y más. Mejora tu experiencia de creación de contenido y prueba Speechify Voice Over Studio gratis hoy mismo.
Preguntas Frecuentes
¿Cuál es un ejemplo de clonación de voz de IA no ética?
Un ejemplo no ético de clonación de voz de IA podría implicar el uso de la tecnología para fabricar una grabación de audio convincente de Elon Musk haciendo declaraciones falsas sobre asuntos geopolíticos sensibles, como la participación de Washington en asuntos de Israel, manipulando potencialmente la percepción pública y causando discordia. Este uso engañoso de la clonación de voz podría explotar la confianza pública y sembrar discordia al atribuir declaraciones engañosas a figuras influyentes para avanzar en una agenda particular.
¿Quiere el Partido Republicano regular la IA?
Según una encuesta de Fox News, “los republicanos están menos convencidos que los demócratas de que el gobierno federal necesita imponer regulaciones a los sistemas de inteligencia artificial y son aún más escépticos sobre si el gobierno está capacitado para hacerlo correctamente.”
¿Se hizo un deepfake de Taylor Swift?
Se han hecho varios deepfakes no éticos de Taylor Swift, incluyendo fotos y música, sin su consentimiento. Según informes, ella está considerando tomar acciones legales contra los creadores de los deepfakes.
¿Recibieron los votantes de New Hampshire una llamada automática deepfake de Biden diciéndoles que no votaran?
Sí, un estafador creó un deepfake de Biden usando la tecnología de IA de ElevenLabs para intentar convencer a los votantes de no escribir el nombre de Biden durante las primarias de New Hampshire.
Cliff Weitzman
Cliff Weitzman es un defensor de la dislexia y el CEO y fundador de Speechify, la aplicación de texto a voz número uno en el mundo, con más de 100,000 reseñas de 5 estrellas y ocupando el primer lugar en la categoría de Noticias y Revistas de la App Store. En 2017, Weitzman fue incluido en la lista de Forbes 30 menores de 30 por su trabajo haciendo que internet sea más accesible para personas con discapacidades de aprendizaje. Cliff Weitzman ha sido destacado en EdSurge, Inc., PC Mag, Entrepreneur, Mashable, entre otros medios líderes.