Social Proof

Quelle des Joe Biden Deepfakes nach Wahlbeeinflussung enthüllt

Speechify ist der führende KI-Voice-Over-Generator. Erstellen Sie Sprachaufnahmen in menschlicher Qualität in Echtzeit. Erzählen Sie Texte, Videos, Erklärungen – alles, was Sie haben – in jedem Stil.

Suchen Sie unseren Text-zu-Sprache-Reader?

Bekannt aus

forbes logocbs logotime magazine logonew york times logowall street logo

Diesen Artikel mit Speechify anhören!
Speechify

Ein Deepfake-Robocall von Präsident Biden wurde von einigen Wählern empfangen. Erfahren Sie, wer das Joe Biden Deepfake erstellt hat und welche Folgen unethische KI haben kann.

Quelle des Joe Biden Deepfakes nach Wahlbeeinflussung enthüllt

In der letzten Stunde vor der Vorwahl in New Hampshire entfaltete sich ein heimtückischer Plan, der künstliche Intelligenz nutzte, um die Stimme von Präsident Joe Biden in einem Robocall zu imitieren. Dieser beispiellose Versuch der Wahlbeeinflussung hat das Zusammenspiel von KI, Deepfakes und Desinformation ans Licht gebracht und Bedenken über die möglichen Folgen für demokratische Prozesse geweckt. Lassen Sie uns alles erkunden, was Sie über den Deepfake-Betrug mit einem Robocall von US-Präsident Joe Biden wissen müssen, einschließlich der Beteiligten.

Was ist der Joe Biden Deepfake-Betrug?

Am Montag, den 22. Januar 2023, erklärte das Büro des Generalstaatsanwalts von New Hampshire, dass es Berichte über einen scheinbaren Robocall untersuche, der künstliche Intelligenz nutzte, um die Stimme von Präsident Joe Biden zu imitieren und Wähler im Staat davon abzuhalten, zur Wahl zu gehen.

Dieser Betrug zielte darauf ab, Wähler von der Teilnahme an der Vorwahl des Staates abzuhalten, indem fälschlicherweise behauptet wurde, dass die Teilnahme an der Vorwahl die allgemeine Wahl im November beeinflussen würde. Die KI-generierte Biden-Stimme forderte die Wähler auf, ihre Stimmen für die bevorstehende Bundeswahl zu "sparen" und behauptete, dass die Teilnahme an der Vorwahl den Republikanern zugutekommen und die Wiederwahl von Donald Trump erleichtern würde.

Joe Biden Deepfake Anrufer-ID

Die Anrufer-ID des gefälschten Biden-Robocalls erschien, als wäre sie von Kathy Sullivan gesendet worden, einer ehemaligen Vorsitzenden der Demokratischen Partei des Staates, die Granite for America leitet, ein Super-PAC, das Wähler dazu ermutigt, Biden zu unterstützen. Allerdings führte er in New Hampshire keinen Wahlkampf und stand nicht auf dem Stimmzettel, da er in der Vorwahl der Demokratischen Präsidentschaftskandidaten in der Führungsposition war.

„Dieser Anruf ist ohne meine Erlaubnis mit meiner persönlichen Handynummer verknüpft“, sagte Sullivan in einer Erklärung. „Es handelt sich um eine eindeutige Wahlbeeinflussung und einen klaren Versuch, mich und andere Wähler in New Hampshire zu belästigen, die planen, Joe Biden am Dienstag zu wählen.“

Joe Biden Deepfake-Betrugsaudio

In dem von NBC erhaltenen gefälschten Robocall-Audio hört man eine Stimme, die unheimlich ähnlich wie Biden klingt, seinen Lieblingsausdruck „What a bunch of malarkey“ sagen. Die Nachricht fährt fort: „Es ist wichtig, dass Sie Ihre Stimme für die Wahl im November aufheben, und „die Abstimmung an diesem Dienstag ermöglicht es nur den Republikanern, Donald Trump erneut zu wählen. Ihre Stimme zählt im November, nicht an diesem Dienstag.“

Nach der Veröffentlichung informierte die Pressesprecherin des Weißen Hauses, Karine Jean-Pierre, die Öffentlichkeit, dass die Nachricht von der KI generiert wurde, um Desinformation zu verbreiten, und nicht von der Biden-Kampagne stammt.

In einer Erklärung sagte Bidens Kampagnenmanagerin, Julie Chavez Rodriguez, dass die Kampagne „aktiv über zusätzliche Maßnahmen diskutiert, die sofort ergriffen werden sollen.“

Was sollten Sie tun, wenn Sie einen Joe Biden Robocall erhalten haben?

Die aufgezeichnete Nachricht schien ein illegaler Versuch zu sein, Fehlinformationen zu verbreiten und die Abstimmung zu stören. Obwohl unklar ist, wie viele Wähler den Anruf erhielten, hatten ihn mindestens ein Dutzend gemeldet. Generalstaatsanwalt John Formella erklärte, jeder, der einen solchen Anruf erhalten habe, „sollte den Inhalt dieser Nachricht vollständig ignorieren.“

Quelle des Joe Biden Robocall Deepfakes enthüllt

Laut Bloomberg fand das Unternehmen Pindrop Security Inc., das sich auf die Erkennung von Stimmenbetrug spezialisiert hat, heraus, dass der Biden Deepfake Robocall nicht von der Biden-Kampagne stammte, sondern von einem Betrüger, der ElevenLabs nutzte, ein KI-Stimmen-Startup, das Sprachklonfähigkeiten anbietet.

Während ElevenLabs' Sicherheitsrichtlinien das Stimmenklonen „für bestimmte nicht-kommerzielle Zwecke erlauben, wenn Sie die Privatsphäre oder wirtschaftlichen Interessen der Person nicht beeinträchtigen,“ einschließlich „privater Studien, nicht-kommerzieller Forschung, Bildung, Karikatur, Parodie, Satire, künstlerischer und politischer Rede, die zu öffentlichen Debatten beiträgt, Zitat,“ sowie „Kritik und Rezension,“ sperrte ElevenLabs den Nutzer, der den Biden Deepfake Robocall erstellt hatte.

"Wir sind bestrebt, den Missbrauch von Audio-KI-Tools zu verhindern und nehmen jeden Missbrauchsfall äußerst ernst," sagte ElevenLabs gegenüber Bloomberg.

Deepfake vs. KI-Stimmengenerator vs. Stimmenklonen

Da die Generierung von KI-Stimmen immer beliebter wird, ist es wichtig, die Begriffe Deepfake, KI-Stimmengenerator und Stimmklonen zu verstehen, sowie den Unterschied zwischen ihren ethischen und unethischen Anwendungen.

Deepfake

Deepfake bezieht sich auf die Verwendung von künstlicher Intelligenz und maschinellem Lernen, um Audio- und visuelle Inhalte zu erstellen oder zu manipulieren, oft indem das Aussehen einer Person realistisch durch das einer anderen ersetzt wird.

  • Ethische Verwendung von Deepfake: Deepfake-Technologie kann ethisch für Unterhaltung, künstlerischen Ausdruck und Bildung genutzt werden, wenn die Absicht nicht darin besteht, andere zu täuschen oder zu schaden.
  • Unethische Verwendung von Deepfake: Wenn Deepfake-Technologie ausgenutzt wird, um irreführende Inhalte und falsche Erzählungen zu erstellen oder um Personen zu täuschen, um böswillige Zwecke zu verfolgen (wie die Verbreitung von Fehlinformationen oder die Erstellung von Fake News), wirft dies ernsthafte ethische Bedenken auf.

KI-Stimmengenerator

KI-Stimmengeneratoren verwenden maschinelle Lernalgorithmen, um menschenähnliche KI-Stimmen zu synthetisieren. Sie werden oft auf großen Datensätzen trainiert, um menschliche Stimmen und Töne nachzuahmen.

  • Ethische Verwendung von KI-Stimmengeneratoren: KI-Stimmengeneratoren können ethisch für verschiedene Zwecke eingesetzt werden, einschließlich Barrierefreiheit für Menschen mit Sprachbehinderungen, Sprachenlernen, Unterhaltung oder Sprachaufnahmen.
  • Unethische Verwendung von KI-Stimmengeneratoren: Der Missbrauch von KI-Stimmengenerierung zur Erstellung gefälschter Audioaufnahmen mit böswilliger Absicht, wie das Fälschen der Stimme einer Person, um sie für betrügerische Aktivitäten zu imitieren oder Fehlinformationen zu verbreiten, gilt als unethisch.

Stimmklonen

Stimmklonen beinhaltet die Erstellung einer synthetischen Kopie der Stimme einer Person, typischerweise unter Verwendung von Aufnahmen ihrer Sprache als Trainingsdaten für ein maschinelles Lernmodell.

  • Ethische Verwendung von Stimmklonen: Stimmklonen kann ethisch für Zwecke wie die Erstellung personalisierter Sprachassistenten, die Bewahrung der Stimmen von Personen für zukünftige Generationen mit Zustimmung oder die Unterstützung von Menschen mit Sprachstörungen genutzt werden.
  • Unethische Verwendung von Stimmklonen: Unbefugtes Stimmklonen für täuschende Aktivitäten, wie die Erstellung gefälschter Audioaufnahmen, um jemanden ohne dessen Zustimmung zu imitieren, kann hochgradig unethisch sein und zu Datenschutzverletzungen und potenziellem Missbrauch führen.

Missbrauch von Joe Bidens KI-Stimme

Der Missbrauch von Joe Bidens Stimme durch KI-generierte Robocalls ist ein krasses Beispiel dafür, wie künstliche Technologie in Versuchen, die Wählerunterdrückung zu fördern und Desinformation zu verbreiten, als Waffe eingesetzt werden kann. Die Folgen des Missbrauchs von KI zur Replikation der Stimmen politischer Figuren sind weitreichend. Dieser Vorfall deutet auf eine Zukunft hin, in der KI-generierte Stimmen genutzt werden könnten, um falsche Erzählungen zu verbreiten, die öffentliche Meinung zu manipulieren und den demokratischen Prozess zu untergraben. Die potenziellen Auswirkungen auf das Vertrauen in den politischen Diskurs und die Integrität von Wahlen sind ein ernstzunehmender Grund zur Besorgnis.

Mit dem Fortschritt der KI-Technologie steigt das Risiko, dass solche Vorfälle auftreten, wobei digitale Forensik-Experten wie Hany Farid die Notwendigkeit betonen, wachsam zu sein, um diese Herausforderungen anzugehen.

Wähler sollten in dieser Wahlsaison auf KI achten

Da sich die Präsidentschaftswahl 2024 nähert, müssen die Wähler wachsam gegenüber dem Missbrauch von KI-Technologie sein, um die öffentliche Meinung zu beeinflussen. KI-generierte Desinformation könnte zu einem weit verbreiteten Problem in politischen Kampagnen werden, was ein erhöhtes Bewusstsein unter den Wählern erfordert.

„Wir sind besorgt, dass generative KI in der kommenden Wahl als Waffe eingesetzt wird, und wir sehen, was sicherlich ein Zeichen für die Zukunft ist“, sagte Hany Farid, ein Experte für digitale Forensik, der die Biden-Robocall-Aufnahme überprüft hat, in einem Interview.

Wie man Sprach-KI ethisch einsetzt

Im Zuge dieses Vorfalls ist es entscheidend, die ethischen Anwendungen von Sprach-KI zu berücksichtigen. Während KI-Sprachtechnologie zahlreiche Möglichkeiten bietet, einschließlich Sprachaufnahmen, besteht die Verantwortung, sie ethisch zu nutzen. Dazu gehört, klar anzugeben, wann KI-generierte Stimmen verwendet werden, böswillige Absichten zu vermeiden und Privatsphäre und Zustimmung zu respektieren.

KI-Gesetze und KI-Regulierungen kommen

Da die Technologie weiterhin Fortschritte macht, müssen Gesetzgeber, KI-Entwickler, Wahlbeamte und die Öffentlichkeit zusammenarbeiten, um Schutzmaßnahmen, Vorschriften und ethische Standards zu etablieren, um den demokratischen Prozess vor solchen Missbräuchen zu schützen. Die Integrität von Wahlen, ein Grundpfeiler der amerikanischen Demokratie, hängt von unserer Fähigkeit ab, uns an neue Herausforderungen im Umgang mit KI anzupassen und darauf zu reagieren. Tatsächlich diskutiert der Kongress bereits über KI-Schutzmaßnahmen. Bei einer kürzlichen Senatsanhörung demonstrierte Senator Richard Blumenthal sogar Deepfakes, indem er eine mit KI-Stimmenklon-Software erstellte Aufnahme seiner eigenen Stimme abspielte, die ein von OpenAI’s ChatGPT geschriebenes Skript enthielt. Die Bundeswahlkommission hat ebenfalls begonnen, einen Prozess zur möglichen Regulierung von KI-generierten Deepfakes in politischen Wahlkampfwerbungen 2024 einzuleiten.

Speechify Voice Over Studio: Die führende ethische KI-Stimmenplattform

Speechify Voice Over Studio ist die führende ethische KI-Stimmenplattform, die den Goldstandard in der synthetischen Sprachtechnologie setzt. Mit über 200 lebensechten Text-zu-Sprache Stimmen, die in mehreren Sprachen und Akzenten verfügbar sind, ermöglicht Speechify Voice Over Studio den Nutzern, mühelos dynamische und ansprechende Inhalte zu erstellen.

Die benutzerfreundliche Plattform bietet einfach zu bedienende Audio-Bearbeitungs-KI-Tools, die eine detaillierte Kontrolle über jedes Wort ermöglichen und es den Nutzern erlauben, Tonhöhe, Aussprache, Ton und mehr fein abzustimmen. Speechify Voice Over Studio legt auch Wert auf ethische Überlegungen, indem es das Stimmenklonen ausschließlich für die eigene Stimme anbietet, um explizite Zustimmung sicherzustellen und das Risiko von Missbrauch zu minimieren.

Speechify Voice Over Studio ist die ideale Wahl für die Erstellung überzeugender Voice-Overs für verschiedene Anwendungen, einschließlich Social-Media-Inhalten, Videospielen, Hörbüchern, Podcasts und mehr. Verbessern Sie Ihr Content-Erstellungserlebnis und probieren Sie Speechify Voice Over Studio kostenlos aus.

FAQ

Was ist ein Beispiel für unethisches KI-Stimmenklonen?

Ein unethisches Beispiel für KI-Stimmenklonen könnte darin bestehen, die Technologie zu nutzen, um eine überzeugende Audioaufnahme von Elon Musk zu fabrizieren, in der er falsche Aussagen über sensible geopolitische Angelegenheiten macht, wie etwa Washingtons Beteiligung an Angelegenheiten in Israel, was möglicherweise die öffentliche Wahrnehmung manipuliert und Unfrieden stiftet. Diese täuschende Nutzung von Stimmenklonen könnte das öffentliche Vertrauen ausnutzen und Unfrieden säen, indem irreführende Aussagen einflussreichen Persönlichkeiten zugeschrieben werden, um eine bestimmte Agenda voranzutreiben.

Will die GOP KI regulieren?

Laut einer Fox News Umfrage sind „Republikaner weniger überzeugt als Demokraten, dass die Bundesregierung Vorschriften für künstliche Intelligenzsysteme erlassen muss, und noch skeptischer, ob die Regierung dazu in der Lage ist.“

Wurde ein Deepfake von Taylor Swift erstellt?

Es wurden mehrere unethische Deepfakes von Taylor Swift erstellt, darunter Fotos und Musik, ohne ihre Zustimmung. Berichten zufolge erwägt sie tatsächlich rechtliche Schritte gegen die Ersteller der Deepfakes.

Haben Wähler in New Hampshire einen Biden-Deepfake-Robocall erhalten, der ihnen sagte, nicht zu wählen?

Ja, ein Betrüger erstellte einen Biden-Deepfake mit der KI-Technologie von ElevenLabs, um zu versuchen, die Wähler davon zu überzeugen, Bidens Namen während der Vorwahlen in New Hampshire nicht aufzuschreiben.

Cliff Weitzman

Cliff Weitzman

Cliff Weitzman ist ein Verfechter für Legasthenie und der CEO und Gründer von Speechify, der weltweit führenden Text-zu-Sprache-App mit über 100.000 5-Sterne-Bewertungen und dem ersten Platz im App Store in der Kategorie Nachrichten & Zeitschriften. 2017 wurde Weitzman für seine Arbeit, das Internet für Menschen mit Lernschwierigkeiten zugänglicher zu machen, in die Forbes 30 unter 30 Liste aufgenommen. Cliff Weitzman wurde in führenden Medien wie EdSurge, Inc., PC Mag, Entrepreneur und Mashable vorgestellt.