Източникът на дийпфейка с Джо Байдън разкрит след намеса в изборите
В последния час преди първичните избори в Ню Хемпшър се разгърна коварен заговор, използващ технологии за изкуствен интелект, за да имитира гласа на президента Джо Байдън в робокал. Този безпрецедентен опит за вмешателство в изборите извади наяве преплитането на ИИ, дийпфейковете и дезинформацията, което буди сериозни опасения относно възможните последствия за демократичните процеси. Ето какво трябва да знаете за измамата с дийпфейк робокал с гласа на американския президент Джо Байдън, включително кои са замесените.
Каква е измамата с дийпфейка на Джо Байдън?
В понеделник, на 22 януари 2023 г., офисът на главния прокурор на Ню Хемпшър съобщи, че разследва сигнали за очевиден робокал, използващ изкуствен интелект, за да имитира гласа на президента Джо Байдън и да обезкуражава избирателите в щата да отидат до урните.
Тази измама целеше да обезкуражи избирателите от участие в първичните избори на щата, като лъжливо твърдеше, че гласуването на първичните избори по някакъв начин ще се отрази върху общите избори през ноември. Генерираният от ИИ глас на Байдън призоваваше хората да „спасят“ гласа си за предстоящите федерални избори и твърдеше, че гласуването на първичните избори ще е от полза за републиканците и ще подпомогне преизбирането на Доналд Тръмп.
Дийпфейк Байдън: скритата самоличност на обаждащия се
Caller ID на фалшивия робокал с Байдън изглеждаше сякаш обаждането идва от Кати Съливан, бивш председател на Демократическата партия в щата, която ръководи Granite for America — супер-ПАК, агитиращ избирателите да запишат Байдън като знак на подкрепа за президента. Въпреки това Байдън не беше в активна кампания в Ню Хемпшър и нямаше да бъде в бюлетината, понеже щатът беше първи във вътрешнопартийните избори на демократите.
“Това обаждане води директно към личния ми телефон без мое съгласие”, каза Съливан в изявление. “Това е откровена намеса в изборите и явен опит да бъда тормозена, както и други жители на Ню Хемпшър, възнамеряващи да гласуват за Джо Байдън във вторник.”
Аудио на измамата – дийпфейк Байдън
Във фалшивия аудиозапис на робокала достъпен от NBC, може да чуете глас, който звучи зловещо подобно на този на Байдън, произнасяйки любимата си фраза “What a bunch of malarkey.” После съобщението гласи, че “е важно да запазите гласа си за изборите през ноември”, а “гласуването този вторник само дава възможност на републиканците да изберат отново Доналд Тръмп. Гласът ви има значение през ноември, не сега във вторник.”
След разпространението му прессекретарят на Белия дом Карин Жан-Пиер информира обществото, че съобщението е генерирано от ИИ с цел разпространение на дезинформация и не идва от кампанията на Байдън.
В изявление мениджърът на кампанията на Байдън, Джули Чавес Родригес, каза, че кампанията "активно обсъжда допълнителни мерки, които да бъдат взети незабавно".
Какво да направите, ако сте получили обаждане с гласа на Байдън?
Записаното съобщение изглежда като незаконен опит за разпространение на дезинформация и възпрепятстване на гласуването. Все още не е ясно колко избиратели са получили обаждането, но поне дузина са го докладвали. Главният прокурор Джон Формела обясни, че всеки, получил такова обаждане, “трябва напълно да игнорира съдържанието на това съобщение.”
Разкрит е източникът на дийпфейк робокала с Джо Байдън
Според Bloomberg, компанията за откриване на гласови измами Pindrop Security Inc. установи, че дийпфейк робокалът с Байдън не е направен от кампанията на Байдън, а от измамник, използващ ElevenLabs – стартъп за гласови технологии с възможности за клониране на гласове чрез ИИ.
Въпреки че принципите за безопасност на ElevenLabs позволяват клониране на глас „за определени некомерсиални цели, стига да не се засяга личният живот или икономическите интереси на лицето“, включително „частно обучение, некомерсиални изследвания, образование, карикатура, пародия, сатира, артистична и политическа реч в обществения дебат, цитиране“, както и „критика и рецензии“, ElevenLabs забрани потребителя, създал дийпфейк робокала с Байдън.
"Ние сме отдадени на това да предотвратим злоупотребата с аудио-ИИ инструменти и приемаме всеки случай на злоупотреба изключително сериозно", заявиха от ElevenLabs пред Bloomberg.
Дийпфейк vs. AI Voice Generator vs. Клониране на глас
Тъй като генерирането на глас с ИИ става все по-популярно, важно е да разбирате понятията дийпфейк, AI voice generator и клониране на глас, както и разликата между етичното и неетичното им използване.
Дийпфейк
Дийпфейк е използването на изкуствен интелект и машинно обучение за създаване или манипулиране на аудио- и видеосъдържание, често чрез заменяне на дадена личност с образа или гласа на друга по правдоподобен начин.
- Етично използване на дийпфейк: Технологията може да се използва етично за забавление, артистично изразяване и образование, когато целта не е да се заблуди или навреди на други.
- Неетично използване на дийпфейк: Когато технологията се използва за създаване на подвеждащо съдържание и фалшиви наративи или за имитиране на хора със злонамерени цели (като разпространение на дезинформация или създаване на фалшиви новини), това поражда сериозни етични проблеми.
AI Voice Generator
AI voice generator използва алгоритми за машинно обучение, за да синтезира гласове, наподобяващи човешки. Често се обучава с големи аудио масиви, за да имитира гласове и интонации.
- Етично използване: AI voice generator може да бъде използван етично за различни цели, включително за достъпност за хора с говорни увреждания, изучаване на езици, забавление или дублажи.
- Неетично използване: Злоупотребата с технологията за създаване на фалшиви аудиозаписи със злонамерени цели, като фалшифициране на чужд глас с цел измамни действия или разпространение на дезинформация, се счита за неетична.
Клониране на глас
Клонирането на глас представлява създаване на изкуствено копие на гласа на даден човек, обикновено чрез използване на негови записи като обучителни данни за машинно обучение.
- Етично използване: Клонирането на глас се използва допустимо за създаване на персонални гласови асистенти, запазване на гласовете на хора за бъдещите поколения и подпомагане на хора с говорни затруднения (винаги с изрично съгласие).
- Неетично използване: Неразрешеното клониране на глас за измамнически цели, като създаване на фалшиви записи и имитиране на някого без негово съгласие, е изключително неетично и води до сериозни злоупотреби и нарушения на личното пространство.
Злоупотреба с гласа на Байдън чрез ИИ
Злоупотребата с гласа на Байдън чрез генерирани от ИИ робокалове е ярък пример за потенциала на дигиталните технологии да бъдат използвани като оръжие срещу демокрацията чрез потискане на гласуването и разпространение на дезинформация. Последствията от подобни действия са дълбоки, особено когато става дума за имитация на политически фигури. Този инцидент очертава бъдеще, в което ИИ-генерирани гласове могат да се използват за разпространяване на фалшиви наративи, манипулиране на общественото мнение и подкопаване на демократичния процес. Потенциалното въздействие върху доверието в политическия дебат и върху целостта на изборите е изключително тревожно.
С напредъка на ИИ технологиите рискът от подобни инциденти нараства, като експерти по дигитална криминалистика като Хани Фарид подчертават необходимостта от повишено внимание.
Избирателите трябва да бъдат нащрек за ИИ по време на избори
С наближаването на президентските избори през 2024 г. избирателите трябва да останат бдителни срещу злоупотреба с технологии с изкуствен интелект при опити за влияние върху общественото мнение. Дезинформацията, генерирана от ИИ, може да се превърне в масов проблем по време на политически кампании, което налага допълнителна информираност сред избирателите.
„Опасението ни беше, че генеративният ИИ ще бъде използван като оръжие на предстоящите избори и вече виждаме ясен знак за това, което предстои“, казва Хани Фарид, експерт по дигитална криминалистика, прегледал записа с гласа на Байдън, в интервю.
Как да използваме гласов ИИ по етичен начин
След този инцидент е изключително важно да се обмислят етичните приложения на гласовия изкуствен интелект. Макар че технологията дава много възможности, включително за дублажи, ние сме отговорни да я ползваме етично. Това включва ясен маркер, когато се използва генериран от ИИ глас, избягване на злонамерени цели и уважение към личното пространство и съгласието на засегнатите.
Очакват се нови закони и регулации за ИИ
С напредъка на технологиите законодатели, разработчици, изборни длъжностни лица и обществото трябва да работят заедно за изработване на защитни механизми, регулации и етични стандарти, за да опазят демократичния процес от злоупотреби. Честността на изборите — основата на американската демокрация — зависи от възможността ни да се адаптираме и да реагираме на новите предизвикателства, свързани с ИИ. Всъщност Конгресът вече обсъжда защити срещу ИИ. На скорошно изслушване в Сената сенатор Ричард Блументал дори демонстрира дийпфейк със свой глас, създаден с ИИ софтуер за клониране на глас и сценарий, съставен от ChatGPT на OpenAI. Федералната избирателна комисия също започна процес по евентуално регулиране на дийпфейковете в политическите кампании през 2024 година.
Speechify Voice Over Studio: #1 етична платформа за гласов ИИ
Speechify Voice Over Studio е водещата етична платформа за гласов ИИ, предлагаща най-висок стандарт в синтетичните гласови технологии. С над 200 натуралистични гласа за превръщане на текст в реч, достъпни на различни езици и акценти, Speechify Voice Over Studio предоставя възможност на всеки да създава динамично и ангажиращо съдържание с лекота.
Интуитивната платформа разполага с лесни за използване ИИ инструменти за аудиоредакция, като предоставя прецизен контрол върху всяка дума — настройка на тон, произношение, височина и други. Speechify Voice Over Studio поставя етиката на първо място, като предлага клониране само на вашия собствен глас, за да гарантира изрично съгласие и да сведе до минимум риска от злоупотреба.
Speechify Voice Over Studio е идеалният избор за създаване на впечатляващи дублажи за различни приложения — социални мрежи, видеоигри, аудиокниги, подкасти и други. Издигнете съдържанието си на ново ниво и опитайте Speechify Voice Over Studio безплатно още днес.
ЧЗВ
Какъв е примерът за неетично клониране на глас с ИИ?
Неетичен пример за клониране на глас с ИИ би било използването на технологията за създаване на убедителен фалшив аудиозапис, в който например Илон Мъск прави неверни изявления по чувствителни геополитически теми, като участието на Вашингтон в събития в Израел, с цел изкуствено манипулиране на общественото мнение и създаване на раздор. Тази измамна употреба може да злоупотреби с общественото доверие и да предизвика напрежение, като приписва подвеждащи твърдения на влиятелни личности, за да обслужва определена цел.
Групата на републиканците (GOP) иска ли да регулира ИИ?
Според анкета на Fox News, „Републиканците са по-малко убедени от демократите, че федералното правителство трябва да наложи регулации върху системите с изкуствен интелект и са още по-скептични относно способността на правителството да се справи с тази задача.“
Има ли дийпфейк с Тейлър Суифт?
Има няколко неетични дийпфейка, създадени с участието на Тейлър Суифт, включително снимки и музика, без нейно съгласие. По данни от репортажи тя дори обмисля съдебни действия срещу създателите на тези дийпфейкове.
Получиха ли избирателите в Ню Хемпшър дийпфейк робокал с Байдън, който ги призовава да не гласуват?
Да, измамник създаде дийпфейк с Байдън, използвайки технология от ElevenLabs, с цел да убеди избирателите да не вписват името на Байдън по време на първичните избори в Ню Хемпшър.

