Источник дипфейка Джо Байдена раскрыт после вмешательства в выборы
Ищете наш Читатель текста в речь?
Упоминается в
- Источник дипфейка Джо Байдена раскрыт после вмешательства в выборы
- Что такое мошенничество с дипфейком Джо Байдена?
- Идентификатор звонящего дипфейка Джо Байдена
- Аудио мошенничества с дипфейком Джо Байдена
- Что делать, если вы получили робозвонок от Джо Байдена?
- Источник дипфейка робозвонка Джо Байдена раскрыт
- Дипфейк против генератора голоса ИИ против клонирования голоса
- Злоупотребление голосом Джо Байдена с помощью ИИ
- Избиратели должны быть начеку в этом избирательном сезоне
- Как использовать голосовой ИИ этично
- Законы и регулирование ИИ на подходе
- Speechify Voice Over Studio: платформа этичного ИИ для озвучивания №1
- Часто задаваемые вопросы
Некоторые избиратели получили дипфейк-робозвонок от президента Байдена. Узнайте, кто создал дипфейк Джо Байдена и каковы последствия неэтичного использования ИИ.
Источник дипфейка Джо Байдена раскрыт после вмешательства в выборы
В последние часы перед праймериз в Нью-Гэмпшире развернулся коварный заговор, использующий технологии искусственного интеллекта для имитации голоса президента Джо Байдена в робозвонке. Эта беспрецедентная попытка вмешательства в выборы выявила пересечение ИИ, дипфейков и дезинформации, вызывая обеспокоенность по поводу возможных последствий для демократических процессов. Давайте разберемся во всем, что вам нужно знать о мошенничестве с дипфейком, связанном с робозвонком от президента США Джо Байдена, включая тех, кто был вовлечен.
Что такое мошенничество с дипфейком Джо Байдена?
В понедельник, 22 января 2023 года, офис генерального прокурора Нью-Гэмпшира сообщил, что расследует сообщения о предполагаемом робозвонке, который использовал искусственный интеллект для имитации голоса президента Джо Байдена и отговаривал избирателей в штате от участия в голосовании.
Целью этой аферы было отговорить избирателей от участия в праймериз штата, ложно утверждая, что голосование на праймериз каким-то образом повлияет на всеобщие выборы в ноябре. Сгенерированный ИИ голос Байдена призывал избирателей "сохранить" свои голоса для предстоящих федеральных выборов, утверждая, что голосование на праймериз будет на руку республиканцам и способствовать переизбранию Дональда Трампа.
Идентификатор звонящего дипфейка Джо Байдена
Идентификатор звонящего фальшивого робозвонка Байдена выглядел так, как будто он был отправлен от имени Кэти Салливан, бывшего председателя Демократической партии штата, которая помогает управлять Granite for America, супер-ПАК, агитирующим за избирателей, чтобы они писали имя Байдена, чтобы выразить свою поддержку президенту. Однако он не вел кампанию в Нью-Гэмпшире и не собирался быть в бюллетене, так как он был в лидирующей позиции на праймериз Демократической партии.
«Этот звонок связан с моим личным номером мобильного телефона без моего разрешения», — сказала Салливан в заявлении. «Это явное вмешательство в выборы и очевидная попытка запугать меня и других избирателей Нью-Гэмпшира, которые планируют написать имя Джо Байдена во вторник.»
Аудио мошенничества с дипфейком Джо Байдена
В фальшивом аудио робозвонка полученном NBC, вы можете услышать голос, который пугающе похож на голос Байдена, произносящий его любимую фразу: «Что за чушь». Сообщение продолжает утверждать, что «важно сохранить ваш голос для ноябрьских выборов, а голосование в этот вторник только помогает республиканцам в их стремлении снова избрать Дональда Трампа. Ваш голос имеет значение в ноябре, а не в этот вторник.»
После его выпуска пресс-секретарь Белого дома Карин Жан-Пьер проинформировала общественность, что сообщение было сгенерировано ИИ для распространения дезинформации и не исходило от кампании Байдена.
В заявлении менеджер кампании Байдена, Джули Чавес Родригес, сказала, что кампания «активно обсуждает дополнительные меры, которые следует принять немедленно.»
Что делать, если вы получили робозвонок от Джо Байдена?
Записанное сообщение, по-видимому, было незаконной попыткой распространения дезинформации и срыва голосования. Хотя неясно, сколько избирателей получили звонок, по крайней мере, дюжина его сообщила. Генеральный прокурор Джон Формелла объяснил, что любой, кто получил такой звонок, «должен полностью игнорировать содержание этого сообщения.»
Источник дипфейка робозвонка Джо Байдена раскрыт
Согласно Bloomberg, компания по обнаружению мошенничества с голосом Pindrop Security Inc. обнаружила, что дипфейк робозвонок Байдена был сделан не кампанией Байдена, а мошенником, использующим ElevenLabs, стартап ИИ, предлагающий возможности клонирования голоса.
Хотя заявление о безопасности ElevenLabs позволяет клонирование голоса «для определенных некоммерческих целей, если вы не влияете на личную жизнь или экономические интересы человека», включая «частное изучение, некоммерческое исследование, образование, карикатуру, пародию, сатиру, художественную и политическую речь, способствующую общественным дебатам, цитирование», а также «критику и обзор», ElevenLabs заблокировала пользователя, который создал дипфейк робозвонок Байдена.
"Мы стремимся предотвратить злоупотребление аудио инструментами ИИ и относимся к любым инцидентам злоупотребления крайне серьезно," сообщили ElevenLabs Bloomberg.
Дипфейк против генератора голоса ИИ против клонирования голоса
По мере того как генерация голосов с помощью ИИ становится все более популярной, важно понимать термины дипфейк, генератор голосов ИИ и клонирование голоса, а также различия между их этичным и неэтичным использованием.
Дипфейк
Дипфейк относится к использованию искусственного интеллекта и методов машинного обучения для создания или манипуляции аудио- и визуальным контентом, часто заменяя чье-то изображение на изображение другого человека в реалистичной манере.
- Этичное использование дипфейков: Технология дипфейков может быть использована этично для развлечений, художественного выражения и образования, когда намерение не заключается в обмане или причинении вреда другим.
- Неэтичное использование дипфейков: Когда технология дипфейков используется для создания вводящего в заблуждение контента и ложных нарративов или для имитации людей с целью нанесения вреда (например, распространения дезинформации или создания фейковых новостей), это вызывает серьезные этические проблемы.
Генератор голосов ИИ
Генераторы голосов ИИ используют алгоритмы машинного обучения для синтеза голосов, похожих на человеческие. Они часто обучаются на больших наборах данных, чтобы имитировать человеческие голоса и интонации.
- Этичное использование генераторов голосов ИИ: Генераторы голосов ИИ могут быть использованы этично для различных целей, включая доступность для людей с нарушениями речи, изучение языков, развлечения или озвучивание.
- Неэтичное использование генераторов голосов ИИ: Злоупотребление генерацией голосов ИИ для создания фальшивых аудиозаписей с недобрыми намерениями, такими как подделка чьего-то голоса для имитации с целью мошенничества или распространения дезинформации, считается неэтичным.
Клонирование голоса
Клонирование голоса включает создание синтетической копии голоса человека, обычно с использованием записей его речи в качестве обучающих данных для модели машинного обучения.
- Этичное использование клонирования голоса: Клонирование голоса может быть использовано этично для таких целей, как создание персонализированных голосовых помощников, сохранение голосов людей для будущих поколений с их согласием или помощь людям с нарушениями речи.
- Неэтичное использование клонирования голоса: Несанкционированное клонирование голоса для обманных действий, таких как создание фальшивых аудиозаписей для имитации кого-то без их согласия, может быть крайне неэтичным и привести к нарушениям конфиденциальности и потенциальному злоупотреблению.
Злоупотребление голосом Джо Байдена с помощью ИИ
Злоупотребление голосом Джо Байдена через автоматические звонки, сгенерированные ИИ, является ярким примером того, как искусственные технологии могут быть использованы в попытках подавления голосования и распространения дезинформации. Последствия злоупотребления ИИ для имитации голосов политических деятелей имеют далеко идущие последствия. Этот инцидент предвещает будущее, в котором голоса, сгенерированные ИИ, могут быть использованы для распространения ложных нарративов, манипулирования общественным мнением и подрыва демократического процесса. Потенциальное влияние на доверие к политическим дискуссиям и целостность выборов вызывает серьезную озабоченность.
По мере развития технологий ИИ риск возникновения таких инцидентов увеличивается, и эксперты по цифровой криминалистике, такие как Хани Фарид, подчеркивают необходимость бдительности в решении этих проблем.
Избиратели должны быть начеку в этом избирательном сезоне
По мере приближения президентских выборов 2024 года избиратели должны оставаться бдительными в отношении злоупотребления технологиями ИИ в попытках повлиять на общественное мнение. Дезинформация, сгенерированная ИИ, может стать распространенной проблемой в политических кампаниях, что требует повышения осведомленности среди электората.
«Мы обеспокоены тем, что генеративный ИИ будет использован в предстоящих выборах, и мы видим, что это, безусловно, знак того, что нас ждет», — сказал Хани Фарид, эксперт по цифровой криминалистике, который изучил запись автоматического звонка Байдена, в интервью.
Как использовать голосовой ИИ этично
В свете этого инцидента важно рассмотреть этичные применения голосового ИИ. Хотя технологии голосового ИИ предлагают множество возможностей, включая озвучивание, существует ответственность за их этичное использование. Это включает в себя четкое указание на использование сгенерированных ИИ голосов, избегание злонамеренных намерений и уважение конфиденциальности и согласия.
Законы и регулирование ИИ на подходе
По мере развития технологий законодатели, разработчики ИИ, избирательные чиновники и общественность должны работать вместе, чтобы установить меры безопасности, регулирования и этические стандарты для защиты демократического процесса от злоупотреблений. Честность выборов, краеугольный камень американской демократии, зависит от нашей способности адаптироваться и реагировать на возникающие вызовы, связанные с использованием ИИ. На самом деле, Конгресс уже обсуждает защиту от ИИ. На недавнем слушании в Сенате сенатор Ричард Блументаль даже продемонстрировал дипфейки, проиграв запись своего голоса, созданную с помощью программного обеспечения для клонирования голоса ИИ, и сценарий, написанный ChatGPT от OpenAI. Федеральная избирательная комиссия также начала процесс возможного регулирования дипфейков, созданных ИИ, в политической рекламе кампании 2024 года.
Speechify Voice Over Studio: платформа этичного ИИ для озвучивания №1
Speechify Voice Over Studio — ведущая платформа этичного ИИ для озвучивания, устанавливающая золотой стандарт в технологии синтетической речи. С более чем 200 реалистичными голосами для преобразования текста в речь, доступными на нескольких языках и с различными акцентами, Speechify Voice Over Studio позволяет пользователям легко создавать динамичный и увлекательный контент.
Ее удобная платформа оснащена простыми в использовании инструментами редактирования аудио на основе ИИ, предоставляя детальный контроль над каждым словом, позволяя пользователям точно настраивать высоту тона, произношение, интонацию и многое другое. Speechify Voice Over Studio также уделяет внимание этическим аспектам, предлагая клонирование голоса исключительно для вашего собственного голоса, обеспечивая явное согласие и снижая риск злоупотреблений.
Speechify Voice Over Studio — идеальный выбор для создания убедительных озвучек для различных приложений, включая контент для социальных сетей, видеоигры, аудиокниги, подкасты и многое другое. Повышайте свой опыт создания контента и попробуйте Speechify Voice Over Studio бесплатно уже сегодня.
Часто задаваемые вопросы
Какой пример неэтичного клонирования голоса ИИ?
Неэтичный пример клонирования голоса ИИ может включать использование технологии для создания убедительной аудиозаписи, в которой Илон Маск делает ложные заявления о чувствительных геополитических вопросах, таких как участие Вашингтона в делах Израиля, что может манипулировать общественным восприятием и вызывать разногласия. Такое обманчивое использование клонирования голоса может эксплуатировать общественное доверие и сеять раздор, приписывая вводящие в заблуждение заявления влиятельным фигурам для продвижения определенной повестки дня.
Хотят ли республиканцы регулировать ИИ?
Согласно опросу Fox News, «республиканцы менее уверены, чем демократы, что федеральное правительство должно вводить регулирование систем искусственного интеллекта, и еще более скептически относятся к тому, что правительство справится с этой задачей».
Был ли создан дипфейк Тейлор Свифт?
Было создано несколько неэтичных дипфейков Тейлор Свифт, включая фотографии и музыку, без ее согласия. Согласно сообщениям, она действительно рассматривает возможность подачи иска против создателей дипфейков.
Получали ли избиратели в Нью-Гэмпшире дипфейк-робозвонок от Байдена с призывом не голосовать?
Да, мошенник создал дипфейк Байдена, используя технологию ИИ ElevenLabs, чтобы попытаться убедить избирателей не вписывать имя Байдена во время праймериз в Нью-Гэмпшире.
Клифф Вайцман
Клифф Вайцман — защитник прав людей с дислексией, генеральный директор и основатель Speechify, ведущего в мире приложения для преобразования текста в речь, с более чем 100 000 отзывов на 5 звезд и первым местом в App Store в категории «Новости и журналы». В 2017 году Вайцман был включен в список Forbes «30 до 30» за его вклад в повышение доступности интернета для людей с нарушениями обучения. Клифф Вайцман был упомянут в таких изданиях, как EdSurge, Inc., PC Mag, Entrepreneur, Mashable и других ведущих СМИ.