С появата на изкуствения интелект (AI) станахме свидетели на революция в различни сектори – от здравеопазването до развлеченията. Все пак този технологичен скок не носи само положителни последици. Клонирането на глас, страничен продукт на AI технологиите, се превърна в инструмент за измамници да злоупотребяват с невинни хора. Напоследък правоохранителните органи, включително Федералната търговска комисия (FTC), съобщават за тревожен ръст на измамите с AI клониране на глас.
Реално ли е клонирането на глас?
Да, клонирането на глас е напълно реално и се подпомага от напреднали AI технологии. Технологията за клониране на глас позволява създаването на почти перфектни копия на всеки глас чрез научаване на уникалните му характеристики от кратък аудиозапис. Компании като OpenAI, със своите мощни модели като ChatGPT, са сред водещите в областта на генеративния AI, който позволява такива приложения.
С какво хората клонират гласове?
На пазара има няколко AI софтуера и приложения, които се използват за клониране на гласове. Ето топ 8:
- Lyrebird: Закупен от Descript, Lyrebird предоставя лесна за ползване платформа за клониране на гласове.
- Resemble AI: Известен с генериране на висококачествени клонирани гласове за бизнес употреба.
- iSpeech: Популярен за създаване на реалистичен синтез на реч на различни езици.
- CereVoice Me: Предлага персонализирани дигитални гласове за хора, ползващи асистивни технологии.
- Baidu Deep Voice: Може да клонира глас само с няколко минути аудио.
- VocaliD: Специализира в създаването на уникални дигитални гласове за брандове или лична употреба.
- Real-Time Voice Cloning Toolbox: Open-source проект, който клонира глас в реално време.
- Modulate: Предлага гласови скинове, които ви позволяват да персонализирате гласа си онлайн в реално време.
За какво се използва клонирането на глас?
Въпреки че клонирането на глас може да бъде използвано с лоши цели, важно е да се отбележат и неговите положителни приложения. То може да се използва за възстановяване на реч при хора, загубили гласа си поради медицински причини. Може да вдъхне нов живот на исторически личности или измислени герои във филми или подкасти. Бизнесът го използва за подобряване на обслужването чрез чатботове и създаване на персонализирани изживявания.
Как работят AI гласовите измами?
При измамите с клониране на глас киберпрестъпници използват AI, за да имитират гласа на доверен човек – било то близък или публична личност като Илон Мъск. Клонираният глас може да бъде използван в телефонно обаждане, съобщение на гласова поща или в социална мрежа като TikTok за извършване на измама. Например възрастен дядо или баба може да получи обаждане от „роднина“, който моли за пари след предполагаема катастрофа. Измамник може също така да подправи телефонния номер, за да изглежда легитимен, и да поиска плащания с подаръчни карти или криптовалути.
Как се използват измамите с клониране на глас?
Тези измами се използват основно, за да бъдат измъкнати пари или чувствителна информация от жертвите. В репортаж на Fox News миналия месец беше представен случай от Аризона, в който жена беше подлъгана да повярва, че синът й е отвлечен. Измамниците използват клониране на глас, за да имитират гласа на сина й, което я кара да изпрати голяма сума пари. Има и други случаи, включващи кражба на самоличност, фишинг или дори разпространение на дезинформация.
Как можете да се предпазите от измами с клониране на глас?
За да се предпазите от такива измами, трябва да сте бдителни и добре информирани. Никога не споделяйте лична информация по телефона, дори ако обаждащият се ви звучи познато. Бъдете подозрителни към спешни искания за парични преводи, особено под формата на подаръчни карти или криптовалути. Уговорете кодова дума с членовете на семейството си, за да удостоверявате неочаквани обаждания. Ако подозирате измама, съобщете за нея на FTC чрез техния уебсайт (www.ftc.gov).
Защо е толкова трудно да се разпознае гласова измама?
Разпознаването на гласова измама може да бъде трудно, защото качеството на клонираните гласове става все по-високо с развитието на AI, което прави клонирания глас почти неразличим от истинския. Освен това с помощта на deepfake технологии престъпниците могат да създават и убедителни видеа, което прави измамата още по-трудна за разкриване.
Какъв е най-добрият начин да защитите гласа си?
За да защитите гласа си от клониране, бъдете внимателни къде и как споделяте гласови записи. Избягвайте да изпращате гласови съобщения в незащитени социални мрежи или да отговаряте на непознати обаждания, изискващи гласова автентикация. Освен това пазете взаимодействията с гласови асистенти поверителни и не публикувайте записи с гласа си на публични платформи като подкасти без подходящи мерки за сигурност.
Въпреки предизвикателствата компании в сферата на киберсигурността разработват инструменти за разкриване на измами с AI-генериран глас. Правоохранителните органи обучават обществото за този тип измами, а се изготвя и законодателство за борба с тази заплаха в тъмната мрежа. С постоянна бдителност и технологичен напредък можем да се надяваме винаги да бъдем една крачка пред измамниците.

