Într-o eră în care inteligența artificială (AI) se integrează tot mai mult în viața de zi cu zi, inovația clonării vocii cu ajutorul AI a creat noi oportunități pentru escroci. Escrocheriile cu clonarea vocii prin AI implică infractori cibernetici care utilizează tehnologii de tip AI generativ pentru a imita vocea unei persoane dragi sau a unui membru al familiei, creând un sentiment de urgență pentru a păcăli oamenii să renunțe la bani sau la informații sensibile.
În fiecare zi, mii de americani, dacă nu chiar mai mulți, primesc apeluri de la escroci care folosesc tehnologia vocală bazată pe AI. Iată un ghid despre cum te poți feri de aceste furturi de identitate tot mai sofisticate și de alte tipuri de escrocherii.
Înțelege tehnologia
Clonarea vocii prin AI folosește algoritmi pentru a genera o replică digitală a vocii unei persoane pornind de la o scurtă înregistrare audio. Această tehnologie, deși revoluționară, poate fi folosită și abuziv pentru a crea escrocherii foarte convingătoare. Aceste mesaje audio „deepfake” pot da impresia că un membru al familiei este în pericol—spunând de exemplu că a avut un accident de mașină sau probleme legale—și are nevoie urgentă de bani, adesea sub forma criptomonedelor, a detaliilor de card sau a cardurilor cadou.
Recunoaște semnele de avertizare
Comisia Federală pentru Comerț (FTC) evidențiază câteva semne de avertizare asociate cu clonarea vocii și alte escrocherii cu AI:
- Cereri urgente de bani: Fii precaut dacă persoana care te sună insistă să acționezi pe loc.
- Cereri de discreție: Escrocii cer adesea victimelor să nu spună nimănui, nici măcar altor membri ai familiei, despre situație.
- Modalități de plată neobișnuite: Solicitările de plată prin criptomonede, carduri cadou sau transferuri bancare sunt de cele mai multe ori un semn clar de fraudă.
Top 7 cele mai frecvente escrocherii cu voce AI
- Escrocheria bunicului/bunicii: Escrocii folosesc clonarea vocii generate de AI pentru a imita vocea unui bunic, sunându-le nepoților cu cereri urgente de bani din cauza unei urgențe inventate, precum un accident auto, cerând adesea ca banii să fie trimiși prin carduri cadou sau criptomonede.
- Apeluri false de la autorități: Infractorii cibernetici clonează vocile unor oficiali ai poliției sau ai diverselor agenții guvernamentale pentru a intimida victimele să ofere informații sensibile sau bani, folosindu-se de autoritatea instituțiilor precum FTC pentru a induce un sentiment de urgență.
- Escrocherii cu suport tehnic: Folosind tehnologia AI, escrocii se dau drept echipe de suport tehnic la companii precum Apple sau Microsoft, susținând că dispozitivul tău este infectat cu malware. Victimele sunt manipulate să acorde acces de la distanță sau să plătească pentru servicii inutile de securitate cibernetică.
- Escrocherii romantice pe rețelele sociale: Clonarea vocală AI este folosită pentru adâncirea unor relații false pe platforme ca Facebook sau LinkedIn. Escrocii inventează povești lacrimogene și solicită bani pentru „crize” inexistente.
- Mesaje vocale de tip phishing: Această escrocherie presupune lăsarea unor mesaje vocale generate de AI care par a fi de la o sursă de încredere, cum ar fi o bancă sau Amazon, îndemnându-te să suni înapoi la un număr de telefon unde un escroc va încerca să îți scoată informațiile de card ori datele personale.
- Frauda executivă în afaceri: AI-ul este folosit pentru a imita vocea unui CEO sau director într-un mesaj audio trimis prin email sau telefon angajaților, solicitând transferuri bancare urgente sau divulgarea unor date sensibile.
- Frauda cu asigurări: Escrocii se dau drept agenți de asigurări după dezastre, folosind voci clonate de la agenți reali preluate de pe rețele sociale sau site-urile companiilor. Ei profită de starea emoțională a victimelor, solicitând plăți imediate sau informații personale „în schimbul” ajutorului.
În toate aceste situații, FTC recomandă verificarea identităților prin comunicare directă pe linii de contact cunoscute și sigure, implementarea autentificării în doi pași și prudență față de apeluri de la numere necunoscute sau solicitări neprevăzute, pentru a-ți asigura o protecție solidă împotriva escrocheriilor AI tot mai sofisticate.
Verifică apelurile suspecte
Dacă primești un apel telefonic sau mesaj vocal neașteptat care îți provoacă îngrijorare, urmează acești pași pentru a te proteja:
- Închide și sună înapoi: Folosește un număr de telefon cunoscut pentru a contacta persoana care pretinde că te-a sunat.
- Folosește un cuvânt de siguranță: Stabiliți un cuvânt de siguranță în familie pentru urgențe, ca să poți verifica rapid dacă apelul este legitim.
- Verifică identificatorul apelantului: Fii sceptic față de apelurile de la numere necunoscute sau care par să imite contacte din agenda ta, o tactică numită spoofing al identificatorului de apel.
Fii informat și protejat
Întărirea măsurilor de securitate cibernetică te poate ajuta, de asemenea, să te protejezi de escrocherii:
- Informează-te pe tine și pe ceilalți: Dă mai departe informații despre escrocherii prietenilor și familiei, în special celor mai vulnerabili, cum ar fi persoanele în vârstă care pot fi ținta escrocheriei „bunicului/bunicii”.
- Asigură-ți prezența digitală: Folosește autentificarea în doi pași pe toate conturile importante, de la rețele de socializare până la servicii financiare.
- Rămâi la curent: Companii precum McAfee și principalele platforme tehnologice ca Apple și Amazon își actualizează constant funcțiile de securitate pentru a contracara amenințările noi.
Ce spun experții
Experții în securitate cibernetică recomandă vigilență. Conform celor mai recente informații de la McAfee, apelurile înșelătoare și încercările de phishing sunt tot mai numeroase în fiecare an. LinkedIn și alte rețele de socializare sunt de asemenea folosite frecvent de infractori pentru a colecta date personale folosite în escrocherii.
Ia măsuri
Dacă suspectezi că ai dat peste o escrocherie cu clonare vocală AI:
- Raportează autorităților: Anunță FTC sau poliția locală.
- Informează-ți rețeaua: Avertizează-ți cercul social ca să previi răspândirea escrocheriei.
Pe măsură ce tehnologia AI evoluează, evoluează și metodele infractorilor cibernetici. Rămânând informat cu privire la cele mai noi instrumente AI și riscuri cibernetice, dar și menținând vigilența în comunicarea de zi cu zi, te poți proteja pe tine și pe cei dragi de aceste scheme frauduloase.
Cum te protejezi de escrocheriile și clonarea vocii prin AI
Pentru a evita riscul clonării vocale AI, stabilește metode de verificare, precum un cuvânt de siguranță unic cu familia sau prietenii, și verifică întotdeauna apelurile suspecte închizând și sunând înapoi la un număr cunoscut.
Protejează-te de riscurile AI folosind măsuri solide de securitate cibernetică, precum activarea autentificării în doi pași pe conturile tale, menținerea actualizată a software-ului și informarea constantă despre cele mai recente amenințări bazate pe AI.
Detectarea clonării vocii poate fi dificilă, însă semnele includ distorsiuni sau tonuri neobișnuite ale vocii, precum și lipsa coerenței cu modul obișnuit de vorbire sau cu sunetele de fundal; dacă ai suspiciuni, verifică întotdeauna printr-o altă metodă de comunicare.

