Με την έλευση της τεχνητής νοημοσύνης (AI), ζούμε μια επανάσταση σε πολλούς τομείς, από την υγεία μέχρι την ψυχαγωγία. Ωστόσο, αυτό το τεχνολογικό άλμα δεν ήταν μόνο ωφέλιμο. Η αντιγραφή φωνής, προϊόν της AI, έχει γίνει όπλο στα χέρια απατεώνων εις βάρος ανυποψίαστων ανθρώπων. Πρόσφατα, οι αρχές, συμπεριλαμβανομένης της Ομοσπονδιακής Επιτροπής Εμπορίου (FTC), αναφέρουν ανησυχητική αύξηση στις απάτες αντιγραφής φωνής με AI.
Είναι Πραγματική η Αντιγραφή Φωνής;
Ναι, η αντιγραφή φωνής είναι αληθινή και γίνεται μέσω εξελιγμένης AI. Η τεχνολογία αυτή δημιουργεί σχεδόν τέλεια αντίγραφα κάθε φωνής, «μαθαίνοντας» τα μοναδικά της χαρακτηριστικά από ένα μικρό ηχητικό. Εταιρείες όπως η OpenAI με τα μοντέλα ChatGPT πρωτοστατούν σε τέτοιες εφαρμογές.
Τι χρησιμοποιούν οι άνθρωποι για αντιγραφή φωνής;
Υπάρχουν αρκετά AI λογισμικά & εφαρμογές για αντιγραφή φωνής. Τα 8 πιο γνωστά είναι:
- Lyrebird: Ενσωματώθηκε στη Descript, φιλικό για χρήστες που θέλουν να αντιγράψουν φωνές.
- Resemble AI: Γνωστό για ποιοτικές ψηφιακές φωνές για επιχειρήσεις.
- iSpeech: Δημοφιλές για ρεαλιστικές φωνές σε πολλές γλώσσες.
- CereVoice Me: Προσφέρει προσωποποιημένες ψηφιακές φωνές για βοηθητικές εφαρμογές.
- Baidu Deep Voice: Κλωνοποιεί μια φωνή με λίγα λεπτά ηχογράφησης.
- VocaliD: Ειδικεύεται σε μοναδικές ψηφιακές φωνές για branding ή προσωπική χρήση.
- Real-Time Voice Cloning Toolbox: Ανοιχτού κώδικα — κλωνοποιεί φωνή σε πραγματικό χρόνο.
- Modulate: Παρέχει voice skins για αλλαγή φωνής σε real time online.
Ποιος ο σκοπός της αντιγραφής φωνής;
Η αντιγραφή φωνής έχει και κακόβουλες και θετικές χρήσεις. Βοηθά άτομα που έχασαν τη φωνή τους να ξαναμιλήσουν. Ζωντανεύει ιστορικούς ή φανταστικούς χαρακτήρες σε ταινίες & podcasts. Επιχειρήσεις τη χρησιμοποιούν για πιο έξυπνα chatbot με εξατομικευμένη εμπειρία.
Πώς δουλεύουν οι απάτες με AI φωνή;
Σε απάτες αντιγραφής φωνής, εγκληματίες μιμούνται τη φωνή συγγενή ή διάσημου με τεχνολογία AI. Ο «κλώνος» εμφανίζεται σε κλήσεις, μηνύματα ή social media, για να πείσει το θύμα. Π.χ., ηλικιωμένος λαμβάνει κλήση από "συγγενή" που ζητά βοήθεια μετά από δήθεν ατύχημα. Άλλοι απατεώνες αλλάζουν τον αριθμό για να φαίνεται αληθινός και ζητούν δωροκάρτες ή κρυπτονομίσματα.
Πώς χρησιμοποιούνται οι απάτες με αντιγραφή φωνής;
Αυτές οι απάτες στοχεύουν στην εξαπάτηση για χρήματα ή προσωπικά δεδομένα. Ρεπορτάζ του Fox News στην Αριζόνα έδειξε περίπτωση όπου μια γυναίκα πίστεψε ότι είχαν απαγάγει τον γιο της, επειδή άκουσε τη φωνή του. Αποτέλεσμα ήταν να μεταφέρει χρήματα. Άλλα περιστατικά σχετίζονται με κλοπή ταυτότητας, phishing ή παραπληροφόρηση.
Πώς να προστατευτείτε από απάτες αντιγραφής φωνής;
Η προστασία απαιτεί εγρήγορση & ενημέρωση. Μη δίνετε προσωπικά στοιχεία στο τηλέφωνο, ακόμη κι αν η φωνή σάς φαίνεται γνώριμη. Να είστε καχύποπτοι σε αιτήματα για χρήματα, ειδικά σε δωροκάρτες ή crypto. Συμφωνήστε έναν κωδικό ασφαλείας με την οικογένεια για επιβεβαίωση κλήσεων. Υποψιάζεστε απάτη; Αναφέρετέ το στη FTC στο (www.ftc.gov).
Πόσο δύσκολη είναι η αναγνώριση μιας φωνητικής απάτης;
Η αναγνώριση απάτης φωνής γίνεται όλο και πιο δύσκολη. Η AI βελτιώνει τόσο πολύ τις ψεύτικες φωνές που δεν ξεχωρίζουν εύκολα από τις αληθινές. Με τα deepfakes, οι απατεώνες φτιάχνουν και πειστικά βίντεο, ενισχύοντας την απάτη.
Πώς να προστατεύσετε καλύτερα τη φωνή σας;
Για να προστατεύσετε τη φωνή σας, προσέξτε πού και πώς μοιράζεστε ηχογραφήσεις. Μη στέλνετε φωνητικά μηνύματα σε ανοικτά social ή απαντάτε σε άγνωστες κλήσεις που ζητούν φωνητική επιβεβαίωση. Κρατήστε ιδιωτικές τις συνομιλίες με φωνητικούς βοηθούς και μην ανεβάζετε ηχογραφήσεις χωρίς ρυθμίσεις ασφαλείας.
Παρά τις δυσκολίες, εταιρείες κυβερνοασφάλειας εξελίσσουν εργαλεία εντοπισμού απάτης. Οι αρχές ενημερώνουν τους πολίτες και νέοι νόμοι σχεδιάζονται για την αντιμετώπιση αυτών των κινδύνων. Με συνεχή επαγρύπνηση και πρόοδο στην τεχνολογία, μπορούμε να μένουμε ένα βήμα μπροστά από τους απατεώνες.

