ჯო ბაიდენის დიპფეიკის წყარო გამოვლინდა არჩევნების ჩარევის შემდეგ
ნიუ ჰემფშირის პრაიმერის წინ, განხორციელდა ბოროტი გეგმა: AI-ით შექმნეს პრეზიდენტ ჯო ბაიდენის ხმის იმიტაცია რობოძახილში. ეს უპრეცედენტო ჩარევა არჩევნებში აჩვენებს, როგორ იკვეთება AI, დიპფეიკები და დეზინფორმაცია და კითხვის ნიშანს სვამს დემოკრატიული პროცესის უსაფრთხოებაზე. აქ ნახავთ ყველაფერს ბაიდენის რობოძახილის დიპფეიკის თაღლითობასა და მასში ჩართულ პირებზე.
რა არის ჯო ბაიდენის დიპფეიკის თაღლითობა?
ორშაბათს, 2023 წლის 22 იანვარს, ნიუ ჰემფშირის გენერალური პროკურორის ოფისმა განაცხადა, რომ გამოიკვლევდა რობოძახილს, რომელშიც AI-ით ბაიდენის ხმას ბაძავდნენ და ამომრჩევლებს კენჭისყრაზე შეჯახებდნენ.
მიზანი იყო ამომრჩევლების შეცდომაში შეყვანა და მათი პრაიმერზე არ მისვლა. მესიჯი ავრცელებდა მცდარ ინფორმაციას, თითქოს პრაიმერში ხმის მიცემა რესპუბლიკელების დახმარებას ნიშნავდა და ტრამპის გადარჩევას უწყობდა ხელს.
ჯო ბაიდენის დიპფეიკ რობოძახილის ნომერი
დიპფეიკი რობოძახილის ნომერი თითქოს კეტი სალივანის—ყოფილი დემოკრატების ლიდერის—სახელით იყო გაგზავნილი, რომელიც Granite for America-ს ხელმძღვანელობს. მაგრამ ბაიდენი ნიუ ჰემფშირის პრაიმერში არ მონაწილეობდა და ბიულეტენზეც არ იყო.
„ეს ზარი ჩემს პირად ნომერზე იყო მიბმული, ჩემი ნების გარეშე“, — აღნიშნა სალივანმა განცხადებაში. „ეს პირდაპირი ჩარევაა არჩევნებში და მცდელობა, შევაწუხო მე და სხვა ამომრჩევლები, ვინც ბაიდენზე უნდა დაწეროს სახელი.“
ჯო ბაიდენის დიპფეიკის აუდიო
რობოძახილის დიპფეიკ აუდიოში, რომელიც NBC-მ მიიღო, ისმოდა ბაიდენის ხმის მსგავსი ფრაზა: „What a bunch of malarkey.“ მესიჯი ამტკიცებდა, რომ უნდა მიეცათ ხმა მხოლოდ ნოემბერში და რომ პრაიმერზე ხმის მიცემა რესპუბლიკელებს უწყობდა ხელს — თქვენი ხმა მნიშვნელოვანია ნოემბერში, არა ახლა.
ამის შემდეგ თეთრი სახლის პრესმდივანმა, ჟან-პიერემ, განმარტა, რომ ეს დეზინფორმაციული AI-მესიჯი იყო და ბაიდენის კამპანიას არ ჰქონია კავშირი.
ბაიდენის კამპანიის მენეჯერმა, ჯული ჩავეს როდრიგესმა განაცხადა, რომ „კამპანია დაუყოვნებლივ მუშაობს დამატებით ზომებზე.“
რა უნდა ქნათ, თუ მიიღეთ ბაიდენის რობოძახილი?
ეს ჩანაწერი იყო უკანონო მცდელობა, ტყვეობაში მოექციათ სიმართლე და არჩევნები შეერყიათ. უცნობია, რამდენმა ადამიანმა მიიღო ეს ზარი, მაგრამ მინიმუმ ათზე მეტმა უკვე გაავრცელა ინფორმაცია. გენერალურმა პროკურორმა ჯონ ფორმელამ თქვა, რომ ასეთი ზარების შინაარსი საერთოდ არ უნდა გაითვალისწინოთ.
ჯო ბაიდენის რობოძახილის დიპფეიკის წყარო
როგორც Bloomberg იუწყება, Pindrop Security Inc.-მა დაადგინა, რომ ბაიდენის დიპფეიკის რობოძახილი კამპანიას არ შეუკვეთავს, არამედ თაღლითმა ElevenLabs-ის—AI ხმის სტარტაფის, ხმის კლონირების ფუნქციებით—სერვისები გამოიყენა.
მიუხედავად იმისა, რომ ElevenLabs-ის უსაფრთხოების წესებით ხმის კლონირება დაშვებულია არაკომერციულად, თუ არ ირღვევა პიროვნება და ეკონომიკური ინტერესები (მაგ.: კვლევა, ხელოვნება, პაროდია, პოლიტიკური გამოხატულება), ElevenLabs-მა დაბლოკა მომხმარებელი, რომელმაც ბაიდენის დიპფეიკის რობოძახილი შექმნა.
"ჩვენ ვცდილობთ, AI აუდიო ინსტრუმენტები არ იქნეს ბოროტად გამოყენებული და მსგავს შემთხვევებს ძალიან სერიოზულად ვეკიდებით," — განუცხადა ElevenLabs-მა Bloomberg-ს.
დიპფეიკი vs AI ხმის გენერატორი vs ხმის კლონირება
AI ხმის გენერაციის ზრდასთან ერთად მნიშვნელოვანია, იცოდეთ ტერმინები დიპფეიკი, AI ხმის გენერატორი და ხმის კლონირება — და რაც მთავარია, ეთიკური და არაეთიკური გამოყენების სხვაობა.
დიპფეიკი
დიპფეიკი გულისხმობს AI-ისა და მანქანური სწავლების გამოყენებით ავთენტური აუდიო თუ ვიზუალური მასალის დამზადებას ან შეცვლას, როცა სხვის გარეგნობასა და ხმას რეალისტურად ცვლიან.
- ეთიკური დიპფეიკი: შეიძლება გამოიყენონ გასართობად, ხელოვნებაში ან განათლებაში — თუ მიზანი არ არის სხვების მოტყუება ან ზიანის მიყენება.
- არაეთიკური დიპფეიკი: როცა გამოიყენება სიცრუისა და დეზინფორმაციის შესაქმნელად ან ბოროტი მიზნებისთვის (მაგალითად, თაღლითობა ან ყალბი ამბების გავრცელება), ეს სერიოზულ ეთიკურ პრობლემებს ქმნის.
AI ხმის გენერატორი
AI ხმის გენერატორები იყენებენ ალგორითმებს ადამიანის მსგავსი ხმის სინთეზისთვის. მათ ასწავლიან დიდ ხმოვან ბაზაზე, რომ „ისწავლონ“ ხმის ტონი და სხვა მახასიათებლები.
- ეთიკური გამოყენება: სასარგებლოა მეტყველების სირთულეების მქონე ადამიანებისთვის, ენის სწავლაში, გასართობად ან დუბლაჟისთვის.
- არაეთიკური გამოყენება: სიცრუის მიზნით ან თაღლითურად სხვა ადამიანების ხმის მიბაძვა, რომ მოტყუება და დეზინფორმაცია მოხდეს, არაეთიკურია.
ხმის კლონირება
ხმის კლონირება გულისხმობს ადამიანის ხმის სინთეზურ ასლის შექმნას, ჩვეულებრივ რეალური ჩანაწერების გამოყენებით სასწავლო მოდელისთვის.
- ეთიკური ხმის კლონირება: შეიძლება გამოიყენონ პერსონალური ხმის ასისტენტებისთვის, ხმის შენახვისთვის ან დამხმარე ტექნოლოგიაში პაციენტებისთვის.
- არაეთიკური კლონირება: პიროვნების წინასწარი თანხმობის გარეშე მისი ხმის გამოყენება და ყალბი ჩანაწერების შექმნა არღვევს პირადი ცხოვრების უფლებას და ბოროტად გამოყენებას უწყობს ხელს.
ჯო ბაიდენის AI ხმის ბოროტად გამოყენება
ბაიდენის ხმის AI-ით ბოროტად გამოყენება ნათლად აჩვენებს, როგორ შეიძლება ტექნოლოგია იქცეს ხმის შენიღბვისა და დეზინფორმაციის იარაღად. ასეთი ავთვისებიანი ხმის გამეორება სერიოზულ გავლენას ახდენს პოლიტიკურ პროცესსა და ნდობაზე.
AI ტექნოლოგიის გაუმჯობესებასთან ერთად, მსგავსი შემთხვევების რისკი იზრდება. ციფრული გამოძიების სპეციალისტები, მაგალითად ჰანი ფარიდი, გვაფრთხილებენ, რომ საჭიროა მეტი სიფრთხილე.
ამომრჩევლებმა AI-ს თაღლითობებზე ყურადღება უნდა გაამახვილონ
2024 წლის საპრეზიდენტო არჩევნების მოახლოებასთან ერთად, ამომრჩევლებმა უნდა უარყონ AI-ით შექმნილი დეზინფორმაცია. ტექნოლოგიით გამზადებული სიცრუე გაიზრდება და საჭიროა მეტი ცნობიერება და კრიტიკული ფიქრი.
„გვაშფოთებს, რომ გენერაციული AI იარაღად იქცევა მომავალ არჩევნებში და უკვე პირველი სიგნალებიც მოჩანს,“ — აღნიშნა ჰანი ფარიდმა, ციფრულმა ექსპერტმა, ბაიდენის რობოძახილის შეფასებისას ინტერვიუში.
როგორ გამოიყენოთ ხმის AI ეთიკურად
ამ ინციდენტის შემდეგ მნიშვნელოვანია დავნერგოთ ხმის AI-ის ეთიკური პრაქტიკა. მიუხედავად მისი მრავალფეროვანი შესაძლებლობებისა, საჭიროა მკაფიოდ აღნიშვნა, როცა ხმას AI ქმნის, და უნდა იყოს დაცული კონფიდენციალურობა და თანხმობა.
AI-ს რეგულაციები და კანონმდებლობა მოდის
ტექნოლოგიის განვითარებასთან ერთად საჭიროა საკანონმდებლო, ტექნოლოგიური და საზოგადოებრივი ძალისხმევა დემოკრატიის დასაცავად და ახალი წესების მისაღებად. არჩევნების მთლიანობა სწორედ ასეთ რეაგირებაზეა დამოკიდებული. კონგრესი უკვე განიხილავს AI-ის რეგულირებას. ბოლო სენატის მოსმენაზე სენატორმა ბლუმენტალმა წარმოადგინა საკუთარი ხმის AI-ით შექმნილი დიპფეიკი, ტექსტი კი ChatGPT-ით იყო დაწერილი. ფედერალურმა საარჩევნო კომისიამც დაიწყო პროცესი, რომ 2024 წლის საარჩევნო კამპანიებისთვის შესაძლო რეგულაციები დაამკვიდროს.
Speechify Voice Over Studio: #1 ეთიკური AI პლატფორმა
Speechify Voice Over Studio წამყვანი ეთიკური AI ხმის პლატფორმაა სინთეზური ხმების ტექნოლოგიაში. 200+ ტექსტი-ხმად ხმით, მრავალ ენასა და აქცენტში, კონტენტის შექმნას სწრაფსა და მარტივს ხდის.
მარტივი და მოსახერხებელი რედაქტირების ხელსაწყოები გაძლევთ ზუსტ კონტროლს თითოეულ სიტყვაზე: შეგიძლიათ შეცვალოთ ტონი, ინტონაცია, გამოთქმა და სხვა. ეთიკური ხმის კლონირება ხელმისაწვდომია მხოლოდ თქვენი ხმისთვის, თანხმობით და ბოროტად გამოყენების რისკის გარეშე.
Speechify Voice Over Studio იდეალური არჩევანია სოციალური მედიის, ვიდეო თამაშების, აუდიო წიგნების, პოდკასტებისა და სხვა ფორმატის ხმისთვის. სცადეთ უფასოდ Speechify Voice Over Studio უკვე დღეს.
ხშირად დასმული კითხვები
რა მაგალითია არაეთიკური AI ხმის კლონირების?
არაეთიკური მაგალითია ელონ მასკის ყალბი აუდიო დიპფეიკის შექმნა, სადაც თითქოს მნიშვნელოვან გეოპოლიტიკურ თემებზე აღიარებს შეცდომას, რაც საზოგადოებრივ აზრზე ზემოქმედებს და დაპირისპირებას იწვევს. ასეთი კლონირება ანგრევს ნდობას და შეიძლება დესტაბილიზაციაც კი გამოიწვიოს.
GOP-ს სურს AI რეგულირება?
როგორც Fox News-ის გამოკითხვა აჩვენებს, „რესპუბლიკელები ბევრად ნაკლებად ეთანხმებიან დემოკრატებს, რომ ფედერალურმა მთავრობამ უნდა დაარეგულიროს AI და კიდევ უფრო სკეპტიკურად არიან მთავრობის შესაძლებლობების მიმართ.“
ტაბლოიდებმა ტეილორ სვიფტზე დიპფეიკი შექმნეს?
ტეილორ სვიფტზე არაერთი დიპფეიკი შეიქმნა მისი თანხმობის გარეშე — როგორც ფოტო, ასევე მუსიკა. გავრცელდა ცნობები, რომ თვითონაც განიხილავს სამართლებრივ ნაბიჯებს დიპფეიკების ავტორების წინააღმდეგ.
ნიუ ჰემფშირის ამომრჩევლებმა მიიღეს ბაიდენის დიპფეიკი რობოძახილით, რომ არ მიიღონ მონაწილეობა?
დიახ, თაღლითმა ElevenLabs-ის AI ტექნოლოგიით შექმნა ბაიდენის დიპფეიკი, რომ გადაერწმუნებინა ამომრჩევლები ბაიდენის სახელის დაწერაზე პრაიმერში.

