Pastaraisiais metais AI giliųjų klastočių technologijų augimas patraukė visuomenės ir ekspertų dėmesį. Kaip žmogus, besidomintis technologijų ir visuomenės sankirta, vis atidžiau stebiu, kaip dirbtinis intelektas (DI) naudojamas kuriant įtikinamą, tačiau visiškai suklastotą skaitmeninį turinį. Nuo giliųjų klastočių vaizdo įrašų iki DI sukurtų paveikslėlių – DI galimybės atrodo beveik neribotos. Tačiau šis progresas kelia daug klausimų apie dezinformaciją, kibernetinį saugumą ir etišką DI naudojimą.
Kas yra giliosios klastotės?
Giliosios klastotės – tai realistiškai atrodantys skaitmeniniai suklastojimai, sukurti naudojant DI, ypač generatyvinius DI modelius ir giluminio mokymosi algoritmus. Šios technologijos gali manipuliuoti garsu, vaizdu bei nuotraukomis, sukurdamos turinį, kuris atrodo tikras, nors yra visiškai suklastotas. Pavyzdžiui, giliųjų klastočių vaizdo įrašai gali tikroviškai pakeisti veido bruožus arba imituoti viešų asmenų balsus, todėl tampa sunku atskirti, kas tikra, o kas – ne.
Žymiausi giliųjų klastočių atvejai
- Marko Zuckerbergo klastotė: Plačiai išplitusiame vaizdo įraše Facebook vadovas Markas Zuckerbergas tariamai giriasi jo valdomu žmonių duomenų kiekiu. Šis klastotas įrašas, sukurtas naudojant veido keitimo technologiją, išryškino giliųjų klastočių keliamus pavojus. Jis sulaukė didelio žiniasklaidos dėmesio, įskaitant BBC ir kitų portalų apžvalgas.
- Baracko Obamos klastotė: Giliųjų klastočių vaizdo įrašas su buvusiu JAV prezidentu Baracku Obama, kurį sukūrė Jordan Peele ir BuzzFeed, sulaukė didelio dėmesio. Jame Obama tariamai daro šokiruojančius pareiškimus, tačiau vėliau paaiškėjo, kad tai DI sukurta klastotė. Šis atvejis parodė, kaip lengvai gali būti platinama dezinformacija.
- Tomo Cruise'o TikTok klastotės: TikTok platformoje pasirodė keli giliųjų klastočių vaizdo įrašai su aktoriumi Tomu Cruise'u, demonstruojantys itin tikrovišką veido keitimą. Šie klastoti įrašai įrodė, kokios pažangios tapo giliųjų klastočių technologijos ir kaip lengvai jos gali apgauti žiūrovus.
- N. Pelosi pakeistas įrašas: Vaizdo įrašas apie JAV Atstovų Rūmų pirmininkę Nancy Pelosi buvo sulėtintas taip, kad atrodytų, jog ji apsvaigusi ar serganti. Nors tai nėra tradicinė gilioji klastotė, iškreiptas įrašas greitai paplito ir sukėlė etikos diskusijas apie medijų redagavimą. Apie tai rašė ir The New York Times.
- Belgijos premjerės klastotė: Vaizdo įraše Belgijos premjerė Sophie Wilmès klaidingai sieja COVID-19 su aplinkos žala. Įrašą sukūrė nevyriausybinė organizacija, norėdama atkreipti dėmesį į klimato kaitą, tačiau kilo etikos klausimų dėl klastočių naudojimo aktyvizme.
- Manoj Tiwari gilioji klastotė: Indijos politinės kampanijos metu pasklido gilioji klastotė su politiku Manoj Tiwari, kur jis kalba skirtingomis kalbomis. Tai parodė, kaip DI sukurtas turinys gali paveikti visuomenės nuomonę ir rinkimų eigą.
- John Oliverio klastočių segmentas: Laidoje „Last Week Tonight“ John Oliver aptarė gilias klastotes ir parodė netikrą klipą su savimi pačiu. Ši laidos dalis, kurioje naudotas veidų keitimas ir DI generuotas turinys, siekė supažindinti visuomenę su tokių klastočių keliamais pavojais.
Šie pavyzdžiai pabrėžia giliųjų klastočių poveikį, etikos klausimus ir jų gebėjimą skleisti dezinformaciją bei formuoti visuomenės nuomonę.
Mašininio mokymosi ir neuroninių tinklų vaidmuo
Giliųjų klastočių pagrindas – mašininis mokymasis ir neuroniniai tinklai. Šie DI modeliai mokomi su milžiniškais duomenų kiekiais, kad atpažintų dėsningumus ir kurtų realistišką mediją. Analizuodami tūkstančius vaizdų ir įrašų, modeliai išmoksta generuoti itin įtikinamus vaizdus ar DI sukurtus vaizdo įrašus. Tokios įmonės kaip OpenAI ir Microsoft kuria pažangiausius šios srities įrankius.
Giliųjų klastočių poveikis visuomenei
Nors giliųjų klastočių technologija įspūdinga, jos piktnaudžiavimo galimybės kelia didelį nerimą. Giliosios klastotės ir netikros nuotraukos gali būti naudojamos dezinformacijai skleisti, ypač socialiniuose tinkluose. Pavyzdžiui, viešo asmens (pvz., Donaldo Trumpo) gilioji klastotė su skandalinga fraze gali akimirksniu išplisti, sukeldama sumaištį ir veikdama viešąją nuomonę.
Kibernetinis saugumas ir giliųjų klastočių grėsmės
Giliųjų klastočių paplitimas kelia rimtą kibernetinio saugumo riziką. Piktavaliai gali naudoti tokias klastotes apgaule, šantažui ir kitiems žalingiems veiksmams. Pavyzdžiui, netikras vadovo įrašas gali suklaidinti darbuotojus ar investuotojus. Tokias grėsmes padeda mažinti pažangios klastočių atpažinimo sistemos ir stiprios saugumo priemonės.
Kova su giliosiomis klastotėmis
Įvairios organizacijos ir valdžios institucijos imasi priemonių, kad suvaldytų giliųjų klastočių keliamus iššūkius. ES, pavyzdžiui, svarsto reguliavimą, kuriuo būtų ribojamas DI sukurtos dezinformacijos plitimas. Technologijų bendrovės kuria DI sistemas, gebančias atpažinti ir žymėti giliųjų klastočių turinį, kad vartotojai galėtų atskirti tikrą mediją nuo suklastotos.
Giliųjų klastočių ateitis
Tobulėjant DI, giliųjų klastočių kūrimo galimybės ir toliau plėsis. Pradedančiosios ir didelės technologijų įmonės ieško šios technologijos pritaikymo – nuo realistiškų avatarų iki kino efektų. Vis dėlto tokia pažanga reikalauja atsakingo DI naudojimo ir priemonių, apsaugančių nuo galimos žalos.
DI giliosios klastotės – įspūdingas technologinis pasiekimas, turintis plačias pasekmes. Jos atveria naujų kūrybinių galimybių, bet kartu kelia grėsmių dėl dezinformacijos, saugumo ir etikos iššūkių. Šiame kelyje svarbu derinti naujoves su atsakomybe, kad DI iš tiesų neštų naudą visai visuomenei.

