Zdroj deepfake nahrávky Joe Bidena odhalen po volebním zásahu
Hledáte náš čtečku textu na řeč?
Uváděno v
- Zdroj deepfake nahrávky Joe Bidena odhalen po volebním zásahu
- Co je podvod s deepfake Joe Bidena?
- ID volajícího deepfake Joe Bidena
- Zvukový záznam podvodu s deepfake Joe Bidena
- Co byste měli udělat, pokud jste obdrželi robocall Joe Bidena?
- Zdroj deepfake robocallu Joe Bidena odhalen
- Deepfake vs. AI generátor hlasu vs. klonování hlasu
- Zneužití AI hlasu Joea Bidena
- Voliči by měli být v této volební sezóně na pozoru před AI
- Jak eticky používat hlasovou AI
- Přicházejí zákony a regulace AI
- Speechify Voice Over Studio: #1 etická AI platforma pro hlas
- Často kladené otázky
Někteří voliči obdrželi deepfake robocall prezidenta Bidena. Zjistěte, kdo vytvořil deepfake Joe Bidena a jaké jsou důsledky neetického využití AI.
Zdroj deepfake nahrávky Joe Bidena odhalen po volebním zásahu
V poslední chvíli před primárkami v New Hampshire se rozvinul záludný plán, který využil technologii umělé inteligence k napodobení hlasu prezidenta Joe Bidena v robocallu. Tento bezprecedentní pokus o volební zásah odhalil propojení AI, deepfake a dezinformací, což vyvolává obavy o možné důsledky pro demokratické procesy. Ponořme se do všeho, co potřebujete vědět o podvodu s deepfake zahrnujícím robocall od amerického prezidenta Joe Bidena, včetně toho, kdo byl zapojen.
Co je podvod s deepfake Joe Bidena?
V pondělí 22. ledna 2023 úřad generálního prokurátora New Hampshire oznámil, že vyšetřuje zprávy o zjevné robocall, která využila umělou inteligenci k napodobení hlasu prezidenta Joe Bidena a odrazovala voliče ve státě od účasti ve volbách.
Tento podvod měl za cíl odradit voliče od účasti v primárních volbách státu, falešně tvrdíc, že hlasování v primárkách by nějak ovlivnilo listopadové všeobecné volby. AI generovaný hlas Bidena vyzýval voliče, aby "šetřili" své hlasy pro nadcházející federální volby, tvrdíc, že hlasování v primárkách by prospělo republikánům a usnadnilo znovuzvolení Donalda Trumpa.
ID volajícího deepfake Joe Bidena
ID volajícího falešného robocallu Bidena se objevilo, jako by bylo odesláno od Kathy Sullivan, bývalé předsedkyně státní Demokratické strany, která pomáhá řídit Granite for America, super-PAC, který vede kampaň za voliče, aby napsali Bidena jako projev podpory prezidentovi. Nicméně, on nekampanoval v New Hampshire a nebyl na hlasovacím lístku, protože byl v čele pro demokratické prezidentské primárky.
„Tento hovor je spojen s mým osobním číslem mobilního telefonu bez mého svolení,“ řekla Sullivan ve prohlášení. „Je to zjevný volební zásah a jasný pokus obtěžovat mě a další voliče v New Hampshire, kteří plánují napsat Joe Bidena v úterý.“
Zvukový záznam podvodu s deepfake Joe Bidena
Ve falešném zvukovém záznamu robocallu získaném NBC, můžete slyšet hlas, který zní děsivě podobně jako Bidenův, říkat jeho oblíbenou frázi, „Co za nesmysl.“ Zpráva pokračuje s tvrzením, že „je důležité, abyste si šetřili svůj hlas pro listopadové volby a „hlasování toto úterý pouze umožňuje republikánům v jejich snaze znovu zvolit Donalda Trumpa. Váš hlas má význam v listopadu, ne toto úterý.“
Po jeho zveřejnění informovala tisková mluvčí Bílého domu Karine Jean-Pierre veřejnost, že zpráva byla generována AI za účelem šíření dezinformací a nepochází z Bidenovy kampaně.
Ve svém prohlášení manažerka Bidenovy kampaně, Julie Chavez Rodriguez, uvedla, že kampaň „aktivně diskutuje o dalších krocích, které je třeba okamžitě podniknout.“
Co byste měli udělat, pokud jste obdrželi robocall Joe Bidena?
Nahraná zpráva se zdála být nelegálním pokusem šířit dezinformace a narušit hlasování. I když není jasné, kolik voličů hovor obdrželo, alespoň tucet to nahlásilo. Generální prokurátor John Formella vysvětlil, že kdokoli, kdo takový hovor obdržel, „by měl obsah této zprávy zcela ignorovat.“
Zdroj deepfake robocallu Joe Bidena odhalen
Podle Bloombergu, společnost pro detekci podvodů s hlasem Pindrop Security Inc. zjistila, že deepfake robocall Bidena nebyl vytvořen Bidenovou kampaní, ale podvodníkem využívajícím ElevenLabs, startup s AI hlasem, který nabízí možnosti klonování hlasu.
Zatímco prohlášení o bezpečnosti ElevenLabs umožňuje klonování hlasu „pro určité nekomerční účely, pokud neovlivníte soukromí nebo ekonomické zájmy osoby,“ včetně „soukromého studia, nekomerčního výzkumu, vzdělávání, karikatury, parodie, satiry, uměleckého a politického projevu přispívajícího k veřejným debatám, citace,“ stejně jako „kritiky a recenze,“ ElevenLabs zablokoval uživatele, který vytvořil deepfake robocall Bidena.
"Jsme odhodláni zabránit zneužití nástrojů audio AI a bereme jakékoli případy zneužití velmi vážně," řekli ElevenLabs Bloombergu.
Deepfake vs. AI generátor hlasu vs. klonování hlasu
Jak se generování hlasu pomocí AI stává populárnějším, je důležité porozumět pojmům deepfake, generátor hlasu AI a klonování hlasu, stejně jako rozdílu mezi jejich etickým a neetickým využitím.
Deepfake
Deepfake označuje použití umělé inteligence a technik strojového učení k vytváření nebo manipulaci s audio a vizuálním obsahem, často nahrazující něčí podobu jinou osobou realistickým způsobem.
- Etické použití deepfake: Technologie deepfake může být eticky využita pro zábavu, umělecký projev a vzdělávání, kde není úmyslem klamat nebo škodit ostatním.
- Neetické použití deepfake: Když je technologie deepfake zneužita k vytváření zavádějícího obsahu a falešných narativů nebo k napodobování jednotlivců za účelem škodlivých aktivit (jako je šíření dezinformací nebo vytváření falešných zpráv), vyvolává to vážné etické obavy.
Generátor hlasu AI
Generátory hlasu AI používají algoritmy strojového učení k syntetizaci hlasů podobných lidským. Často jsou trénovány na velkých datových souborech, aby napodobovaly lidské hlasy a tóny.
- Etické použití generátoru hlasu AI: Generátory hlasu AI mohou být eticky využity pro různé účely, včetně přístupnosti pro osoby s poruchami řeči, učení jazyků, zábavy nebo dabingu.
- Neetické použití generátoru hlasu AI: Zneužití generování hlasu AI k vytváření falešných zvukových nahrávek se škodlivým úmyslem, jako je padělání něčího hlasu k napodobování pro podvodné aktivity nebo šíření dezinformací, je považováno za neetické.
Klonování hlasu
Klonování hlasu zahrnuje vytvoření syntetické kopie hlasu osoby, obvykle pomocí nahrávek jejich řeči jako tréninkových dat pro model strojového učení.
- Etické použití klonování hlasu: Klonování hlasu může být eticky využito pro účely, jako je vytváření personalizovaných hlasových asistentů, uchování hlasů jednotlivců pro budoucí generace se souhlasem nebo pomoc osobám s poruchami řeči.
- Neetické použití klonování hlasu: Neoprávněné klonování hlasu pro klamavé aktivity, jako je vytváření falešných zvukových nahrávek k napodobování někoho bez jejich souhlasu, může být vysoce neetické a může vést k porušení soukromí a potenciálnímu zneužití.
Zneužití AI hlasu Joea Bidena
Zneužití hlasu Joea Bidena prostřednictvím AI generovaných robocallů je jasným příkladem potenciálu umělé technologie být zneužita k potlačení hlasování a šíření dezinformací. Důsledky zneužití AI k replikaci hlasů politických osobností jsou dalekosáhlé. Tento incident předznamenává budoucnost, kde by AI generované hlasy mohly být použity k šíření falešných narativů, manipulaci s veřejným míněním a podkopávání demokratického procesu. Potenciální dopad na důvěru v politický diskurz a integritu voleb je důvodem k vážným obavám.
Jak technologie AI postupuje, riziko výskytu takových incidentů se zvyšuje, přičemž odborníci na digitální forenziku jako Hany Farid zdůrazňují potřebu bdělosti při řešení těchto výzev.
Voliči by měli být v této volební sezóně na pozoru před AI
Jak se blíží prezidentské volby v roce 2024, voliči musí zůstat ostražití vůči zneužití AI technologie ve snaze ovlivnit veřejné mínění. AI generované dezinformace by se mohly stát rozšířeným problémem v politických kampaních, což vyžaduje zvýšené povědomí mezi voliči.
„Obávali jsme se, že generativní AI bude zneužita v nadcházejících volbách a vidíme, co je jistě znamením věcí, které přijdou,“ řekl Hany Farid, odborník na digitální forenziku, který přezkoumal nahrávku robocallu Bidena, v rozhovoru.
Jak eticky používat hlasovou AI
V návaznosti na tento incident je klíčové zvážit etické aplikace hlasové AI. Zatímco technologie hlasu AI nabízí řadu možností, včetně dabingu, je zde odpovědnost ji používat eticky. To zahrnuje jasné označení, kdy jsou používány AI generované hlasy, vyhýbání se škodlivým úmyslům a respektování soukromí a souhlasu.
Přicházejí zákony a regulace AI
Jak technologie pokračuje v pokroku, zákonodárci, vývojáři AI, volební úředníci a veřejnost musí spolupracovat na vytvoření ochranných opatření, regulací a etických standardů k ochraně demokratického procesu před takovými zneužitími. Integrita voleb, základní kámen americké demokracie, závisí na naší schopnosti přizpůsobit se a reagovat na nové výzvy týkající se využití AI. Kongres již diskutuje o ochraně AI. Na nedávném senátním slyšení senátor Richard Blumenthal dokonce předvedl deepfakes přehráním svého vlastního hlasu vytvořeného pomocí softwaru pro klonování hlasu AI a scénáře napsaného ChatGPT od OpenAI. Federální volební komise také zahájila proces, který by mohl vést k regulaci deepfakes generovaných AI v politických kampaních v roce 2024.
Speechify Voice Over Studio: #1 etická AI platforma pro hlas
Speechify Voice Over Studio je přední etická AI platforma pro hlas, která nastavuje zlatý standard v technologii syntetické řeči. S více než 200 realistickými hlasy pro převod textu na řeč dostupnými v různých jazycích a přízvucích, Speechify Voice Over Studio umožňuje uživatelům snadno vytvářet dynamický a poutavý obsah.
Jeho uživatelsky přívětivá platforma nabízí snadno použitelné AI nástroje pro úpravu zvuku, které poskytují detailní kontrolu nad každým slovem, umožňují uživatelům doladit výšku, výslovnost, tón a další. Speechify Voice Over Studio také klade důraz na etické aspekty tím, že nabízí klonování hlasu pouze pro váš vlastní hlas, čímž zajišťuje explicitní souhlas a snižuje riziko zneužití.
Speechify Voice Over Studio je ideální volbou pro vytváření přesvědčivých hlasových záznamů pro různé aplikace, včetně obsahu na sociálních médiích, videoher, audioknih, podcastů a dalších. Zvyšte svou zkušenost s tvorbou obsahu a vyzkoušejte Speechify Voice Over Studio zdarma ještě dnes.
Často kladené otázky
Jaký je příklad neetického klonování hlasu AI?
Neetickým příkladem klonování hlasu AI by mohlo být použití technologie k vytvoření přesvědčivé zvukové nahrávky Elona Muska, jak činí nepravdivá prohlášení o citlivých geopolitických záležitostech, jako je zapojení Washingtonu do záležitostí v Izraeli, což by mohlo manipulovat s veřejným vnímáním a způsobit nesoulad. Toto klamavé použití klonování hlasu by mohlo zneužít důvěru veřejnosti a zasít nesoulad tím, že by přisuzovalo zavádějící prohlášení vlivným osobnostem za účelem prosazení určité agendy.
Chce GOP regulovat AI?
Podle průzkumu Fox News „Republikáni jsou méně přesvědčeni než demokraté, že federální vláda musí zavést regulace na systémy umělé inteligence, a jsou ještě skeptičtější, zda je vláda schopna to správně provést.“
Byl vytvořen deepfake Taylor Swift?
Bylo vytvořeno několik neetických deepfakeů Taylor Swift, včetně fotografií a hudby, bez jejího souhlasu. Podle zpráv skutečně zvažuje právní kroky proti tvůrcům těchto deepfakeů.
Dostali voliči v New Hampshire robocall s deepfake Bidenem, který jim říkal, aby nehlasovali?
Ano, podvodník vytvořil deepfake Bidena pomocí AI technologie ElevenLabs, aby se pokusil přesvědčit voliče, aby během primárek v New Hampshire nepsali Bidenovo jméno.
Cliff Weitzman
Cliff Weitzman je zastáncem dyslexie a CEO a zakladatelem Speechify, nejpopulárnější aplikace pro převod textu na řeč na světě, s více než 100 000 pětihvězdičkovými recenzemi a první příčkou v App Store v kategorii Zprávy a časopisy. V roce 2017 byl Weitzman zařazen na seznam Forbes 30 pod 30 za svou práci na zpřístupnění internetu lidem s poruchami učení. Cliff Weitzman byl uveden v EdSurge, Inc., PC Mag, Entrepreneur, Mashable a dalších předních médiích.