조 바이든 딥페이크 출처, 선거 개입 후 밝혀져
우리의 텍스트 음성 변환 리더를 찾고 계신가요?
추천 매체
조 바이든 대통령의 딥페이크 로보콜이 일부 유권자에게 수신되었습니다. 조 바이든 딥페이크를 누가 만들었는지와 비윤리적 AI의 파급 효과를 알아보세요.
조 바이든 딥페이크 출처, 선거 개입 후 밝혀져
뉴햄프셔 예비선거를 앞두고 인공지능 기술을 이용해 조 바이든 대통령의 목소리를 모방한 로보콜이 등장하는 음모가 펼쳐졌습니다. 이 전례 없는 선거 개입 시도는 AI, 딥페이크, 허위 정보의 교차점을 드러내며 민주적 절차에 대한 잠재적 결과에 대한 우려를 불러일으켰습니다. 미국 대통령 조 바이든의 로보콜을 포함한 딥페이크 사기에 대해 알아야 할 모든 것을 살펴보겠습니다.
조 바이든 딥페이크 사기란 무엇인가요?
2023년 1월 22일 월요일, 뉴햄프셔 법무장관실은 조 바이든 대통령의 목소리를 모방하여 유권자들이 투표소에 가지 않도록 하는 로보콜 보고를 조사 중이라고 밝혔습니다.
이 사기는 유권자들이 주 예비선거에 참여하지 않도록 유도하며, 예비선거에서 투표하는 것이 11월 총선에 영향을 미칠 것이라는 거짓 주장을 했습니다. AI로 생성된 바이든 목소리는 유권자들에게 다가오는 연방 선거를 위해 투표를 "저장"하라고 촉구하며, 예비선거에서 투표하는 것이 공화당에 유리하고 도널드 트럼프의 재선을 촉진할 것이라고 주장했습니다.
조 바이든 딥페이크 발신자 ID
가짜 바이든 로보콜의 발신자 ID는 Granite for America라는 슈퍼 PAC을 운영하며 바이든을 지지하는 유권자들을 대상으로 캠페인을 벌이는 전 주 민주당 의장 Kathy Sullivan으로 나타났습니다. 그러나 그는 뉴햄프셔에서 캠페인을 벌이지 않았고 민주당 대통령 예비선거의 선두 주자로서 투표에 오르지 않았습니다.
“이 전화는 제 허락 없이 제 개인 휴대폰 번호로 연결됩니다,”라고 Sullivan은 성명서에서 말했습니다. “이는 명백한 선거 개입이며, 화요일에 조 바이든을 기입하려는 뉴햄프셔 유권자들을 괴롭히려는 시도입니다.”
조 바이든 딥페이크 사기 오디오
NBC가 입수한 로보콜 가짜 오디오에서 들어보면 바이든의 목소리와 매우 유사한 목소리가 그의 유명한 유행어 “말도 안 되는 소리”를 말하는 것을 들을 수 있습니다. 메시지는 “11월 선거를 위해 투표를 저장하는 것이 중요하며, 이번 화요일에 투표하는 것은 공화당이 도널드 트럼프를 다시 선출하려는 노력에 기여하는 것”이라고 이어집니다. “당신의 투표는 이번 화요일이 아니라 11월에 차이를 만듭니다.”
발표 후, 백악관 대변인 카린 장-피에르는 이 메시지가 바이든 캠페인에서 나온 것이 아니라 허위 정보를 퍼뜨리기 위해 AI로 생성된 것이라고 대중에게 알렸습니다.
바이든의 캠페인 매니저 줄리 차베스 로드리게스는 성명에서 캠페인이 “즉시 추가 조치를 논의하고 있다”고 말했습니다.
조 바이든 로보콜을 받았다면 어떻게 해야 하나요?
녹음된 메시지는 불법적인 허위 정보 유포 및 투표 방해 시도로 보였습니다. 몇 명의 유권자가 전화를 받았는지는 불분명하지만, 최소한 12명이 이를 보고했습니다. 법무장관 존 포멜라는 이러한 전화를 받은 사람은 “이 메시지의 내용을 전적으로 무시해야 한다”고 설명했습니다.
조 바이든 로보콜 딥페이크 출처 밝혀져
Bloomberg에 따르면, 음성 사기 탐지 회사 Pindrop Security Inc.는 바이든 딥페이크 로보콜이 바이든 캠페인에 의해 만들어진 것이 아니라 음성 복제 기능을 제공하는 AI 음성 스타트업 ElevenLabs를 사용한 사기꾼에 의해 만들어졌다고 밝혔습니다.
ElevenLabs의 안전 성명서는 “개인의 사생활이나 경제적 이익에 영향을 미치지 않는 경우 특정 비상업적 목적으로 음성 복제를 허용한다”고 명시하고 있으며, 여기에는 “개인 연구, 비상업적 연구, 교육, 캐리커처, 패러디, 풍자, 공공 토론에 기여하는 예술적 및 정치적 연설, 인용”뿐만 아니라 “비판 및 리뷰”도 포함됩니다. ElevenLabs는 바이든 딥페이크 로보콜을 만든 사용자를 차단했습니다.
"우리는 오디오 AI 도구의 오용을 방지하기 위해 최선을 다하고 있으며, 오용 사례를 매우 심각하게 받아들입니다,"라고 ElevenLabs는 Bloomberg에 말했습니다.
딥페이크 vs. AI 음성 생성기 vs. 음성 복제
AI 음성 생성이 점점 더 인기를 끌면서, 딥페이크, AI 음성 생성기, 음성 복제의 의미와 그들의 윤리적 및 비윤리적 사용의 차이를 이해하는 것이 중요합니다.
딥페이크
딥페이크는 인공지능과 기계 학습 기술을 사용하여 오디오 및 비주얼 콘텐츠를 생성하거나 조작하는 것을 의미하며, 종종 누군가의 모습을 다른 사람의 모습으로 현실감 있게 대체합니다.
- 윤리적인 딥페이크 사용: 딥페이크 기술은 다른 사람을 속이거나 해치려는 의도가 없는 경우, 엔터테인먼트, 예술적 표현, 교육 목적으로 윤리적으로 사용할 수 있습니다.
- 비윤리적인 딥페이크 사용: 딥페이크 기술을 악용하여 오해를 불러일으키는 콘텐츠와 거짓된 이야기를 만들거나, 악의적인 목적으로 개인을 사칭하는 경우(예: 허위 정보 유포나 가짜 뉴스 생성) 심각한 윤리적 문제가 발생합니다.
AI 음성 생성기
AI 음성 생성기는 기계 학습 알고리즘을 사용하여 인간과 유사한 AI 음성을 합성합니다. 이들은 종종 대규모 데이터셋을 기반으로 인간의 목소리와 톤을 모방하도록 훈련됩니다.
- 윤리적인 AI 음성 생성기 사용: AI 음성 생성기는 언어 학습, 엔터테인먼트, 음성 더빙 등 다양한 목적으로 윤리적으로 사용할 수 있으며, 특히 언어 장애가 있는 개인에게 접근성을 제공할 수 있습니다.
- 비윤리적인 AI 음성 생성기 사용: AI 음성 생성을 악용하여 누군가의 목소리를 위조하여 사기 행위나 허위 정보 유포를 목적으로 하는 가짜 오디오 녹음을 만드는 것은 비윤리적입니다.
음성 복제
음성 복제는 일반적으로 기계 학습 모델의 훈련 데이터로 사용되는 개인의 음성 녹음을 통해 그 사람의 음성을 합성하여 복제하는 것을 의미합니다.
- 윤리적인 음성 복제 사용: 음성 복제는 개인화된 음성 비서 생성, 개인의 목소리를 미래 세대를 위해 보존하거나, 언어 장애가 있는 개인을 돕는 등의 목적으로 윤리적으로 사용할 수 있습니다.
- 비윤리적인 음성 복제 사용: 허가 없이 누군가를 사칭하기 위해 가짜 오디오 녹음을 만드는 등 사기 행위를 위한 무단 음성 복제는 매우 비윤리적이며, 사생활 침해와 잠재적 악용으로 이어질 수 있습니다.
조 바이든 AI 음성의 악용
AI로 생성된 로보콜을 통해 조 바이든의 목소리를 악용한 사례는 인공지능 기술이 투표 억제와 허위 정보 유포 시도로 무기화될 수 있는 잠재력을 보여주는 명확한 예입니다. 정치 인물의 목소리를 AI로 복제하여 악용하는 것은 신뢰와 선거의 무결성에 심각한 영향을 미칠 수 있습니다. 이는 AI 생성 음성이 거짓된 이야기를 퍼뜨리고, 여론을 조작하며, 민주적 절차를 훼손할 수 있는 미래를 예고합니다.
AI 기술이 발전함에 따라 이러한 사건이 발생할 위험이 증가하고 있으며, 디지털 포렌식 전문가인 하니 파리드는 이러한 도전에 대한 경계를 강조하고 있습니다.
이번 선거 시즌에 AI 경계가 필요합니다
2024년 대통령 선거가 다가오면서, 유권자들은 AI 기술의 악용에 대한 경계를 늦추지 말아야 합니다. AI로 생성된 허위 정보는 정치 캠페인에서 만연할 수 있으며, 유권자들 사이에서 인식의 증대가 필요합니다.
“우리는 생성 AI가 다가오는 선거에서 무기화될 것을 우려해 왔으며, 이는 분명히 다가올 일의 징조입니다,” 라고 조 바이든 로보콜 녹음을 검토한 디지털 포렌식 전문가 하니 파리드가 인터뷰에서 말했습니다.
음성 AI를 윤리적으로 사용하는 방법
이 사건을 계기로, 음성 AI의 윤리적 사용을 고려하는 것이 중요합니다. AI 음성 기술은 음성 더빙을 포함한 다양한 가능성을 제공하지만, 이를 윤리적으로 사용하는 책임이 따릅니다. 이는 AI로 생성된 음성이 사용될 때 명확히 표시하고, 악의적인 의도를 피하며, 사생활과 동의를 존중하는 것을 포함합니다.
AI 법률 및 규제가 다가오고 있습니다
기술이 계속 발전함에 따라, 입법자, AI 개발자, 선거 관리관, 그리고 대중은 이러한 남용으로부터 민주적 과정을 보호하기 위해 안전장치, 규제, 윤리적 기준을 함께 마련해야 합니다. 미국 민주주의의 초석인 선거의 무결성은 AI 사용과 관련된 새로운 도전에 적응하고 대응할 수 있는 우리의 능력에 달려 있습니다. 실제로, 의회는 이미 AI 보호에 대해 논의하고 있습니다. 최근 상원 청문회에서, 리처드 블루멘탈 상원의원은 AI 음성 복제 소프트웨어로 자신의 목소리를 생성하고 OpenAI의 ChatGPT가 작성한 스크립트를 사용하여 딥페이크를 시연했습니다. 연방 선거 위원회도 2024년 정치 캠페인 광고에서 AI 생성 딥페이크를 규제할 가능성을 검토하기 시작했습니다.
Speechify Voice Over Studio: #1 윤리적 AI 음성 플랫폼
Speechify Voice Over Studio는 합성 음성 기술에서 금표준을 설정하는 선도적인 윤리적 AI 음성 플랫폼입니다. 여러 언어와 억양에 걸쳐 200개 이상의 생생한 텍스트 음성 변환 음성을 제공하여 사용자가 역동적이고 매력적인 콘텐츠를 손쉽게 제작할 수 있도록 지원합니다.
사용자 친화적인 플랫폼은 사용하기 쉬운 오디오 편집 AI 도구를 제공하여 각 단어에 대한 세밀한 제어를 가능하게 하며, 사용자가 음조, 발음, 톤 등을 미세 조정할 수 있도록 합니다. Speechify Voice Over Studio는 또한 자신의 목소리에만 음성 복제를 제공하여 명시적인 동의를 보장하고 오용의 위험을 줄임으로써 윤리적 고려 사항을 우선시합니다.
Speechify Voice Over Studio는 소셜 미디어 콘텐츠, 비디오 게임, 오디오북, 팟캐스트 등 다양한 응용 프로그램에 매력적인 음성 오버를 제작하는 데 이상적인 선택입니다. 콘텐츠 제작 경험을 향상시키고 Speechify Voice Over Studio를 무료로 사용해 보세요.
자주 묻는 질문
비윤리적인 AI 음성 복제의 예는 무엇인가요?
비윤리적인 AI 음성 복제의 예로는 엘론 머스크가 이스라엘과의 관계에서 워싱턴의 개입에 대해 거짓 발언을 하는 설득력 있는 오디오 녹음을 조작하는 경우가 있을 수 있습니다. 이는 대중의 인식을 조작하고 불화를 일으킬 수 있습니다. 이러한 기만적인 음성 복제 사용은 대중의 신뢰를 악용하고 특정 의제를 추진하기 위해 영향력 있는 인물에게 오해의 소지가 있는 발언을 귀속시킴으로써 불화를 조장할 수 있습니다.
공화당은 AI를 규제하고 싶어하나요?
폭스 뉴스 여론조사에 따르면, “공화당원들은 민주당원들보다 연방 정부가 인공지능 시스템에 규제를 가해야 한다는 것에 덜 확신하며, 정부가 이를 제대로 수행할 수 있을지에 대해 더욱 회의적입니다.”
테일러 스위프트의 딥페이크가 만들어졌나요?
테일러 스위프트의 동의 없이 사진과 음악을 포함한 여러 비윤리적인 딥페이크가 만들어졌습니다. 보도에 따르면, 그녀는 실제로 딥페이크 제작자들에 대해 법적 조치를 고려하고 있습니다.
뉴햄프셔 유권자들이 바이든 딥페이크 로보콜을 받았나요?
네, 사기꾼이 ElevenLabs의 AI 기술을 사용하여 바이든 딥페이크를 만들어 뉴햄프셔 예비선거에서 바이든의 이름을 기입하지 말라고 유권자들을 설득하려고 했습니다.
클리프 와이츠먼
클리프 와이츠먼은 난독증 옹호자이자 세계 최고의 텍스트 음성 변환 앱인 Speechify의 CEO 및 설립자입니다. 이 앱은 10만 개 이상의 5성급 리뷰를 받았으며, 앱 스토어의 뉴스 & 매거진 카테고리에서 1위를 차지했습니다. 2017년, 와이츠먼은 학습 장애가 있는 사람들이 인터넷을 더 쉽게 접근할 수 있도록 한 공로로 포브스 30세 이하 30인 리스트에 선정되었습니다. 클리프 와이츠먼은 EdSurge, Inc., PC Mag, Entrepreneur, Mashable 등 주요 매체에 소개되었습니다.