Nguồn gốc deepfake Joe Biden được hé lộ sau vụ can thiệp bầu cử
Vào giai đoạn nước rút trước cuộc bầu cử sơ bộ tại New Hampshire, một âm mưu nguy hiểm đã được triển khai khi sử dụng công nghệ trí tuệ nhân tạo để giả giọng Tổng thống Joe Biden trong một cuộc gọi tự động. Nỗ lực can thiệp bầu cử chưa từng có này đã phơi bày điểm giao nhau giữa AI, deepfake và thông tin sai lệch, đồng thời làm dấy lên lo ngại về những hậu quả tiềm tàng đối với tiến trình dân chủ. Cùng tìm hiểu tất cả những gì bạn cần biết về trò lừa đảo deepfake liên quan đến cuộc gọi tự động mạo danh Tổng thống Mỹ Joe Biden, bao gồm cả những người đã tham gia đứng sau vụ việc.
Trò lừa đảo deepfake Joe Biden là gì?
Vào thứ Hai, ngày 22 tháng 1 năm 2023, văn phòng tổng chưởng lý bang New Hampshire cho biết họ đang điều tra báo cáo về một cuộc gọi tự động sử dụng trí tuệ nhân tạo để mô phỏng giọng của Tổng thống Joe Biden và khuyến khích cử tri tại bang này không đi bỏ phiếu.
Trò lừa đảo này nhằm làm cho cử tri chùn bước, không tham gia bầu cử sơ bộ của bang, đồng thời đưa ra tuyên bố sai lệch rằng việc bỏ phiếu ở vòng sơ bộ sẽ ảnh hưởng đến cuộc tổng tuyển cử tháng 11. Giọng nói Biden được tạo bằng AI kêu gọi cử tri "giữ lại" lá phiếu cho cuộc bầu cử liên bang sắp tới, cho rằng bỏ phiếu ở vòng sơ bộ sẽ có lợi cho Đảng Cộng hòa và giúp Donald Trump tái đắc cử.
ID người gọi deepfake Joe Biden
ID người gọi của cuộc gọi tự động giả mạo Biden hiển thị như thể nó được gửi từ Kathy Sullivan, cựu chủ tịch Đảng Dân chủ bang, người đang tham gia điều hành Granite for America, một super-PAC đang vận động cử tri ghi tên Biden để thể hiện sự ủng hộ Tổng thống. Tuy nhiên, ông ấy không vận động ở New Hampshire và cũng không có tên trên lá phiếu do đang dẫn đầu trong các cuộc bầu cử sơ bộ của Đảng Dân chủ.
"Cuộc gọi này gắn với số điện thoại cá nhân của tôi mà không có sự cho phép của tôi," Sullivan nói trong một tuyên bố. "Đây là hành động can thiệp bầu cử trắng trợn và cũng là một nỗ lực quấy rối tôi cùng các cử tri khác ở New Hampshire dự định ghi tên Joe Biden vào lá phiếu vào thứ Ba."
Âm thanh lừa đảo deepfake Joe Biden
Trong đoạn âm thanh giả cuộc gọi tự động do NBC thu thập, bạn có thể nghe thấy một giọng nói giống hệt Biden nói câu cửa miệng quen thuộc của ông ấy, “What a bunch of malarkey.” Tin nhắn tiếp tục: “Điều quan trọng là bạn phải giữ lại lá phiếu cho cuộc tổng tuyển cử tháng 11 và việc bạn bỏ phiếu vào thứ Ba này chỉ giúp Đảng Cộng hòa trong nỗ lực giúp Donald Trump tái đắc cử. Lá phiếu của bạn có ý nghĩa vào tháng 11, không phải vào thứ Ba này."
Sau khi đoạn ghi âm được công bố, thư ký báo chí Nhà Trắng Karine Jean-Pierre thông báo với công chúng rằng tin nhắn này do AI tạo ra nhằm lan truyền thông tin sai lệch chứ không phải xuất phát từ chiến dịch tranh cử của Biden.
Trong một tuyên bố, quản lý chiến dịch tranh cử của Biden, Julie Chavez Rodriguez, cho biết chiến dịch đang “tích cực thảo luận các hành động bổ sung cần thực hiện ngay lập tức.”
Bạn nên làm gì nếu nhận được cuộc gọi tự động mạo danh Joe Biden?
Tin nhắn ghi âm dường như là một nỗ lực bất hợp pháp nhằm lan truyền thông tin sai lệch và làm gián đoạn việc bỏ phiếu. Dù chưa rõ có bao nhiêu cử tri nhận được cuộc gọi này, ít nhất một tá người đã báo cáo về nó. Tổng chưởng lý John Formella giải thích rằng bất kỳ ai nhận được cuộc gọi như vậy "nên hoàn toàn phớt lờ nội dung của tin nhắn này."
Nguồn gốc deepfake cuộc gọi tự động Joe Biden được hé lộ
Theo Bloomberg, công ty phát hiện gian lận giọng nói Pindrop Security Inc. đã xác định cuộc gọi tự động deepfake Biden không do chiến dịch của Biden thực hiện mà do một kẻ lừa đảo sử dụng ElevenLabs – startup AI cung cấp khả năng sao chép giọng nói – tạo nên.
Mặc dù tuyên bố an toàn của ElevenLabs cho phép sao chép giọng nói "cho một số mục đích phi thương mại nhất định nếu bạn không xâm phạm quyền riêng tư hoặc lợi ích kinh tế của người đó," bao gồm "nghiên cứu cá nhân, nghiên cứu phi thương mại, giáo dục, biếm họa, châm biếm, nghệ thuật và phát biểu chính trị phục vụ tranh luận công chúng, trích dẫn," cũng như "phê bình, đánh giá," ElevenLabs đã cấm tài khoản đã tạo ra cuộc gọi tự động deepfake Biden.
"Chúng tôi cam kết ngăn chặn việc lạm dụng các công cụ AI âm thanh và rất nghiêm túc trong việc xử lý mọi sự cố liên quan đến lạm dụng," ElevenLabs trả lời Bloomberg.
Deepfake vs. Trình tạo giọng nói AI vs. Sao chép giọng nói
Khi việc tạo giọng nói bằng AI ngày càng trở nên phổ biến, việc hiểu các thuật ngữ deepfake, trình tạo giọng nói AI và sao chép giọng nói, cũng như sự khác biệt giữa việc sử dụng chúng một cách có đạo đức và phi đạo đức là rất quan trọng.
Deepfake
Deepfake đề cập đến việc sử dụng trí tuệ nhân tạo và các kỹ thuật máy học để tạo ra hoặc chỉnh sửa nội dung âm thanh và hình ảnh, thường thay thế khuôn mặt hoặc giọng nói của người này thành người khác một cách giống thật.
- Sử dụng deepfake có đạo đức: Công nghệ deepfake có thể được sử dụng một cách có trách nhiệm trong lĩnh vực giải trí, nghệ thuật và giáo dục, khi mục đích không nhằm lừa dối hoặc gây hại cho người khác.
- Sử dụng deepfake phi đạo đức: Khi công nghệ deepfake bị lợi dụng để tạo ra nội dung gây hiểu lầm, câu chuyện sai sự thật hoặc giả mạo người khác nhằm mục đích xấu (như lan truyền thông tin sai lệch hoặc tạo tin giả), điều này đặt ra những lo ngại nghiêm trọng về mặt đạo đức.
Trình tạo giọng nói AI
Trình tạo giọng nói AI sử dụng các thuật toán máy học để tổng hợp ra giọng nói giống con người, thường được huấn luyện trên các bộ dữ liệu lớn để bắt chước ngữ điệu và âm sắc của con người.
- Sử dụng trình tạo giọng nói AI có đạo đức: Trình tạo giọng nói AI có thể được dùng hợp lý cho nhiều mục đích như hỗ trợ người khiếm khuyết ngôn ngữ, học tập ngoại ngữ, giải trí hoặc lồng tiếng.
- Sử dụng trình tạo giọng nói AI phi đạo đức: Lạm dụng công nghệ tạo giọng nói AI để tạo ra các bản ghi âm giả với ý đồ xấu, chẳng hạn như giả mạo giọng nói của ai đó cho hoạt động lừa đảo hoặc lan truyền thông tin sai lệch, được coi là phi đạo đức.
Sao chép giọng nói
Sao chép giọng nói là việc tạo ra một bản sao tổng hợp giọng nói của một người nào đó, thường sử dụng các bản ghi âm giọng nói làm dữ liệu huấn luyện mô hình máy học.
- Sử dụng sao chép giọng nói có đạo đức: Sao chép giọng nói có thể dùng cho mục đích như tạo trợ lý giọng nói cá nhân, lưu giữ giọng của một người cho thế hệ sau (có sự đồng ý) hoặc hỗ trợ người mắc các rối loạn về phát âm.
- Sử dụng sao chép giọng nói phi đạo đức: Sao chép giọng nói trái phép nhằm phục vụ hoạt động lừa đảo, như tạo ra các ghi âm giả để giả mạo ai đó mà không có sự đồng ý, là cực kỳ phi đạo đức, có thể xâm phạm quyền riêng tư và dẫn đến nhiều hậu quả nghiêm trọng.
Lạm dụng giọng nói AI của Joe Biden
Việc lạm dụng giọng nói của Joe Biden thông qua các cuộc gọi tự động do AI tạo ra là ví dụ điển hình về việc công nghệ trí tuệ nhân tạo có thể bị vũ khí hóa để ngăn cản việc bỏ phiếu và lan truyền thông tin sai lệch. Hậu quả của việc sử dụng AI để giả giọng các chính trị gia là rất lớn. Sự kiện này là hồi chuông cảnh báo về tương lai nơi giọng nói do AI tạo ra có thể được dùng để lan truyền tin giả, thao túng dư luận và làm suy yếu quy trình dân chủ. Tác động tiềm tàng đến niềm tin trong tranh luận chính trị và sự liêm chính của bầu cử là điều vô cùng đáng lo ngại.
Khi công nghệ AI tiến bộ, nguy cơ những sự việc như vậy xảy ra ngày càng tăng, với các chuyên gia pháp y số như Hany Farid nhấn mạnh sự cần thiết phải cảnh giác và chủ động đối mặt với thách thức này.
Cử tri cần cảnh giác với AI trong mùa bầu cử này
Khi cuộc bầu cử tổng thống 2024 đang đến gần, cử tri cần phải cảnh giác trước nguy cơ lạm dụng công nghệ AI nhằm thao túng dư luận. Thông tin sai lệch do AI tạo có thể trở thành vấn nạn phổ biến trong các chiến dịch chính trị, đòi hỏi cử tri phải nâng cao cảnh giác và nhận thức.
"Chúng tôi lo ngại rằng AI sinh ngữ sẽ bị vũ khí hóa trong cuộc bầu cử sắp tới và điều này thực sự là dấu hiệu báo trước những gì sẽ đến," Hany Farid, chuyên gia pháp y số từng phân tích bản ghi âm cuộc gọi tự động Biden, nói trong một cuộc phỏng vấn.
Cách sử dụng giọng nói AI một cách có đạo đức
Sau vụ việc này, việc cân nhắc các ứng dụng đạo đức của AI giọng nói càng trở nên quan trọng. Mặc dù công nghệ AI giọng nói mang lại nhiều khả năng, bao gồm lồng tiếng, nhưng người dùng vẫn cần sử dụng một cách có trách nhiệm. Điều này bao gồm việc công khai khi nào đang sử dụng giọng nói được tạo bởi AI, tránh ý đồ ác ý và tôn trọng quyền riêng tư cùng sự đồng thuận.
Luật AI và quy định AI sắp được ban hành
Khi công nghệ tiếp tục tiến bộ, các nhà lập pháp, nhà phát triển AI, quan chức bầu cử và người dân cần hợp tác xây dựng các biện pháp an toàn, quy định và chuẩn mực đạo đức để bảo vệ quy trình dân chủ khỏi sự lạm dụng. Sự liêm chính của bầu cử, nền tảng của nền dân chủ Mỹ, phụ thuộc vào khả năng thích ứng và ứng phó với những thách thức mới nổi xoay quanh AI. Thực tế, Quốc hội đã bàn về việc bảo vệ trước rủi ro từ AI. Tại một phiên điều trần Thượng viện gần đây, Thượng nghị sĩ Richard Blumenthal thậm chí còn trình diễn deepfake bằng chính giọng nói của mình được tạo từ phần mềm sao chép giọng nói AI và kịch bản do ChatGPT của OpenAI viết. Ủy ban bầu cử liên bang Mỹ (FEC) cũng đã bắt đầu quá trình xem xét khả năng quy định về deepfake AI trong quảng cáo chiến dịch tranh cử 2024.
Speechify Voice Over Studio: Nền tảng AI giọng nói đạo đức số 1
Speechify Voice Over Studio là nền tảng AI giọng nói đạo đức hàng đầu, thiết lập chuẩn vàng trong công nghệ giọng nói tổng hợp. Với hơn 200 giọng đọc chân thực chuyển văn bản thành giọng nói ở nhiều ngôn ngữ và giọng điệu, Speechify Voice Over Studio giúp người dùng tạo nội dung sống động, lôi cuốn một cách dễ dàng.
Nền tảng thân thiện với người dùng này tích hợp các công cụ chỉnh sửa âm thanh AI dễ sử dụng, cho phép kiểm soát chi tiết từng từ, giúp người dùng điều chỉnh tông, phát âm, cao độ và nhiều yếu tố khác. Speechify Voice Over Studio cũng ưu tiên yếu tố đạo đức bằng cách chỉ cung cấp tính năng sao chép giọng nói cho chính người dùng, đảm bảo sự đồng thuận rõ ràng và giảm thiểu rủi ro bị lạm dụng.
Speechify Voice Over Studio là lựa chọn lý tưởng để tạo ra các bản lồng tiếng thu hút cho đa dạng ứng dụng như nội dung mạng xã hội, trò chơi điện tử, sách nói, podcast và nhiều lĩnh vực khác. Nâng tầm trải nghiệm sáng tạo nội dung của bạn và thử Speechify Voice Over Studio miễn phí ngay hôm nay.
Câu hỏi thường gặp
Ví dụ lạm dụng AI sao chép giọng nói phi đạo đức là gì?
Một ví dụ phi đạo đức về sử dụng AI sao chép giọng nói có thể là lợi dụng công nghệ này để tạo ra đoạn ghi âm thuyết phục về Elon Musk phát biểu sai sự thật liên quan đến các vấn đề địa chính trị nhạy cảm, như sự can thiệp của Washington vào các sự kiện ở Israel, từ đó thao túng dư luận và gây chia rẽ. Việc lạm dụng sao chép giọng nói này có thể lợi dụng niềm tin công chúng và gieo rắc mâu thuẫn bằng cách gán những phát ngôn sai sự thật cho người nổi tiếng nhằm phục vụ mục đích riêng.
Đảng Cộng hòa có muốn quản lý AI không?
Theo một cuộc thăm dò của Fox News, "Đảng viên Cộng hòa ít tin tưởng hơn so với Đảng viên Dân chủ rằng chính phủ liên bang cần áp đặt quy định đối với các hệ thống trí tuệ nhân tạo và thậm chí còn hoài nghi hơn về việc liệu chính phủ có đủ năng lực thực hiện nhiệm vụ này hay không."
Taylor Swift có bị làm deepfake không?
Đã có nhiều sản phẩm deepfake phi đạo đức về Taylor Swift, bao gồm hình ảnh và âm nhạc, mà không có sự đồng ý của cô ấy. Theo một số báo cáo, cô ấy thậm chí đang cân nhắc hành động pháp lý đối với những người tạo deepfake này.
Cử tri New Hampshire có nhận được cuộc gọi tự động deepfake khuyên không đi bầu không?
Có, một kẻ lừa đảo đã tạo deepfake Biden bằng công nghệ AI của ElevenLabs nhằm thuyết phục cử tri không ghi tên Biden vào vòng sơ bộ tại New Hampshire.

