كشف مصدر المزيّف العميق لصوت جو بايدن عقب تدخل انتخابي
في اللحظات الأخيرة قبل الانتخابات التمهيدية في نيوهامبشاير، تكشّف مخطط خبيث استُخدمت فيه تقنية الذكاء الاصطناعي لتقليد صوت الرئيس جو بايدن في مكالمة آلية. هذه المحاولة غير المسبوقة للتأثير على الانتخابات سلّطت الضوء على تقاطع الذكاء الاصطناعي والمزيّفات العميقة والمعلومات المضللة، وأثارت مخاوف بشأن العواقب المحتملة على العمليات الديمقراطية. لنستعرض كل ما تحتاج لمعرفته حول خدعة المزيّف العميق التي تضمّنت مكالمة آلية منسوبة إلى الرئيس الأمريكي جو بايدن، بما في ذلك من كان متورطًا.
ما هي عملية الاحتيال بالمزيّف العميق لصوت جو بايدن؟
في يوم الإثنين 22 يناير 2023، قال مكتب المدعي العام في نيوهامبشاير إنه يحقق في تقارير عن مكالمة آلية يُعتقد أنها استخدمت الذكاء الاصطناعي لتقليد صوت الرئيس جو بايدن ولثني الناخبين في الولاية عن التوجّه إلى صناديق الاقتراع.
كان هدف هذا الاحتيال تثبيط الناخبين عن المشاركة في الانتخابات التمهيدية للولاية، زاعمًا زورًا أن التصويت في التمهيديات سيؤثر بأي شكل من الأشكال على الانتخابات العامة في نوفمبر. الصوت المولَّد بالذكاء الاصطناعي والمُشابه لصوت بايدن حثّ الناخبين على "حفظ" أصواتهم للانتخابات الفدرالية المقبلة، مدّعيًا أن التصويت في التمهيديات سيفيد الجمهوريين ويسهّل إعادة انتخاب دونالد ترامب.
هوية المتصل للمكالمة الآلية المزوّفة بصوت بايدن
بدت هوية المتصل للمكالمة الآلية المزوّفة وكأنها صادرة عن كاثي سوليفان، الرئيسة السابقة للديمقراطيين على مستوى الولاية والتي تساعد في إدارة Granite for America، وهي لجنة عمل سياسي تحثّ الناخبين على كتابة اسم بايدن لإظهار تأييدهم للرئيس. ومع ذلك، لم يكن بايدن يقود حملة في نيوهامبشاير ولن يظهر اسمه على بطاقة الاقتراع نظرًا لكونه في موقع القيادة للانتخابات التمهيدية للرئاسة عن الحزب الديمقراطي.
قالت سوليفان في بيان: "هذا الاتصال يُشير إلى رقم هاتفي المحمول الشخصي دون إذني. إنه تدخل انتخابي صريح، وواضح أنه محاولة لمضايقتي ومضايقة ناخبين آخرين في نيوهامبشاير الذين يخططون لكتابة اسم جو بايدن يوم الثلاثاء."
الصوت المزوّف في مكالمة بايدن
في التسجيل الصوتي المزوّف للمكالمة الذي حصلت عليه قناة NBC، يمكنك سماع صوت يشبه صوت بايدن إلى حد مُخيف يقول عبارته المفضلة "يا له من هراء". وتستمر الرسالة قائلة: "من المهم أن تحتفظ بصوتك لانتخابات نوفمبر" و"التصويت هذا الثلاثاء يمكّن الجمهوريين في سعيهم لإعادة انتخاب دونالد ترامب من جديد. صوتك يُحدث فرقًا في نوفمبر، وليس هذا الثلاثاء."
بعد تداولها، أبلغت كارين جان بيير، المتحدثة باسم البيت الأبيض، الجمهور بأن الرسالة مُولّدة بالذكاء الاصطناعي لنشر معلومات مضللة وليست من حملة بايدن.
في بيان، قالت مديرة حملة بايدن، جولي تشافيز رودريغيز، إن الحملة "تدرس على نحو فعّال اتخاذ مزيد من الإجراءات على الفور."
ماذا تفعل إذا تلقّيت مكالمة آلية تُقلّد صوت جو بايدن؟
بدت الرسالة المسجّلة غير قانونية، وتهدف إلى نشر معلومات مضلِّلة وتعطيل التصويت. وبرغم عدم وضوح عدد الناخبين الذين تلقّوا المكالمة، فقد أبلغ ما لا يقل عن اثني عشر شخصًا عنها. وأوضح المدعي العام جون فورميلا أن أي شخص تلقّى مثل هذه المكالمة "يجب أن يتجاهل محتوى هذه الرسالة تمامًا."
كشف مصدر المزيّف العميق وراء المكالمة الآلية المنسوبة لبايدن
وفقًا لبلومبرغ، وجدت شركة متخصصة في كشف الاحتيال الصوتي Pindrop Security Inc. أن المكالمة الآلية المزوّفة بصوت بايدن لم تُنشأ بواسطة حملة بايدن، بل على يد محتال استخدم ElevenLabs، وهي شركة ناشئة في مجال أصوات الذكاء الاصطناعي تقدّم إمكانات استنساخ الصوت.
في حين أن بيان سلامة ElevenLabs يسمح باستنساخ الأصوات "لأغراض غير تجارية معينة إذا لم تؤثر على خصوصية الشخص أو مصالحه الاقتصادية"، بما في ذلك "الدراسة الخاصة، البحث غير التجاري، التعليم، الكاريكاتير، المحاكاة الهزلية، السخرية، الخطاب الفني والسياسي الذي يساهم في النقاشات العامة، الاقتباس"، وكذلك "النقد والمراجعة"، قامت ElevenLabs بحظر المستخدم الذي أنشأ المكالمة الآلية المزوّفة بصوت بايدن.
قالت ElevenLabs لبلومبرغ: "نحن ملتزمون بمنع سوء استخدام أدوات الصوت بالذكاء الاصطناعي ونأخذ أي حوادث سوء استخدام على محمل الجد للغاية."
المزيّف العميق في مقابل مُولّد الصوت بالذكاء الاصطناعي في مقابل استنساخ الصوت
مع انتشار توليد الأصوات بالذكاء الاصطناعي، من الضروري فهم مصطلحات مثل الديب فيك، مولد صوت بالذكاء الاصطناعي، وتقليد الصوت، والتمييز بين استخداماتها الأخلاقية وغير الأخلاقية.
الديب فيك
يشير مصطلح الديب فيك إلى توظيف تقنيات الذكاء الاصطناعي وتعلّم الآلة لإنشاء أو التلاعب بالمحتوى الصوتي والمرئي، غالبًا عبر استبدال ملامح أو صوت شخص بآخر بصورة واقعية.
- الاستخدام الأخلاقي للديب فيك: يمكن توظيف تكنولوجيا الديب فيك بشكل أخلاقي في الترفيه والتعبير الفني والتعليم، ما دام الهدف ليس خداع الناس أو الإضرار بهم.
- الاستخدام غير الأخلاقي للديب فيك: عندما تُستغل هذه التقنية لإنشاء محتوى مضلل وسرديات زائفة أو لانتحال هوية الأفراد لأغراض خبيثة (مثل نشر المعلومات المضللة أو صناعة أخبار كاذبة)، فإن ذلك يثير مخاوف أخلاقية جسيمة.
مولد الصوت بالذكاء الاصطناعي
تستخدم مولدات الصوت بالذكاء الاصطناعي خوارزميات تعلّم الآلة لتوليد أصوات تشبه أصوات البشر. وغالبًا ما تُدرَّب على مجموعات بيانات ضخمة لمحاكاة أنماط الكلام والنبرات البشرية.
- الاستخدام الأخلاقي لمولدات الصوت بالذكاء الاصطناعي: يمكن استخدامها أخلاقيًا لأغراض متعددة، منها تيسير الوصول للأشخاص ذوي إعاقات النطق، وتعلّم اللغات، والترفيه، وكذلك الدبلجة والتعليق الصوتي.
- الاستخدام غير الأخلاقي لمولدات الصوت بالذكاء الاصطناعي: من غير الأخلاقي إساءة استخدام توليد الصوت لإنشاء تسجيلات مزيفة بنوايا خبيثة، مثل تزوير صوت شخص لانتحال هويته في عمليات احتيال أو لنشر معلومات مضللة.
تقليد الصوت
يتضمن تقليد الصوت إنشاء نسخة صناعية من صوت شخص، غالبًا بالاعتماد على تسجيلاته لتدريب نموذج تعلّم آلي.
- الاستخدام الأخلاقي لتقليد الصوت: يمكن استخدامه بشكل أخلاقي لأغراض مثل إنشاء مساعدين صوتيين مخصّصين، والحفاظ على أصوات الأفراد للأجيال القادمة بموافقتهم، أو مساعدة الأشخاص ذوي اضطرابات النطق.
- الاستخدام غير الأخلاقي لتقليد الصوت: يُعد تقليد الصوت دون إذن ولأغراض خادعة، مثل إنشاء تسجيلات صوتية مزيفة لانتحال شخص ما دون موافقته، سلوكًا غير أخلاقي للغاية وقد يفضي إلى انتهاك الخصوصية وسوء الاستغلال.
إساءة استخدام صوت جو بايدن بالذكاء الاصطناعي
تُعد إساءة استخدام صوت جو بايدن عبر مكالمات آلية مولّدة بالذكاء الاصطناعي مثالًا صارخًا على إمكانية تسليح هذه التقنيات في محاولات لقمع التصويت ونشر المعلومات المضللة. وعواقب استغلال الذكاء الاصطناعي لتقليد أصوات الشخصيات السياسية بعيدة المدى بالفعل. تُنذر هذه الحادثة بمستقبل قد تُستخدم فيه الأصوات المولّدة بالذكاء الاصطناعي لنشر سرديات زائفة، والتلاعب بالرأي العام، وتقويض العملية الديمقراطية. التأثير المحتمل على الثقة في الخطاب السياسي ونزاهة الانتخابات يثير قلقًا بالغًا.
ومع تقدّم تكنولوجيا الذكاء الاصطناعي، يزداد خطر تكرار مثل هذه الوقائع، فيما يؤكد خبراء الطب الشرعي الرقمي مثل هاني فريد ضرورة اليقظة والتعامل الحذر مع هذه التحديات.
على الناخبين التزام اليقظة حيال الذكاء الاصطناعي في موسم الانتخابات هذا
مع اقتراب انتخابات الرئاسة لعام 2024، ينبغي على الناخبين البقاء متيقظين حيال إساءة استخدام تقنيات الذكاء الاصطناعي في محاولات التأثير على الرأي العام. فقد تصبح المعلومات المضللة المولّدة بالذكاء الاصطناعي ظاهرة واسعة في الحملات السياسية، ما يستلزم رفع وعي الناخبين.
قال هاني فريد، خبير الطب الشرعي الرقمي الذي راجع تسجيل مكالمة بايدن الآلية، في مقابلة: “كنّا قلقين من أن تُستخدم تقنيات الذكاء التوليدي كسلاح في الانتخابات المقبلة، ونرى ما هو بلا شك علامة على ما هو قادم.”
كيفية استخدام صوت الذكاء الاصطناعي بأخلاقيّة
في أعقاب هذه الحادثة، من الضروري التفكير مليًا في التطبيقات الأخلاقية لصوت الذكاء الاصطناعي. وبينما توفر تكنولوجيا الصوت بالذكاء الاصطناعي فرصًا عديدة، بما في ذلك التعليق الصوتي، تقع علينا مسؤولية استخدامها على نحو أخلاقي. ويشمل ذلك الإفصاح الصريح عند استخدام أصوات مُولَّدة بالذكاء الاصطناعي، وتجنّب النوايا الخبيثة، واحترام الخصوصية والحصول على الموافقة.
القوانين واللوائح الخاصة بالذكاء الاصطناعي قادمة
مع استمرار تقدم التكنولوجيا، على المشرّعين ومطوري الذكاء الاصطناعي ومسؤولي الانتخابات والجمهور العمل معًا لوضع ضوابط وتنظيمات ومعايير أخلاقية تحمي العملية الديمقراطية من مثل هذه الانتهاكات. تعتمد نزاهة الانتخابات، وهي حجر الزاوية للديمقراطية الأمريكية، على قدرتنا على التكيف والاستجابة للتحديات الناشئة المرتبطة باستخدام الذكاء الاصطناعي. بالفعل، يناقش الكونغرس الآن حماية تتعلق بالذكاء الاصطناعي. في جلسة استماع حديثة في مجلس الشيوخ، قدّم السيناتور ريتشارد بلومنتال تقليدًا صوتيًا مزيفًا بتشغيل تسجيل لصوته مولَّدًا عبر برنامج استنساخ صوتي بالذكاء الاصطناعي وبنص أعدّه ChatGPT من OpenAI. كما بدأت لجنة الانتخابات الفيدرالية عملية قد تؤدي إلى تنظيم إعلانات الحملات السياسية التي تُستخدم فيها تقنيات التزييف العميق في انتخابات 2024.
استوديو التعليق الصوتي من Speechify: المنصة الأخلاقية الرائدة للذكاء الاصطناعي الصوتي
استوديو التعليق الصوتي من Speechify هي المنصة الرائدة والأكثر التزامًا أخلاقيًا في الذكاء الاصطناعي الصوتي، وتضع المعيار الذهبي لتقنية الكلام الاصطناعي. مع أكثر من 200 صوتٍ واقعي لتحويل النص إلى كلام متوفرة عبر لغات ولهجات متعددة، يمكّن استوديو التعليق الصوتي من Speechify المستخدمين من إنشاء محتوى ديناميكي وجذاب بسهولة.
تتميّز منصته سهلة الاستخدام بأدوات تحرير صوتية مدعومة بالذكاء الاصطناعي يسهل التعامل معها، وتوفّر تحكمًا دقيقًا في كل كلمة، مما يمكّن المستخدمين من ضبط النبرة والنطق والإيقاع والمزيد. كما يلتزم استوديو التعليق الصوتي من Speechify بأخلاقيات واضحة، فلا يتيح استنساخ الصوت إلا لصوتك أنت، بما يضمن موافقة صريحة ويحدّ من مخاطر سوء الاستخدام.
يُعد استوديو التعليق الصوتي من Speechify الخيار الأمثل لصياغة تعليقات صوتية جذابة لاستخدامات متنوعة، بما في ذلك محتوى وسائل التواصل الاجتماعي وألعاب الفيديو والكتب الصوتية والبودكاست والمزيد. ارفع تجربة إنشاء المحتوى الخاصة بك و جرّب استوديو التعليق الصوتي من Speechify مجانًا اليوم.
الأسئلة الشائعة
ما مثال على استنساخ صوتي غير أخلاقي بالذكاء الاصطناعي؟
قد يشمل مثال غير أخلاقي لاستنساخ الصوت بالذكاء الاصطناعي ابتكار تسجيل مقنع لإيلون ماسك يدلي فيه بتصريحات كاذبة حول مسائل جيوسياسية حساسة، مثل تورط واشنطن في شؤون إسرائيل، بما قد يوجّه الرأي العام ويثير الانقسام. يمكن لهذا الاستخدام الخادع أن يستغل ثقة الناس ويؤجّج الانقسام عبر نسب تصريحات مضللة لشخصيات مؤثرة لدفع أجندة معينة.
هل يريد الحزب الجمهوري تنظيم الذكاء الاصطناعي؟
وفقًا لاستطلاع فوكس نيوز، “الجمهوريون أقل اقتناعًا من الديمقراطيين بأن الحكومة الفدرالية بحاجة إلى تنظيم أنظمة الذكاء الاصطناعي، وأكثر تشككًا في ما إذا كانت الحكومة قادرة على إنجاز المهمة على نحو صحيح.”
هل صُنِعت تزييفات عميقة لتايلور سويفت؟
تم إنشاء عدة تزييفات عميقة غير أخلاقية لتايلور سويفت، بما في ذلك صور ومقاطع موسيقية، دون موافقتها. وبحسب التقارير، فهي تفكر فعلًا في اتخاذ إجراءات قانونية ضد منشئي هذه التزييفات.
هل تلقى الناخبون في نيوهامبشير مكالمة روبوتية مزيفة بصوت بايدن تطلب منهم عدم التصويت؟
نعم، أنشأ محتال تزييفًا صوتيًا لبايدن باستخدام تقنية الذكاء الاصطناعي من ElevenLabs في محاولة لإقناع الناخبين بعدم كتابة اسم بايدن خلال الانتخابات التمهيدية في نيوهامبشير.

