مقاطع صوتية مزيفة تثير مخاوف من التضليل في الانتخابات الأميركية

05 فبراير 2024
انتشر تسجيل مزيف بصوت الرئيس الأميركي جو بايدن خلال الأسبوع الماضي (Getty)
+ الخط -

يواجه السباق للفوز بالانتخابات الرئاسية في الولايات المتحدة هذا العام خطر التعرّض لسيل من التضليل الذي يقف الذكاء الاصطناعي خلفه، إذ يثير اتصال بصوت روبوت انتحل شخصية الرئيس جو بايدن القلق، خصوصاً حيال تسجيلات صوتية مزيّفة محتملة.

وجاء في الرسالة الصوتية الهاتفية التي قلّدت صوت بايدن "يا له من كلام فارغ"، في ترديد لإحدى عباراته المعروفة.

وحضّ الاتصال بواسطة الروبوت سكان نيوهامبشر على عدم التصويت في الانتخابات التمهيدية للحزب الديمقراطي الشهر الماضي، ممّا دفع سلطات الولاية لفتح تحقيق في قمع الناخبين.

كذلك أثار مطالبات من الناشطين بتشديد القيود على أدوات الذكاء الاصطناعي التوليدي، أو حظر الاتصالات بواسطة الروبوتات تماماً.

ويخشى الباحثون المتخصصون في التضليل من انتشار سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في عام انتخابات حاسمة، بفضل انتشار أدوات استنساخ الأصوات زهيدة الثمن، والتي يسهل استخدامها ويصعب تعقّبها.

وقال الرئيس التنفيذي والمؤسس المشارك لشركة بندروب للأمن الإلكتروني، فيجاي بالاسوبراماتيان، لوكالة فرانس برس: "هذا بالتأكيد رأس جبل الجليد".

وأضاف: "يمكننا أن نتوقع رؤية المزيد من عمليات التزييف العميق على مدى دورة الانتخابات هذه".

وأفاد تحليل مفصّل نشرته "بندروب" بأن نظام تحويل النص إلى كلام الذي طوّرته شركة إيليفن لابز، الناشئة لاستنساخ الأصوات، استُخدم لإتمام الاتصال بواسطة الروبوت بصوت بايدن.

وتأتي الفضيحة في وقت يسخّر ناشطون من الحزبين أدوات الذكاء الاصطناعي من أجل إيصال رسالة فعالة خلال الحملات الانتخابية، بينما يضخّ المستثمرون في مجال التكنولوجيا ملايين الدولارات في شركات استنساخ الأصوات الناشئة.

ورفض بالاسوبراماتيان القول إن كانت "بندروب" قد شاركت استنتاجاتها مع "إيليفن لابز" التي أعلنت الشهر الماضي عن حزم تمويل من المستثمرين قدّرت قيمة الشركة بـ1,1 مليار دولار، بحسب "بلومبيرغ".

ولم ترد "إيليفن لابز" على طلبات "فرانس برس" المتكررة الحصول على تعليق، علماً بأن موقعها يقود المستخدمين إلى خدمة مجانية لتحويل النص إلى كلام من أجل "خلق أصوات ذكاء اصطناعي طبيعية فوراً بأي لغة كانت".

وتقول توجيهات السلامة التابعة للشركة إنّه يسمح للمستخدمين بتوليد نسخ لأصوات شخصيات سياسية، على غرار دونالد ترامب، من دون إذنهم إذا كانت "للتعبير عن الفكاهة أو السخرية" بطريقة "توضح للمستمع بأنه ما يسمعه هو محاكاة ساخرة وليس محتوى أصلياً".

"فوضى"

تفكّر الجهات الناظمة في الولايات المتحدة بجعل الاتصالات بواسطة الروبوتات التي يولدها الذكاء الاصطناعي مخالفة للقانون، وهي مساع أعطاها اتصال بايدن الزائف زخماً جديداً.

وقال رئيس مجموعة بابليك سيتيزن، روبرت وايزمان: "وصلت لحظة التزييف العميق السياسي".

وأضاف: "على صانعي السياسات المسارعة لفرض إجراءات حماية وإلا فسنواجه فوضى انتخابية. تذكّر حالة التزييف العميق في نيوهامبشر بالطرق العديدة التي يمكن للتزييف العميق من خلالها إحداث إرباك".

ويخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصاً تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ممّا يقوّض الثقة في العملية الانتخابية.

لكن المقاطع الصوتية المزيفة المستخدمة لانتحال هويات شخصيات معروفة أو سياسيين حول العالم تعدّ الأكثر إثارة للقلق.

وقال محلل السياسات البارز في مركز الديمقراطية والتكنولوجيا، تيم هاربر، لوكالة فرانس برس: "من بين جميع الوسائل (فيديو أو صور أو مقاطع صوتية) التي يمكن للذكاء الاصطناعي استخدامها لقمع الناخبين، فإن المقاطع الصوتية هي الأكثر خطورة".

وأضاف: "من السهل استنساخ صوت بواسطة الذكاء الاصطناعي ومن الصعب التعرّف إليه".

"سلامة الانتخابات"

تعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهداً سياسياً يعاني أساساً من الاستقطاب الشديد، ممّا يقوّض الثقة في الإعلام ويمكن أيّ شخص من زعم أن الأدلة المبنية على حقائق "هي مفبركة"، وفق ما قال الرئيس التنفيذي لـ"بلاكبرد أيه آي" وسيم خالد لـ"فرانس برس".

وتسود هذه المخاوف في وقت تنتشر أدوات الذكاء الاصطناعي الصوتية بسرعة أكبر من البرامج المخصصة لرصدها.

وكشفت شركة بايتدانس الصينية المالكة لمنصة تيك توك واسعة الانتشار مؤخراً عن "ستريم فويس"، وهي أداة ذكاء اصطناعي تحوّل بالوقت الحقيقي صوت المستخدم إلى أي بديل آخر.

وأفاد بالاسوبراماتيان بأنه "على الرغم من أن المهاجمين استخدموا إيليفن لابز هذه المرة، يرجّح بأن يكون نظام ذكاء اصطناعي توليدي آخر في الهجمات المستقبلية".

وتابع: "من الضروري أن يكون هناك ما يكفي من الضمانات المتاحة في هذه الأدوات".

وأوصى بالاسوبراماتيان وغيره من الباحثين بإدخال دمغات صوتية أو تواقيع رقمية على هذه الأدوات، من أجل الحماية ووضع قواعد تجعلها متاحة للمستخدمين الذين يجري التحقق منهم فحسب.

وأفاد هاربر: "حتى بهذه الإجراءات، فإنه من الصعب والمكلف جداً اكتشاف متى يجري استخدام هذه الأدوات لصناعة محتوى مضر ينتهك شروط الخدمة".

وأضاف: "يتطلب الأمر استثماراً في الثقة والسلامة والتزاماً ببناء (البرامج)، مع اعتبار سلامة الانتخابات خطراً مركزياً".

(فرانس برس)

المساهمون