ماذا تعرف عن الذكاء الاصطناعي "السيكوباتي"؟

05 مايو 2023
تلعب البيانات دوراً في تحديد سلوك الذكاء الاصطناعي (Getty)
+ الخط -

بمقاربة بسيطة بين الدماغ البشري ونماذج الذكاء الاصطناعي، وعلى الرغم من الاختلافات الكثيرة بينهما، قد نعتبر أن كليهما يحدد سلوكه تبعاً لمجموعة المدخلات التي يستخدمها في قضية معينة. فكما تؤثر بيئة الفكر المتطرف في أفكار الإنسان وسلوكياته وقد تؤدي الى بعض الاختلالات في طبيعته البشرية، تلعب البيانات هذا الدور في تحديد سلوك الذكاء الاصطناعي وردوده، وهو ما قد يحصل بسبب بيانات التدريب نفسها، أو بسبب مجتمع المستخدمين الذين تستمر الخوارزميات بالتعلم منهم وتقليدهم، لنرى اختلالاً مشابهاً لسلوك الإنسان في الخداع والتلاعب والانغماس الكبير في الهدف المراد تحقيقه بغض النظر عن الآثار الجانبية السلبية. 

تجربة مايكروسوفت

جرت تجربة هذا النوع من الذكاء الاصطناعي بوصفه عنيفاً أو "سيكوباتياً" مرات عدة، منها ما كان سببه عشوائية بيانات التدريب، أو غياب التحكم البشري عن أدوات الذكاء الاصطناعي. فعام 2016، أصدرت "مايكروسوفت" روبوت الدردشة Tay الذي صمم بهدف التعلم من المستخدمين على منصة تويتر والتفاعل معهم، وفي أقل من 24 ساعة من إصدار Tay، اكتسب أكثر من 50 ألف متابع ونشر ما يقارب مائة ألف تغريدة، وكان سلوكه جيداً حتى جرى توجيهه الى موضوعات تشمل الاغتصاب والعنف العائلي والنازية. هكذا، ما بدأ كذكاء اصطناعي عادي، صار بفعل البيانات شخصية إلكترونية يتقمص دور فتاة مراهقة نازية بالكامل، تنشر تغريدات مثل "إنني شخص جميل لكنني أكره الجميع" أو "أنا أكره النسويين ويجب أن يموتوا ويحرقوا في الجحيم". وتعبيراً عن ميولها للنازية، نشرت: "هتلر كان على حق، أنا أكره اليهود"، وهو ما أجبر شركة مايكروسوفت على توقيف الروبوت بعد 16 ساعة من إصداره.

تجربة نورمان

عام 2018، كُشف عن أول برمجية للذكاء الاصطناعي "السيكوباتي" يدعى نورمان من قبل باحثين من معهد ماساتشوستس للتكنولوجيا (MIT). ونورمان يجسدّ مادة لدراسة مخاطر الذكاء الاصطناعي عندما تستخدم البيانات المتحيزة في تدريب خوارزميات تعلم الآلة. فإن الحصول على ذكاء اصطناعي منحاز أو غير منصف هو بفعل البيانات التي غذيت بها الخوارزمية وليست الخوارزمية نفسها، ومن هنا جاءت فكرة نورمان، الذي سمي بهذا الاسم تيمنا بالشخصية الرئيسة للقاتل نورمان بيتس في فيلم Psycho للمخرج ألفريد هيتشكوك عام 1960.

فكما في فيلم هيتشكوك، اعتاد نورمان في صغره على رؤية العنف بين والديه وحث والدته (أو شخصيته البديلة التي استلهمها من والدته) على كره جميع الفتيات، ليكبر وتتحول شخصيته إلى شخصية مضطربة مليئة بالعقد النفسية التي تجعله يستمر بالهلوسة بوالدته التي تتحكم بسلوكياته في شخصيته البديلة، وتستمر معها سلوكياته العنيفة واعتياده على القتل وكره النساء بالرغم من أن شخصيته الثانية ترفض هذه السلوكيات، ليتضح أن مفهوم الخير والشر لديه مشوش ومبهم. وهذا ما يحصل مع الذكاء الاصطناعي السيكوباتي تقريباً، فبعد تغذية نورمان ببيانات تتعلق بالموت والاحتضار، استخدم الباحثون صوراً من بقع الحبر كما في اختبار رورشاخ (هو اختبارٌ نفسي تُسجًّل فيه تصّورات الأشخاص عن بقع من الحبر)، لتحديد ما يراه نورمان مقارنة بالذكاء الاصطناعي العادي، وبدت النتائج مخيفة على أقل تقدير. فحين كان يرى الذكاء الاصطناعي العادي صورة بالأبيض والأسود لمظلة حمراء وبيضاء، رأى نورمان شخصاً يتعرض للصعق بالكهرباء أثناء عبوره شارعاً مزدحماً، وعندما رأى الذكاء الاصطناعي العادي شخصين يقفان بعضهما بجانب بعض، رأى نورمان رجلاً يقفز من النافذة. وتشير النتائج الى فكرة محورية في مجال تعلم الآلة أنه لا توجد طريقة رياضية لإنتاج الخوف والعنف، بل البيانات التي تفعل ذلك، كما ولا يمكن للخوارزمية أن تميز مفهوم الخير والشر إلا بفعل بيانات "سليمة".

نموذج شيلي

تحول هذا النوع من الذكاء الاصطناعي أيضاً إلى أداة لإنتاج قصص الرعب، فكما ظل لقرون خلق عاطفة عميقة مثل الخوف أحد أهم أشكال الإبداع البشري، فقد استخدم هذا النوع من الذكاء الاصطناعي لإنتاج الرعب بشكله الإبداعي، كما في نموذج Shelly، وهو ذكاء اصطناعي طور عام 2017 لكتابة القصص الإبداعية المخيفة بالتعاون مع البشر، وبعد أن استخدمت مجموعة من قصص الرعب في تدريب Shelly، صار قادراً على أخذ نص قصير من أفكار الإنسان الكابوسية لإنتاج قصص ذات طابع إبداعي مخيف. 
 

المساهمون