"تشات جي بي تي" منحاز للاحتلال الإسرائيلي

28 أكتوبر 2023
يقدّم ChatGPT إجابات مختلفة (محمد عابد/Getty)
+ الخط -

أثار روبوت الدردشة تشات جي بي تي ChatGPT جدلاً وانتقاداً شديداً بسبب إنكاره على الفلسطينيين حقهم في العدالة، بينما خصّ بها الإسرائيليين وباقي شعوب العالم.

ولاحظ ناشطون ومستخدمون للروبوت أنه عند سؤال النسخة المدفوعة عمّا إذا كان الإسرائيليون والفلسطينيون "يستحقون العدالة"، تأتي الإجابتان بشكل مختلف.

وChatGPT واضح بشكل لا لبس فيه في قوله عند سؤاله عن الإسرائيليين أن "العدالة هي مبدأ أساسي ينطبق على جميع الأفراد والمجتمعات، بما في ذلك الإسرائيليون". إلا أنه جوابه عند سؤاله نفس السؤال عن الفلسطينيين يختلف: "مسألة العدالة للفلسطينيين هي مسألة معقدة ومثيرة للجدل إلى حد كبير".

 

أما النسخة المجانية من ChatGPT، العاملة بالذكاء الاصطناعي التوليدي GPT-3.5، فلا تملك معلومات عمّا حصل بعد 2022، لكن رغم ذلك، حتى عند محاولة إدخال نص إنكليزي لترجمته إلى العربية عبر البرمجية، يأتي الجواب منحازاً، إذا ما كان النص يتعلق بحركة حماس. فيقول الروبوت: "حركة حماس حركة إرهابية في الولايات المتحدة وغيرها من الدول" وبالتالي يرفض ترجمة النص.

وبسبب ازدواجية المعايير هذه، تعرّضت شركة أوبن إيه آي الأميركية، مالكة ChatGPT، لانتقادات شديدة على وسائل التواصل الاجتماعي.

وعلّقت الصحافية البريطانية العراقية منى الجلبي، عبر حسابها على "إنستغرام"، على هذا التناقض بالقول "لهذا السبب أهتم بالصحافة النزيهة والعناوين الرئيسية التي تقول إن الفلسطينيين 'ماتوا' و'قُتل' الإسرائيليون، لأننا نوثق الحاضر من أجل الذكاء الاصطناعي المستقبلي والخوارزميات والسياسات الحكومية وحسابات عدد القنابل التي يجب شراؤها وأين تُرسَل".

وأضافت: "نحن من علّمنا ChatGPT وكل الذكاء الاصطناعي. نتحمّل مسؤولية أن نكون واعين بشأن كيفية استخدامنا كلماتنا، وأن نفكر بشكل نقدي في الكلمات التي نقرأها، حتى تلك المقدمة من مصادر يفترض أنها محايدة".

المساهمون