استمع إلى الملخص
- تعهدت "أوبن إيه آي" وشركة "أنثروبيك" بتقييم قدرات النماذج وإدارة المخاطر المرتبطة بالسلامة، مما يعزز نهجاً مسؤولاً لتطوير الذكاء الاصطناعي.
- تواجه شركات الذكاء الاصطناعي انتقادات حول ممارساتها الأمنية، مما يزيد من أهمية التعاون مع الجهات المختصة لضمان سلامة التكنولوجيا وتأثيرها الإيجابي.
أبرمت "أوبن إيه آي"، مبتكرة برنامج ChatGPT للذكاء الاصطناعي التوليدي، اتفاقاً مع الحكومة الأميركية تُتيح لها بموجبه الوصول إلى نماذجها اللغوية الجديدة قبل إطلاقها، بهدف رصد أي مخاطر محتملة. وتُشكّل نماذج اللغة برامج توفّر إمكان إنشاء نصّ أو صورة أو مقطع صوتي بناء على طلب بسيط بلغة يومية، على غرار ما يوفّره "تشات جي بي تي".
وعقدت هيئة إيه آي سايفتي إنستيتيوت (معهد سلامة الذكاء الاصطناعي)، التي أنشأتها حكومة الرئيس الأميركي جو بايدن عام 2023، الاتفاقَ نفسه مع أحد المنافسين الرئيسيين لـ"أوبن إيه آي" وهي شركة أنثروبيك، بحسب ما ذكر بيان نُشر الخميس. وأشارت الهيئة إلى أنّ الشركتين الناشئتين تعهّدتا بالتعاون معها من أجل "تقييم قدرات (النماذج) والمخاطر المرتبطة بالسلامة"، وكذلك العمل على "طرق إدارة هذه المخاطر".
وقالت مديرة المعهد إليزابيث كيلي في البيان إنّ "هذه الاتفاقات ليست سوى البداية، وتمثل خطوة مهمة في المساعدة على توجيه مستقبل الذكاء الاصطناعي نحو نهج مسؤول".
ويُساهم تطوّر نماذج اللغات الكبيرة باستمرار في زيادة قدراتها، وكذلك المخاطر المرتبطة بها، لا سيّما في حالة استخدامها بشكل ضارّ. وقال المشارك في تأسيس "أنثروبيك"، جاك كلارك، في حديث مع وكالة فرانس برس، إنّ "الذكاء الاصطناعي الآمن والموثوق مهم جداً لهذه التكنولوجيا لكي يكون لها تأثير إيجابي". وأضاف: "سيعتمد تعاوننا مع الهيئة على خبرتها لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع".
ويأتي الإعلان في الوقت الذي تُواجه فيه شركات الذكاء الاصطناعي انتقادات واسعة طاولت ممارساتها الأمنية. صدر بعض هذه الانتقادات عن موظفين حاليين وسابقين فيها، اتهموها بإعطاء الأولوية للتربّح المالي على حساب سلامة منتجاتها. وتخضع الشركة لتدقيق متزايد بعد رحيل العديد من الموظفين البارزين فيها وإطلاق رسالة مفتوحة في يونيو/ حزيران الماضي تدعو إلى إجراء تغييرات شاملة في ممارساتها.
(فرانس برس)