مشروع قانون عن الذكاء الاصطناعي في كاليفورنيا يلقى معارضة

24 اغسطس 2024
النائب الديمقراطي المسؤول عن مشروع القانون سكوت وينر (ليز هافاليا/ Getty)
+ الخط -

استمع إلى الملخص

اظهر الملخص
- **تنظيم الذكاء الاصطناعي**: يهدف مشروع "إس بي 1047" في كاليفورنيا إلى تنظيم نماذج الذكاء الاصطناعي التوليدي لمنع الكوارث وحوادث الأمن السيبراني، مع منح السلطات صلاحيات مساءلة الشركات وإنشاء مجلس لتحديد معايير للنماذج المتقدمة.

- **مواقف متباينة**: يعارض بعض الممثلين والشركات الكبرى مثل "أوبن إيه آي" و"غوغل" المشروع خوفًا من عرقلة الابتكار، بينما يدعمه خبراء مثل جيفري هينتون كنهج منطقي للسيطرة على المخاطر.

- **التحديات والفرص**: يتيح الذكاء الاصطناعي إنتاج محتوى عالي الجودة، لكن القواعد الصارمة قد تعيق الأبحاث. يهدف المشروع لتحقيق توازن بين تشجيع الابتكار ومنع المخاطر المحتملة.

يشق مشروع قانون لتنظيم نماذج الذكاء الاصطناعي التوليدي الطريق نحو إقراره في كاليفورنيا، رغم معارضة يواجهها من شركات وممثلين منتخبين، إذ تخشى هذه الجهات أن يؤدي مثل هذا النص التشريعي إلى خنق التكنولوجيا الناشئة.

وأوّل شركة اعترضت على مشروع "إس بي 1047" هي "أوبن إيه آي" مُبتكرة برنامج "تشات جي بي تي" الشهير، إذ اعتبرت أنّه قد يُبعد المبتكرين في حين أنّ "ثورة الذكاء الاصطناعي لا تزال في بدايتها". وفي رسالة تلقاها هذا الأسبوع النائب الديمقراطي المسؤول عن مشروع القانون سكوت وينر، اقترحت "أوبن إيه آي" أنّ قانوناً وطنياً أفضل من خليط تشريعات فوضوي.

ويُتوقَّع أن يصوت مجلس النواب في كاليفورنيا على مشروع القانون قبل نهاية الشهر، وفي حال أُقرّ سيتعيّن على الحاكم غافين نيوسوم التوقيع عليه. ولم يتخذ نيوسوم بعد موقفاً علنياً، لكنّ المعسكر الديمقراطي ليس موحّداً بشأن هذا المشروع.

وقالت نانسي بيلوسي، إحدى أكثر الأصوات تأثيراً في الحزب، في بيان: "يعتقد الكثير منّا في الكونغرس أنّ النيّة الكامنة وراء مشروع قانون إس بي 1047، جيّدة لكنّ المعرفة المرتبطة به غير كافية". وأضافت: "نريد أن تكون كاليفورنيا في طليعة الذكاء الاصطناعي بطريقة تحمي المستهلكين والبيانات والملكية الفكرية وأكثر من ذلك. (...) ومشروع القانون هذا يضرّ بهذه النتيجة أكثر مما يساهم فيها".

مخاطر قانون الابتكار الآمن في نماذج الذكاء الاصطناعي

يهدف المشروع الذي يطلق عليه "قانون الابتكار الآمن في نماذج الذكاء الاصطناعي الرائدة" إلى منع النماذج الكبيرة من تسبُّب كوارثَ كبرى تؤدي إلى وفاة أعداد كبيرة من الأشخاص أو حوادث مرتبطة بالأمن السيبراني. وقد خفّف سكوت وينر من النص الأصلي، لا سيما بعد نصيحة شركة منافسة لـ"أوبن إيه آي" هي "انثروبيك" التي تتخذ من سان فرانسيسكو أيضاً مقراً لها.

وتمنح النسخة الحالية من مشروع القانون سلطات كاليفورنيا سلطة تتعلق بمساءلة شركات الذكاء الاصطناعي أو مقاضاتها، بدرجة أقل ممّا كانت تنص عليه النسخة الأساسية. وسيتعين على مبتكري نماذج الذكاء الاصطناعي الكبيرة اختبار أنظمتهم وإجراء عمليات محاكاة لهجمات سيبرانية، تحت طائلة دفع غرامات، ولكن من دون التهديد بعواقب جزائية. وأُلغي بند إنشاء هيئة تنظيمية جديدة، لكنّ القانون يقضي بإنشاء مجلس مسؤول عن تحديد معايير للنماذج الأكثر تقدّماً.

وقال وينر في بيان: "ما دام الكونغرس عالقاً في مسألة تنظيم الذكاء الاصطناعي، على كاليفورنيا أن تتحرّك لمنع أي مخاطر متوقعة يمثلها التقدم السريع للذكاء الاصطناعي مع تشجيع الابتكار في الوقت نفسه".

يتيح الذكاء الاصطناعي التوليدي حالياً إنتاج محتوى عالي الجودة (نصوص وصور...) بناء على طلب بسيط باللغة اليومية. لكن بحسب المهندسين المعنيين، لهذه التكنولوجيا قدرة على الذهاب إلى أبعد من ذلك بكثير، وهي تحلّ من ثم مشكلات مهمّة، ولكنّها تسبّب في المقابل أخرى.

"غير واقعي"

أشارت "أنثروبيك" الأربعاء، في رسالة موجهة إلى غافين نيوسوم، إلى أنّ مشروع القانون "حُسّن كثيراً، لدرجة أننا نعتقد أنّ فوائده قد تفوق تكاليفه".

وقال المتخصص في الكمبيوتر جيفري هينتون الذي يعتبر "الأب الروحي للذكاء الاصطناعي"، ضمن مقالة في مجلة فورتشن، "إن أنظمة الذكاء الاصطناعي القوية واعدة بشكل لا يصدق، لكنها تمثل أيضاً مخاطر كبيرة جداً ينبغي أخذها على محمل الجد". وأضاف: "يمثل مشروع قانون إس بي 1047 نهجاً منطقياً جداً للسيطرة على هذه المخاوف"، معتبراً أن كاليفورنيا هي المكان المثالي للبدء بتنظيم هذه التكنولوجيا.

لكنّ منظمات تمثل "غوغل" و"ميتا"، وباحثين بارزين مثل فاي فاي لي من جامعة ستانفورد، وأساتذة وطلاباً في جامعة كال تيك، يبدون معارضتهم لمشروع القانون. وقالت الأستاذة في "كال تيك" أنيما أناندكومار، عبر منصة إكس، إنّ مشروع القانون "يفرض قواعد صارمة وغير واقعية على تطوير الذكاء الاصطناعي"، ويشكل تالياً "تهديداً كبيراً لقدرتنا على تطوير الأبحاث". ورأت أنه من الصعب، إن لم يكن من المستحيل، التنبؤ بمختلف الاستخدامات التي قد تكون ضارة لنموذج ذكاء اصطناعي، وتحديداً لما يسمى برامج "مفتوحة المصدر"، والتي يمكن للمستخدمين تعديل كودها.

(فرانس برس)

المساهمون
The website encountered an unexpected error. Please try again later.