تدعو مجموعة من الباحثين البارزين في مجال الذكاء الاصطناعي الاتحادَ الأوروبي إلى توسيع قواعده المقترحة للتكنولوجيا، بحيث تستهدف صراحةً أدوات مثل «تشات جي بي تي»، ويجادلون في موجز جديد بأن مثل هذه الخطوة يمكن أن «تحدد النغمة التنظيمية» عالمياً.

واقترح قانون الذكاء الاصطناعي في الاتحاد الأوروبي في البداية متطلباتٍ جديدةً تتعلق بالشفافية والأمان لاستخدامات محددة «عالية الخطورة» للبرامج، مثل التعليم أو إنفاذ القانون. لكنه تجنب ما يسمى بالذكاء الاصطناعي «للأغراض العامة»، مثل روبوت الدردشة الشهير الذي أنشأته شركة «أوبن إيه آي»، والذي يمكن أن يخدم العديد من الوظائف.

وفي ديسمبر الماضي، وافق المجلس الأوروبي على نسخة معدلة من مسودة القانون من شأنها أن تطبّق بعضَ القيود نفسها التي تطبق على أدوات الذكاء الاصطناعي «عالية الخطورة» على أدوات «الأغراض العامة»، مما يوسع نطاقه. لكن مشروع القانون لم يتم اعتماده بعد ويواجه عقبات سياسية بشأن التوسع. وبينما تسارع شركات التكنولوجيا لدمج الذكاء الاصطناعي في المزيد من المنتجات اليومية، تدعو مجموعةٌ من كبار علماء وخبراء الذكاء الاصطناعي مسؤولي الاتحاد الأوروبي للتعامل مع أدوات مثل «تشات جي بي تي» على أنها «عالية المخاطر» أيضاً.

ويدعو الموجز الذي أصدرته المجموعة، وقد وقَّعه تيمنيت جيبرو (الخبير الأخلاقي السابق للذكاء الاصطناعي في شركة جوجل)، ومارك سورمان (رئيس مؤسسة موزيلا)، مع عشرات آخرين.. القادةَ الأوروبيين إلى اتباع نهج «موسع» لما يغطونه بموجب قواعدهم المقترحة، محذرين من أن «تقنيات مثل (تشات جي بي تي وDALL-E 2 وBARD)، هي مجرد غيض من فيض».في حين أن روبوتات الدردشة، مثل «تشات جي بي تي» و«بارد» الخاص بشركة «مايكروسوفت»، تحظى باهتمام كبير حالياً، فقد حذرت المجموعة صانعي السياسة من التركيز عليها بشكل محدود للغاية، الأمر الذي «سيتجاهل فئة كبيرة من النماذج التي قد تسبب ضرراً كبيراً إذا تُركت دون رادع».

وفي حين أن أوروبا لم تعتمد بعد قواعدَ الذكاء الاصطناعي الخاصة بها، فإن عمليتها لا تزال أطول مما هي عليه في الولايات المتحدة، حيث بدأ صانعو السياسة الفيدراليون للتو في استكشاف اللوائح الخاصة بالذكاء الاصطناعي. وقال أمبا كاك، مستشار لجنة التجارة الفيدرالية السابق، إن الاتحاد الأوروبي «من المرجح أن يكون أول مَن يسن إطار عمل شاملاً خاصاً بالذكاء الاصطناعي»، وسيصنع بذلك «سابقة عالمية». وذكرت مجموعة الباحثين والخبراء أن من الأمور الحاسمة لأي لوائح جديدة ضمان أن تكون أدوات الذكاء الاصطناعي ذات الاستخدام الشائع «منظمة طوال دورة المنتج»، وليس فقط بمجرد حصول المستخدمين عليها.

وكتبوا: «مرحلة التطوير الأصلية حاسمة، ويجب أن تكون الشركات التي تطور هذه النماذج مسؤولة عن البيانات وخيارات التصميم التي تتخذها». وحثوا المسؤولين الأوروبيين على التخلي عن اللغة المستخدمة في أجزاء من الاقتراح للسماح لمطوري الذكاء الاصطناعي بالمراوغة باستخدام إخلاء المسؤولية القانونية في منتجاتهم، محذرين من ذلك «يخلق ثغرة خطيرة تسمح للمطورين الأصليين بالخروج من المأزق». وقال أليكس هانا، مدير الأبحاث في معهد أبحاث الذكاء الاصطناعي الموزع، إن استثناء أدوات مثل «تشات جي بي تي» و«بارد» سيرسل «إشارة قوية بأن الاتحاد الأوروبي لا يريد التركيزَ على النماذج التي تسبب بالفعل ضرراً كبيراً».

ويدفع بعض القادة الأوروبيين نحو توسيع متطلبات هذه الأدوات، وذكر موقع «بوليتيكو يوروب» Politico Europe أن اثنين من أبرز مشرعي الاتحاد الأوروبي بشأن قانون الذكاء الاصطناعي اقترحا في فبراير الماضي «أن تكون أنظمة الذكاء الاصطناعي التي تولد نصوصاً معقدةً دون إشراف بشري جزءاً من قائمة عالية المخاطر، وهي محاولة لمنع (تشات جي بي تي) من نشر معلومات مضللة على نطاق واسع».

لكن وفقاً للتقرير، فقد «قوبلت الفكرة بالتشكيك من قبل الجماعات السياسية ذات الميول اليمينية في البرلمان الأوروبي»، مما أدى إلى خلق حواجز سياسية للدفع. وقال المفوض الأوروبي للسوق الداخلية تيري بريتون لوكالة «رويترز» في فبراير الماضي، إن اقتراح الكتلة يهدف إلى معالجة المخاوف التي تطرحها برامجُ الدردشة الجديدة ومنتجاتٌ أخرى مماثلة. وأضاف: «كما أظهر (تشات جي بي تي)، يمكن أن توفر حلول الذكاء الاصطناعي فرصاً رائعةً للشركات والأشخاص، لكنها قد تشكل مخاطر. وهذا هو السبب في أننا بحاجة إلى إطار تنظيمي قوي لضمان الذكاء الاصطناعي الموثوق به استناداً إلى بيانات عالية الجودة».

كريستيانو ليما*

*مراسل يغطي أخبار التكنولوجيا لـ«واشنطن بوست»

ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسنسينج آند سيندكيشن»