هل يخرج الذكاء الاصطناعي عن السيطرة؟
أعاد تحذير الأمين العام للأمم المتحدة أنطونيو جوتيريش في 13 يونيو الجاري، من أن يصبح الذكاء الاصطناعي «وحشاً يخرج عن السيطرة»، إلى الأذهان أفلام خيال علمي تناول كلٌ منها بطريقته مسألةَ هيمنة الآلات على البشر. غير أن ما كان خيالاً صار خطراً محتملاً في رأي بعض الخبراء. لكن هذا الخطر لا يشملُ، حتى الآن على الأقل، احتمال سيطرة تقنيات الذكاء الاصطناعي على البشر.
ولعل المُحذَّرين من هذه السيطرة يقصدون إثارة أقصى قدر من القلق لحفز الدول والشركات والعلماء على إدراك أن التطور السريع لهذه التقنيات في غياب تنظيم قانوني يُمثّل خطراً. وربما هذا ما أراده جوتيريش لوضع المجتمع الدولي أمام مسؤولياته.
وقد سبقه إلى التحذير من خطر انفلات تقنيات الذكاء الاصطناعي أكثر من 1300 خبير وعالم وصانع تكنولوجيا في بيان أُصدر في آخر مارس الماضي بمبادرةٍ من معهد «فيوتشر أوف لايف»، وتضمن دعوةً إلى «هدنة» ستة أشهر لدراسة كيفية وضع إطار قانوني مناسب. غير أنه لا حاجة إلى مثل هذه الهدنة، فقد طُرحت أفكارٌ ومقترحاتٌ عدةٌ لضمان أن يكون الذكاء الاصطناعي رافعةً لتقدم البشرية، وليس خطراً عليها.
ومنها ما يتطلب الأخذ به جهداً ووقتاً مثل إنشاء هيئة أو وكالة عالمية تملك صلاحية منح التراخيص لأنظمة الذكاء الاصطناعي، وسحبها أيضاً في حالة عدم الالتزام بضمانات لعمل البرامج والتقنيات التي تحتوي على خاصية التعلم الآلي. ويستطيع جوتيريش تبني هذه الفكرة والدعوة إلى مؤتمرٍ جامع يضم الحكومات والشركات الأكبر في مجال الذكاء الاصطناعي لمناقشتها، كخطوةٍ أولى باتجاه الاتفاق في وقتٍ ما مستقبلاً على ميثاقٍ دوليٍ تُؤسَّس بموجبه هيئةُ الذكاء الاصطناعي كوكالة تابعة للأمم المتحدة.
وإلى أن تنضج الظروفُ الموضوعية لمثل هذه النقلة النوعية، يمكنُ الاستفادة من أفكارٍ أكثر قابليةً للتطبيق في المدى القصير والمتوسط، مثل العمل لترقية الوعي العام بسبل الاستخدام الآمن لتقنيات الذكاء الاصطناعي، وكيفية التعرف على البرامج الضارة التي تتضمنُ مثلاً ما يمكنُ اعتباره تمييزاً دينياً أو عرقياً أو جنسياً، أو تلاعباً بالسلوك عبر استهداف الأشخاص بأخبارٍ أو معلوماتٍ كاذبةٍ أو مُضللة، أو تحتوي على تشهيرٍ وما إلى ذلك. ومما يُمكنُ المضي قدماً فيه أيضاً إجراءات من نوع التزام كل شركةٍ تُطوّر برنامجاً جديداً بتوضيح أضراره المحتملة، وليس فوائده فقط، وشرح كيف يمكن لمستخدميه تجنب هذه الأضرار.
ومن الضوابط الممكنة في المدى القصير كذلك وضع علامات بيانية واضحة على المواد البصرية والسمعية التي تُنتجُ بواسطة الذكاء الاصطناعي، وتحديد مصادر الصور الموجودة بها، وتوسع المواقع الإلكترونية في طلب إثبات أن من يريد الدخول إليها ليس روبوت.وليست هذه إلا أمثلةً لضوابط لا توجدُ صعوباتٌ كبيرة في الأخذ بها لطمأنة القلِقين إلى أن الذكاء الاصطناعي لن يخرج عن سيطرة البشر، وأن منافعه أكثر بكثيرٍ من أي أضرارٍ تترتبُ على إساءة استخدامه.
*مستشار مركز الأهرام للدراسات السياسية والاستراتيجية