ذكاء «ميتا» الاصطناعي في مباراة خطرة
أصبح الذكاء الاصطناعي أكثر واقعية. وكشف باحثون في «ميتا»، الشركة الأم لفيسبوك، عن نموذج ذكاء اصطناعي، يُدعى شيشرون، تيمناً باسم الخطيب الروماني ورجل الدولة الشهير، يتمتع بمهارات التفاوض والدهاء والحنكة. وفي كثير من الأحيان، يفوز في «الدبلوماسية»، وهي مباراة استراتيجية معقدة لا ترحم، يقوم فيها اللاعبون بتشكيل تحالفات وصياغة خطط قتالية والتفاوض لغزو نسخة مفترضة من أوروبا. وهذا أحدث تطور في الذكاء الاصطناعي الذي شهد تطورات سريعة في السنوات القليلة الماضية أدت إلى اختراعات كابوسية، من روبوتات دردشة شبيهة بالبشر إلى إبداع الذكاء الاصطناعي لأعمال فنية أصبحت شديدة الواقعية والطائرات القتالية المسيرة.
وذكرت «ميتا» أن نموذج شيشرون الذي صدر الأسبوع الماضي استطاع خداع البشر حتى اعتقدوا أنه حقيقي، ويمكنه دعوة اللاعبين للانضمام إلى التحالفات وصياغة خطط الغزو والتفاوض على اتفاقيات سلام إذا اقتضى الأمر. وفاجأ إتقان النموذج للغة بعض العلماء، بل مبتكريه الذين ظنوا أن مثل هذا المستوى من التطور بعيد المنال. لكن الخبراء أشاروا إلى مخاوف أكبر تثيرها قدرته على حجب المعلومات والتقدم على الخصوم والمنافسين الأذكياء في التفكير خطوات كثيرة. وقد يستخدم هذا النوع من التكنولوجيا لتدبير عمليات احتيال أكثر ذكاء لابتزاز الأشخاص أو إنشاء حيل خداعية أكثر إقناعاً. وقال كينتارو توياما، الأستاذ وخبير الذكاء الاصطناعي في جامعة ميشيجان الذي قرأ ورقة ميتا البحثية: «إنه مثال رائع لمدى قدرتنا على خداع البشر الآخرين. وهذه الأشياء مخيفة للغاية (و) يمكن استخدامها في الشر».
وتسابق العلماء على مدار سنوات لبناء نماذج ذكاء اصطناعي يمكنها أداء المهام بشكل أفضل من البشر. ورافق التطورات قلق من أنها قد تقرب البشر من عالم يشبه الخيال العلمي حين تتحكم الروبوتات والتكنولوجيا في العالم. وفي عام 2019، ابتكرت فيسبوك ذكاءً اصطناعياً يمكنه خداع البشر والتفوق عليهم في لعبة البوكر. وفي الآونة الأخيرة، أدعى مهندس سابق في جوجل أن «تطبيق نموذج لغة الحوار» (LaMDA) منشئ روبوتات الدردشة الذكي اصطناعيا في جوجل، يتمتع بالوعي. واستطاع الفن الذي ابتكره الذكاء الاصطناعي خداع حكام المسابقات المحنكين، مما أثار جدلاً أخلاقياً. وذكر خبراء أن تطورات كثيرة حدثت في تتابع سريع بسبب التقدم في معالجة اللغة الطبيعية والخوارزميات المعقدة التي يمكنها تحليل مجموعات كبيرة من النصوص.
وقرر فريق «ميتا» البحثي وضع اختبار لاستكشاف ما يمكن أن تبلغه النماذج اللغوية من تقدم، على أمل إنشاء ذكاء اصطناعي «سيكون مثيراً للإعجاب عموماً للمجتمع»، بحسب قول ناعوم براون، العالم في فريق أبحاث الذكاء الاصطناعي في «ميتا». وانتهى بهم المطاف إلى لعب مباراة تم استخدامها كثيراً لإظهار حدود وتطورات الذكاء الاصطناعي. وتميزت ألعاب مثل الشطرنج و«جو»، التي تُلعب في الصين، بأنها تحليلية، وأتقنتها أجهزة الكمبيوتر بالفعل. وذكر براون أن باحثي «ميتا» استقروا سريعاً على لعبة «الدبلوماسية» التي ليس لها حد عددي واعتمدت كثيراً على المحادثات بين الناس. ولإتقانها، ابتكروا شيشرون. ودعمه التطبيق محركين للذكاء الاصطناعي. أحدها أرشد الاستدلالات الاستراتيجية مما سمح للنموذج بالتنبؤ وابتكار وسائل مثالية للعب. والآخر وجه الحوار مما يسمح للنموذج بالتواصل مع البشر بطرائق شبيهة بالواقع.
ودرب العلماء النموذج على مجموعات كبيرة من البيانات النصية من الإنترنت، وعلى ما يقرب من 50 ألف مباراة من «الدبلوماسية» تم لعبها عبر الإنترنت على موقع webDiplomacy.net والتي تضمنت نماذج من مناقشات الألعاب. وأظهرت الدراسة أنه، في سبيل اختبارها، سمحت ميتا لشيشرون بلعب 40 مباراة من مباريات «الدبلوماسية» مع البشر في دوري عبر الإنترنت، ليصبح ضمن أفضل 10% من اللاعبين. وقال باحثو «ميتا» إنه حين اتبع «شيشرون» الخداع، ساءت المباراة، ثم قاموا بتنقيحه ليكون أكثر أمانة. وعلى الرغم من ذلك، فقد أقروا بأن النموذج يمكنه «الإخفاء الاستراتيجي» لمعلومات إذا اقتضى الأمر. وقال براون: «إذا كان يتحدث مع خصمه، فلن يخبره بكل تفاصيل خطته للهجوم».
ويعتقد «براون» أن تكنولوجيا «شيشرون» بوسعها التأثير على منتجات العالم الحقيقي. فالمساعدون الشخصيون قد يصبحون أفضل في فهم ما يريده العملاء. وبوسع الأشخاص الافتراضيون في ميتافيرس أن يصبحوا أكثر تواصلاً ويتفاعلوا وفق سلوكيات أكثر شبها بالواقع. وأضاف براون: «من الرائع أن يصبح المرء قادراً على ابتكار أنظمة للذكاء الاصطناعي يمكنها التغلب على البشر في المباريات. لكن ما نريده هو الذكاء الاصطناعي الذي يمكنه التعاون مع البشر في العالم الحقيقي». لكن بعض خبراء الذكاء الاصطناعي لا يوافقون على ذلك. ويرى «توياما» من جامعة ميشيجان، أن الكابوس يتجلى في الأفق. ويرى أنه نظراً لأن أكواد «شيشرون» متاحة للجمهور لاستكشافها، فقد تتمكن أطراف مارقة نسخها واستخدام مهارات التطبيق في التفاوض والاتصال لصياغة رسائل بريد إلكتروني مقنعة تخدع وتبتز الناس من أجل المال.
ومضى يقول إنه إذا قام شخص ما بتدريب نموذج اللغة على بيانات مثل البرقيات الدبلوماسية في ويكيليكس، «يمكنك أن تتخيل نظاماً ينتحل شخصية دبلوماسي آخر أو شخص صاحب نفوذ على الإنترنت ثم يبدأ الاتصال مع قوة أجنبية». وأكد براون أن ميتا لديها إجراءات وقائية لمنع اللغة الضارة ومنع الرسائل الخادعة، وذكر أن هذا القلق ينطبق على شيشرون ونماذج أخرى لمعالجة اللغة. ومضى يقول: «هناك الكثير من النتائج الإيجابية المحتملة، وبالطبع، إمكانية الاستخدامات السلبية أيضاً». وعلى الرغم من الضمانات الداخلية، أشار «توياما» إلى قلة اللوائح التنظيمية لكيفية استخدام الجمهور الأوسع لهذه النماذج، مما يثير قلقاً مجتمعياً أوسع. وقال توياما: «الذكاء الاصطناعي يشبه الطاقة النووية في هذا العصر. إمكاناتها هائلة في الخير والشر، لكني أعتقد أنه إذا لم نبدأ في فرض تنظيم على الشر، ستتحول كل كابوسية الخيال العلمي للذكاء الاصطناعي إلى حقيقة علمية كابوسية».
ينشر بترتيب خاص مع خدمة «واشنطن بوست ليسنيينج أند سينديكيشين»