المخاوف البشرية من الذكاء الاصطناعي
أثناء إفادة سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه أي»، أمام الكونجرس في وقت سابق هذا الأسبوع، أشار السيناتور ريتشارد بلومنتال إلى أن «أكبر كابوس» في الذكاء الاصطناعي هو الثورة الصناعية الجديدة التي تلوح في الأفق واستبدال ملايين العمال. وحين سئل بلومنتال عن أكثر ما يخيفه، اقترح شيئاً أكثر غموضاً ومخيف: إنه «سيتسبب في أكبر ضرر للعالم». ويعتقد بلومنتال منذ فترة طويلة أن الآلات فائقة الذكاء تهدد الوجود البشري.
لكنه أوضح أن الوظائف ستصبح أفضل. ويوافق أعضاء مجلس الشيوخ على ما يبدو مع هذا. فالخوف من نهاية العالم التي يجلبها الذكاء الاصطناعي يحظى الآن باهتمام أكبر بكثير مما ينبغي. ونقلت عدة تقارير إعلامية مؤخراً المخاوف التي عبر عنها جيفري هينتون «أبو الذكاء الاصطناعي». وفي مارس، دعا خطاب مفتوح وقعه إيلون ماسك وآخرون من نجوم التكنولوجيا إلى وقف بحوث الذكاء الاصطناعي بسبب المخاطر على البشرية. وفي ذلك الشهر، نشرت مجلة «تايم» مقالاً لألييزر يودكاوسكي يحذر من أن نتيجة تطوير آلات فائقة الذكاء هي أن «جميع من على الأرض سيموتون حرفياً».
في الواقع، يميل علماء الكمبيوتر إلى الموافقة على أنه هناك فرصة ضئيلة على الأقل لأن يقضي الذكاء الاصطناعي على البشرية. لكن الفكرة ترسخت جزئياً بفضل تركيز وادي السيليكون على أيديولوجية تُعرف باسم المدى الطويل، التي اقترحها في البداية الفيلسوف بجامعة أوكسفورد، ديريك بارتيف، في عام 1984. واكتسبت رواجاً بعد صدور كتاب وليام ماكاسكيل «بماذا ندين للمستقبل» في عام 2022، إنها موقف أخلاقي يعطي أولوية لمستقبل البشرية طويل الأمد على الحاضر وأصبحت عقيدة مليارديرات التكنولوجيا. والفكرة تروق للتكنولوجيين بسبب طريقتها في تحديد المعضلات الأخلاقية. إذا كان هناك 7.8 مليار نسمة يعيشون اليوم، ولكن إذا كان 80 تريليون نفس قد يولدون في المستقبل، يتعين علينا من الناحية الفنية أن نعطي الأولوية لتلك الحيوات في المستقبل.
المنطق نفسه يطبق على الذكاء الاصطناعي. هذا النوع من الحساب الأخلاقي له جاذبية خاصة لذهنية المهندس المنفصل في وادي السيلكون، حيث تحل المشكلات من خلال كود التصحيح وجهود لا تنتهي «لتحسين» الخدمات من خلال الاختبار والتقييم. لسوء الحظ، يمكن أن يصبح العمل بناءً على هذه الأيديولوجية خدمة ذاتية. فالتكنولوجيون الأثرياء يقدمون تبرعات لقضايا تستهدف إنقاذ ذواتنا المستقبلية من الذكاء الاصطناعي، لكن تلك الأموال يمكن أن ينتهي بها الأمر بالتدفق في حلقة مفرغة من التجاوزات. فقد تبرع إيلون ماسك وبيتر ثيل لشركة «أوبن أيه أي» في ديسمبر 2015، عندما كانت مؤسسة غير هادفة للربح، بسبب مهمتها المعلنة بتطوير ذكاء اصطناعي لن يدمرنا.
ودفعت «أوبن فيلانتروبي»، المؤسسة الخيرية المملوكة لداستن موسكوفيتز الشريك المؤسس لفيسبوك، 30 مليون دولار لشركة «أوبن أيه أي» في عام 2017، وهو أكبر تبرع تدفعه المؤسسة في ذلك العام، بسبب «الخطر الكارثي العالمي» للذكاء الاصطناعي المتقدم. لكن اثنين من كبار الباحثين في شركة «أوبن أيه أي» كانا مستشارين لمؤسسة «أوبن فيلانتروبي» وعاشا في البيت نفسه مع المدير التنفيذي للمؤسسة الخيرية الذي كان أيضا خطيباً لعالمة في «أوبن إيه أي». وبالنسبة لشركة «أوبن إيه أي»، فإن رسالتها الخاصة بإنقاذ البشرية انحرفت بسبب المطالب المالية ولم تستطع الشركة التي لا تستهدف الربح تحمل القوة الحاسوبية الهائلة لتطوير الذكاء الاصطناعي الخارق، وتحولت إلى شركة هادفة للربح ودخلت في شراكة وثيقة مع مايكروسوفت، التي تتهيأ الآن لجني الربح من نشاط «أوبن إيه أي» البحثي لإنقاذ البشرية من الذكاء الاصطناعي. بالإمكان فهم الجاذبية الأولية لعقيدة الأمد الطويل. يبدو أنه بديل تقدمي رائع لتفضيلنا الضحل إلى حد ما للمكافآت قصيرة الأجل على المكافآت طويلة الأجل. البشر بشكل عام يحصلون على عشرة دولارات بدلاً من 15 دولاراً في المستقبل. ومن المؤكد أن نوايا التكنولوجيين في وادي السيلكون مثل «ألتمان» حسنة.
لكن السير على حسابهم الأخلاقي لنهايته فإنه حتما سيقود إلى تجاهل المعاناة الإنسانية الراهنة وتآكل التعاطف تلك السمة الإنسانية الأخرى. ترى مارجريت ميتشل، وهي باحثة سابقة في أخلاقيات الذكاء الاصطناعي مع جوجل، وهي الآن كبيرة علماء الأخلاق في،«هاجينج فيس»، وهي مؤسسة ناشئة في الذكاء الاصطناعي تطورت البشرية من خلال تطوير التعاطف مع الرجل العادي. وكانت ميتشل من بين مجموعة العلماء الذين كتبوا رداً على الخطاب المفتوح الذي وقعه ماسك وآخرون، تنتقده لتركيزه على التهديدات الافتراضية في المستقبل عندما يساء بالفعل استخدام الذكاء الاصطناعي ويلحق الضرر بالبشر اليوم.
وعملت ميتشل من أجل العثور على طرق لجعل نماذج الذكاء الاصطناعي أكثر شفافية وخضوعاً للمساءلة من خلال تدريبها، بحيث لا تكون أكثر أماناً فحسب، بل تكون أيضاً أكثر إنصافا تجاه التركيبة السكانية الضعيفة. وأوضحت الدراسات أن قواعد البيانات المنحرفة يمكن أن تقود إلى قرارات توظيف منحرفة وتصنيف عنصري من خلال انفاذ القانون.
ولا ينبغي أن يصبح هذا معضلة إما أو. ومن خلال عادة تصحيح هذه المشكلات في المدى القريب، يمكن أيضاً تحصيننا ضد بعض مخاطر الذكاء الاصطناعي الأكثر كارثية. وبالتطلع بعيداً لمستقبل الذكاء الاصطناعي يعني أننا نخاطر بأن نعمى عن أضراره الراهنة. يتعين على وادي السيلكون تعديل آرائه المتعلقة بالمدى البعيد – فالتهديد الوجودي ليس في الأفق وحسب، بل إنه يحدق في وجوهنا.
*كاتبة متخصصة في قضايا التكنولوجيا.
يننشر بترتيب خاص مع خدمة «واشنطن بوست لايسينج آند سينديكيشن»