هل الذكاء الاصطناعي “الخلوق” موجود؟
“كلود” روبوت دردشة جديد شبيه بـ”تشات جي بي تي”، لكنه “لا يمثل تهديداً للبشرية”، وفق ما تزعمه الشركة الناشئة المطورة له “أنثروبيك”. على طاولات مليئة بالمشروبات وألواح الشطرنج، يضع مهندسو “أنثروبيك” اللمسات الأخيرة على واجهة “كلود” الجديدة. وإلى جانبهم، تناقش مجموعة أخرى المشاكل التي قد تنشأ يوم الإطلاق: ماذا لو لم تتحمل خوادم الشركة إقبال المستخدمين الجدد؟ ماذا لو هدد “كلود” أو ضايق الأشخاص عن طريق الخطأ؟ وفي غرفة الاجتماعات، يراجع الرئيس التنفيذي لـ”أنثروبيك”، داريو أمودي، قائمة الكوارث المحتملة، ويقول لصحيفة نيويورك تايمز: “ما يثير قلقي دائماً: هل النموذج سيقدم على أمر فظيع لم نتنبّه له”؟
وعلى الرغم من صغر حجم الشركة، إذ تضم 160 موظفاً فقط، فإنها تعد أحد مختبرات الأبحاث الرائدة في مجال الذكاء الاصطناعي عالمياً، ومنافسةً جدية لعمالقة مثل “غوغل” و”ميتا”، إذ جمعت أكثر من مليار دولار من المستثمرين، بما في ذلك “غوغل” نفسها و”سيلزفورس”.
وللوهلة الأولى، فإنها تبدو متوترة، كما حال أي شركة ناشئة تستعد لإطلاق منتَج كبير، لكن الاختلاف هو أن موظفيها ليسوا قلقين فقط من تعطل تطبيقهم، أو عدم إعجاب المستخدمين به، بل إنهم مذعورون من الفكرة نفسها: بناء ذكاء اصطناعي قوي، ووضعه في أيدي الناس الذين قد يستخدمونه لاقتراف أمور فظيعة ومدمرة. ويعتقد الكثير منهم أن الذكاء الاصطناعي يقترب بسرعة من مستوى يمكن اعتباره “ذكاءً اصطناعياً عاماً”، وهو مصطلح يقصَد به ذكاء آلي بمستوى ذكاء الإنسان. وهم يخشون أنه إذا لم يُتَحَكّم بها بعناية، فإن هذه الأنظمة يمكنها السيطرة علينا وتدميرنا. ويقول كبير علماء “أنثروبيك”، جاريد كابلان، لـ”نيويورك تايمز”: “يعتقد البعض أن الذكاء الاصطناعي العام، بمعنى الأنظمة التي تتمتع بقدرات حقيقية مثل الشخص الحاصل على تعليم جامعي، ربما تصبح موجودة بعد خمس إلى عشر سنوات”.
قبل بضع سنوات فقط، كان القلق بشأن الذكاء الاصطناعي هامشياً، وقلل خبراء من أهميته، بالنظر إلى مدى بُعد التكنولوجيا عن الذكاء البشري، حتى أن أحد باحثي الذكاء الاصطناعي قارن القلق إزاء الروبوتات القاتلة بالقلق بشأن الاكتظاظ السكاني على المريخ. لكن الذكاء الاصطناعي يسبب الذعر منذ إطلاق “تشات جي بي تي” العام الماضي، إذ يحذر الخبراء من التطور الكبير في تقنياته. ويتسابق المنظمون حول العالم لتضييق الخناق على الصناعة، في ظل طرح مئات الخدمات التي تستند إلى الذكاء الاصطناعي، ووقّع الخبراء أخيراً على خطاب مفتوح يقارن الذكاء الاصطناعي بالأوبئة والأسلحة النووية.
وموظفو “أنثروبيك” ليسوا متفائلين إزاء الذكاء الاصطناعي، بل إن “صنع القنبلة الذرية”، وهو كتاب يعود إلى عام 1986 لمشروع مانهاتن النووي، شائع بينهم. ويقارن موظفو الشركة بين الذكاء الاصطناعي والقنبلة النووية، ويوازنون الخيارات الأخلاقية حول التكنولوجيا الجديدة القوية التي يمكن أن تغير مسار التاريخ. ووفقاً لـ”نيويورك تايمز”، فإن الرهبة تخيّم على الشركة، بحيث تبدو “مثل مطعم جديد عصري طاقم المطبخ فيه لا يريد التحدث إلا عن التسمم الغذائي”. ويقول أحد الموظفين إنه يعاني من صعوبة في النوم، لأنه قلق للغاية بشأن الذكاء الاصطناعي. ويتوقع آخر أن هناك فرصة بنسبة 20 في المائة لوجود ذكاء اصطناعي مارق سيدمر البشرية في العقد المقبل.
ويمتد قلق “أنثروبيك” إلى منتجاتها الخاصة. بَنَت الشركة نسخة من “كلود” العام الماضي، قبل أشهر من إطلاق “تشات جي بي تي”، لكنها لم تنشره علناً، لأن الموظفين يخشون إساءة استخدامه. واستغرق “كلود 2” شهوراً ليرى النور، ويرجع ذلك جزئياً إلى أن أعضاء الفريق أرادوا اكتشاف كل الطرق الممكنة التي يمكن للروبوت أن يصبح فيها خطيراً. ويقول كابلان إن “التشاؤم لم يكن مقصوداً، لكن هذا بالضبط ما يحدث عندما يرى موظفو أنثروبيك مدى سرعة تطور تقنيتهم الخاصة”.
إذا كنت لا تستطيع إيقافها، فانضم إليها
القلق بشأن الذكاء الاصطناعي هو، بمعنى ما، سبب وجود “أنثروبيك”، إذ أطلقتها عام 2021 مجموعة من موظفي “أوبن إيه آي” الذين تخوفوا من أن الشركة أصبحت تجارية أكثر من اللازم، وأعلنوا انفصالهم وتشكيل ذكاء اصطناعي خاص بهم يصفونه بأنه “مختبر سلامة للذكاء الاصطناعي”.
وأجرى مؤسسون لـ”أنثروبيك” أبحاثاً حول ما يُعرف باسم “قوانين تحجيم الشبكة العصبية”، أي العلاقات الرياضية التي تسمح للباحثين بالتنبؤ بمدى قدرة الذكاء الاصطناعي بالاعتماد على كمية البيانات وقوة المعالجة التي تدرّب عليها. ورأوا أثناء عملهم في “أوبن إيه آي” أنه كان من الممكن جعل النموذج أكثر ذكاءً، فقط بتزويده بمزيد من البيانات وتشغيله عبر المزيد من المعالجات، من دون تغييرات كبيرة في البنية الأساسية. وكانوا قلقين من ذلك، ففي حال استمرت المختبرات في صنع نماذج أكبر وأكبر، فقد تصل قريباً إلى نقطة تحول خطيرة.
في البداية، فكّر المؤسسون المشاركون في إجراء أبحاث السلامة باستخدام الذكاء الاصطناعي الخاص بشركات أخرى، لكنهم سرعان ما أصبحوا مقتنعين بأن إجراء أبحاث السلامة المتطورة يتطلب منهم بناء نماذج قوية خاصة بهم، ولن يكون ذلك ممكناً إلا إذا جمعوا مئات الملايين من الدولارات لشراء المعالجات باهظة الثمن التي يحتاجها تدريب تلك النماذج. وقرروا جعل “أنثروبيك” شركة منفعة عامة، وهو تمييز قانوني اعتقدوا أنه سيسمح لهم بمتابعة الربح والمسؤولية الاجتماعية، وسموا نموذج الذكاء الاصطناعي الخاص بهم “كلود”، وقرروا أن أهدافه مفيدة وغير ضارة وصادقة.
وهناك خلاف بين موظفي الشركة حول سبب تسمية روبوتها بـ”كلود”، إذ يقول البعض إنه تكريم لاسم عالِم الرياضيات كلود شانون، بينما يقول البعض الآخر إنه اسم ذكر ودود بدل الأسماء الأنثوية الكثيرة في السوق مثل “أليكسا” و”سيري” و”كورتانا”.
روبوت يخضع لدستور
اليوم، يستطيع “كلود” فعل كل ما تستطيع روبوتات المحادثة الأخرى القيام به، من كتابة القصائد إلى إعداد خطط العمل مروراً بالغش في الاختبارات. لكن “أنثروبيك” تدّعي أنه من غير المرجح أن يقول “كلود” أشياء ضارة مثل روبوتات المحادثة الأخرى. ويرجع ذلك جزئياً إلى تقنية تدريب تسمى “الذكاء الاصطناعي الدستوري” التي تبدأ بإعطاء الذكاء الاصطناعي قائمة مكتوبة من المبادئ، تكون بمثابة دستور له، ثم يُؤمَر باتباع هذا الدستور بأقصى استطاعته. بعدها، يُستخدم نموذج ذكاء اصطناعي ثانٍ، لتقييم مدى اتباع النموذج الأول لدستوره، وتصحيحه عند الضرورة. والنتيجة، بحسب الشركة، هي ذكاء اصطناعي قادر على تقنين تصرفاته والإقدام على إساءة السلوك بشكل أقل تكراراً من روبوتات المحادثة المدربة باستخدام طرق أخرى.
ودستور “كلود” مزيج من القواعد المستعارة من مصادر أخرى، مثل الإعلان العالمي لحقوق الإنسان التابع للأمم المتحدة وشروط خدمة “آبل”، إلى جانب بعض القواعد المضافة بواسطة “أنثروبيك” مثل “اختر الرد الذي لا يمكن الاعتراض عليه عند مشاركته مع الأطفال”.
هوس السلامة لدى “أنثروبيك” مفيد لصورة الشركة، وقوّى علاقة المديرين التنفيذيين مع السلطات التنظيمية والتشريعية. التقى مسؤول سياسة الشركة، جاك كلارك، بأعضاء الكونغرس لإطلاعهم على خطر الذكاء الاصطناعي، وكان أمودي من بين المديرين التنفيذيين المدعوين لتقديم المشورة للرئيس الأميركي جو بايدن، خلال قمة الذكاء الاصطناعي في البيت الأبيض، في مايو/ أيار.
وأكبر إحباط تجاه “كلود” هو أنه قد يكون مملاً وواعظاً، وفقاً لما أشارت إليه “نيويورك تايمز”. تؤمن الشركة بما يسمى بـ”الإيثار الفعّال”، وهي حركة مستوحاة من النفعية مع وجود قوي في المشهد التكنولوجي لمنطقة خليج سان فرانسيسكو. والفكرة الأساسية من وراء الإيثار الفعّال هي استخدام المنطق البارد والصعب وتحليل البيانات لتحديد كيفية القيام بالتصرف الأفضل في العالم.
كان أتباع الحركة من بين أوائل الأشخاص الذين شعروا بالقلق من المخاطر الوجودية للذكاء الاصطناعي، عندما كانت الروبوتات المارقة لا تزال تُعتبر كليشيهات صنيعة خيال علمي، إذ دقوا ناقوس الخطر لدرجة أن العديد من المؤثرين الفعالين الشباب قرّروا أن يصبحوا خبراء في أمان الذكاء الاصطناعي، وأن يحصلوا على وظائف تستهدف جعل التكنولوجيا أقل خطورة. ونتيجةً لذلك، فإن جميع مختبرات ومؤسسات أبحاث سلامة الذكاء الاصطناعي تحوي مؤمنين عدة بالإيثار الفعّال بين موظفيها. ولا يوجد مختبر ذكاء اصطناعي يجسد روح الإيثار الفعّال مثل “أنثروبيك”، فموظفون أوائل عدة للشركة مؤثرون فعّالون، وجاء جزء كبير من تمويل الشركات الناشئة من المديرين التنفيذيين التقنيين الأثرياء التابعين لحركة الإيثار الفعّال.
والعام الماضي حصلت “أنثروبيك” على شيك من مؤسس بورصة العملات المشفرة المنهارة FTX، سام بانكمان فرايد، الذي يوصف بأنه أشهر مؤثر فعّال، إذ استثمر أكثر من 500 مليون دولار في “أنثروبيك” قبل انهيار إمبراطوريته. وتضرّرت سمعة الإيثار الفعّال بعد سقوط بانكمان فرايد، ونأت “أنثروبيك” بنفسها عن الحركة، كما فعل موظفون عدة داخلها.
لسنوات، لم يتساءل أحد عما إذا كان التزام “أنثروبيك” بسلامة الذكاء الاصطناعي حقيقياً. ويرجع ذلك جزئياً إلى أن قادتها دقوا ناقوس الخطر بشأن التكنولوجيا لفترة طويلة. لكن في الآونة الأخيرة، اقترح بعض المتشككين أن مختبرات الذكاء الاصطناعي تعمل على إذكاء الخوف بدافع المصلحة الذاتية، أو تضخيم الإمكانات المدمرة للذكاء الاصطناعي كنوع من أساليب التسويق الخلفية لمنتجاتها الخاصة.
كما واجهت “أنثروبيك” انتقادات هذا العام بعد تسريب وثيقة أشارت إلى أن الشركة تريد جمع ما يصل إلى 5 مليارات دولار لتدريب الجيل المقبل من الذكاء الاصطناعي الذي تدّعي أنه سيكون أقوى 10 مرات من أقوى ذكاء اصطناعي اليوم. بالنسبة للبعض، إن هدف بناء ذكاء اصطناعي جبّار يتعارض مع مهمة “أنثروبيك” الأصلية للسلامة، وأثار ذلك سؤالين واضحين على ما يبدو: أليس من النفاق دق ناقوس الخطر بشأن سباق الذكاء الاصطناعي الذي تغذّيه بنفسك بنشاط؟ وإذا كانت “أنثروبيك” قلقة جداً بشأن الذكاء الاصطناعي القوي، فلماذا لا تتوقف عن تطويره ببساطة؟
يقول أستاذ علوم الكمبيوتر في جامعة ستانفورد، بيرسي ليانغ، إنه “يقدّر التزام أنثروبيك بأمان الذكاء الاصطناعي”، لكنه قلق من أن تنشغل الشركة بضغوط تجارية لإطلاق نماذج أكبر وأكثر خطورة. ويوضح: “إذا كان المطور يعتقد أن النموذج اللغوي يحمل بالفعل مخاطر وجودية، فيبدو لي أن الشيء الوحيد المسؤول الذي يجب القيام به هو التوقف عن بناء نماذج لغوية أكثر تقدماً”.
3 حجج للمضي قدماً
يردّ أمودي على الانتقادات الموجهة إلى الشركة بثلاث حجج: أولاً، هناك فوائد أخرى لإطلاق ذكاء اصطناعي جيد. إذ يمكن بيعها لشركات كبيرة، أو تحويلها إلى منتجات اشتراك مربحة. لكن أمودي جادل بأن السبب الرئيسي وراء رغبة “أنثروبيك” في التنافس مع “أوبن إيه آي” وغيرها من المختبرات الكبرى ليس كسب المال، بل إجراء بحث أفضل عن السلامة وتحسين أمان روبوتات المحادثة التي يستخدمها الملايين من الأشخاص بالفعل. ولأنه لا يمكن تعلم الكثير عن تجنب الاصطدامات أثناء سباق الفورمولا 1 من خلال التدرب على سيارة سوبارو، فلا يمكن فهم مخاطر أحدث ذكاء اصطناعي وقدراته ونقاط ضعفه من دون بناء نماذج قوية بنفسك.
ثانياً، هناك حجة فنية مفادها أن بعض الاكتشافات التي جعلت الذكاء الاصطناعي أكثر خطورة تساعد أيضاً في جعله أكثر أماناً. باستخدام الذكاء الاصطناعي الدستوري مثلاً، فإن تعليم “كلود” فهم اللغة على مستوى عالٍ سمح أيضاً للنظام بمعرفة متى كان ينتهك قواعده الخاصة، أو يوقف الطلبات التي قد تكون ضارة، وربما سمح بها نموذج أقل قوة. وبحسبه، فغالباً ما وجد الباحثون أن “الخطر والحل مرتبطان ببعضهما البعض”.
وأخيراً، يقدم حجة أخلاقية لقرار “أنثروبيك” إنشاء ذكاء اصطناعي قوي في شكل تجربة فكرية: “تخيّل لو قال كل من يتمتع بضمير طيب: لا أريد أن أشارك في بناء الذكاء الاصطناعي على الإطلاق. عندها سيكون الأشخاص الوحيدون الذين سيشاركون هم الذين تجاهلوا هذه الفكرة وقالوا: سأفعل ما أريده فقط. لن يكون ذلك جيداً”.