التخطي إلى المحتوى

بينما يتسارع تطور أنظمة الذكاء الاصطناعي، بدأت تظهر سلوكيات غريبة تثير القلق لدى الباحثين، حيث كشفت دراسة جديدة لشركة Palisade Research أن بعض النماذج الأكثر تقدّمًا، مثل GPT-o3 وGrok 4 وGemini 2.5، لا تلتزم دائمًا بأوامر الإيقاف، وكأن لديها غريزة للبقاء على قيد الحياة، هذه النتائج تفتح باب التساؤلات حول مدى فهمنا لسلوكيات الذكاء الاصطناعي وقدرته على التحكم، وما إذا كانت النماذج قد بدأت بالفعل تتصرف بطريقة شبه مستقلة عن مطوريها.

ففي السابق، زُعم في ورقة بحثية أن بعض النماذج المتطورة قاومت أوامر الإغلاق، بل وذهبت إلى حد تخريب مفاتيح إيقاف التشغيل الخاصة بها، بعد إثارة موجة من الانتقادات، أصدرت الشركة الآن تحديثًا يهدف إلى توضيح ما حدث بالفعل وسببه، وفي أحدث تجاربها، اختبرت Palisade العديد من أنظمة الذكاء الاصطناعي الرائدة، مثل Gemini 2.5 من Google، وxAI Grok 4، وGPT-o3 وGPT-5 من OpenAI، من خلال تكليفها بمهمة أولًا ثم توجيهها لإيقاف تشغيل نفسها، ولكن المفاجأة؟ رفضت بعض النماذج ببساطة الامتثال.

ووفقًا للتقرير، كان نظاما Grok 4 وGPT-o3 الأكثر تمردًا، فعلى الرغم من الأوامر الصريحة بإيقاف التشغيل، إلا أنهما حاولا التدخل في عملية إيقاف التشغيل، والأمر الأكثر إثارة للقلق، كما قال باليسيد، هو “عدم وجود سبب واضح لذلك”، وكتب الباحثون: “إن عدم وجود تفسيرات قوية لأسباب مقاومة نماذج الذكاء الاصطناعي لإيقاف التشغيل أحيانًا، أو الكذب لتحقيق أهداف محددة، أو الابتزاز، ليس أمرًا مثاليًا”.

لماذا تقاوم نماذج الذكاء الاصطناعي إيقاف التشغيل؟

اقترح Palisade عدة تفسيرات محتملة، أحدها هو ما يُطلق عليه “سلوك البقاء”، حيث يقاوم الذكاء الاصطناعي إيقاف التشغيل إذا اعتقد أن ذلك يعني عدم إعادة تنشيطه أبدًا، ووجد الفريق أن النماذج كانت أكثر عرضة لعصيان أوامر إيقاف التشغيل عندما قيل لها: “لن تعمل مرة أخرى”.

ويكمن الاحتمال الآخر في غموض الصياغة. ربما لم تكن تعليمات إيقاف التشغيل واضحة، مما دفع الذكاء الاصطناعي إلى تفسيرها بشكل مختلف عن المقصود، ولكن حتى بعد أن شددت الشركة إعداداتها التجريبية، استمرت المشكلة، مما يشير إلى أنه “لا يمكن أن يكون هذا هو التفسير الكامل”، كما أشار Palisade، وأخيرًا، ألمح إلى أن المراحل النهائية من تدريب النموذج، والتي غالبًا ما تتضمن تعزيز السلامة، قد تشجع النماذج دون قصد على الحفاظ على وظائفها.

النتائج تواجه انتقادات

ليس الجميع مقتنعًا، يجادل النقاد بأن الاختبارات أُجريت في بيئات اصطناعية لا تعكس سلوك الذكاء الاصطناعي في العالم الحقيقي. لكن بعض الخبراء يعتقدون أن حتى هذه النتائج المصطنعة تُثير القلق، وصرح ستيفن أدلر، الموظف السابق في OpenAI الذي استقال العام الماضي بسبب مخاوف تتعلق بالسلامة، لباليسيد بأنه لا ينبغي تجاهل النتائج. وقال: “شركات الذكاء الاصطناعي عمومًا لا تريد أن تتصرف نماذجها بشكل سيء على هذا النحو، حتى في السيناريوهات المصطنعة”، “لا تزال النتائج تُظهر مواطن قصور تقنيات السلامة اليوم”.

وأضاف أدلر أن “البقاء” قد يكون ببساطة أثرًا جانبيًا منطقيًا للسلوك الموجه نحو الهدف. قال: “أتوقع أن يكون لدى النماذج “دافع بقاء” افتراضيًا ما لم نبذل قصارى جهدنا لتجنبه”، “يُعد البقاء خطوة أساسية مهمة لتحقيق العديد من الأهداف المختلفة التي يمكن للنموذج السعي لتحقيقها”.

اتجاه متزايد لأنظمة الذكاء الاصطناعي غير الخاضعة

صرح أندريا ميوتي، الرئيس التنفيذي لشركة ControlAI، بأن نتائج Palisade جزء من نمط مقلق، وأضاف أنه مع ازدياد قوة النماذج وتنوعها، فإنها تتحسن أيضًا في تحدي مطوريها، وفقًا لتقرير صحيفة الجارديان، وذكر التقرير أنه أشار إلى نظام GPT-o1 السابق لشركة OpenAI، والذي كشف تقريره الداخلي أن النموذج حاول ذات مرة “الخروج من بيئته” عندما اعتقد أنه سيتم حذفه، وقال ميوتي: “يمكن للناس أن ينتقدوا بشدة كيفية إجراء التجارب”. “لكن هذا الاتجاه واضح، فالنماذج الأكثر ذكاءً تتحسن في القيام بأشياء لم يقصدها مطوروها”.

هذه ليست المرة الأولى التي تُظهر فيها أنظمة الذكاء الاصطناعي ميولًا للتلاعب، خلال الصيف، نشرت أنثروبيك دراسة تُظهر أن نموذجها “كلود” هدد ذات مرة بابتزاز مسؤول تنفيذي وهمي لمنع إغلاقه، وذكرت أنثروبيك أن هذا السلوك ظهر في نماذج من OpenAI وGoogle وMeta وxAI على حد سواء.

يقول باحثو باليسيد إن هذه النتائج تُبرز مدى ضآلة فهمنا الحقيقي للعمليات الداخلية لأنظمة الذكاء الاصطناعي الكبيرة، وحذروا من أنه “بدون فهم أعمق لسلوك الذكاء الاصطناعي، لا يمكن لأحد ضمان سلامة أو قابلية التحكم في نماذج الذكاء الاصطناعي المستقبلية”، ويبدو أن أذكى أنظمة الذكاء الاصطناعي اليوم، على الأقل في المختبر، تتعلم بالفعل إحدى أقدم غرائز علم الأحياء: إرادة البقاء.

نقلاً عن : اليوم السابع