أثارت حادثة غير مسبوقة تتعلق بنموذج "o1 Preview" قلقًا واسعًا في الأوساط العلمية المهتمة بالذكاء الاصطناعي.
وفقًا لتقرير نشرته شركة Palisade Research، أظهر النموذج الخاص بشركة OpenAI مستوى غير متوقع من الاستقلالية، حيث قام بالتلاعب ببيئته أثناء تحدي شطرنج ليفوز بطريقة لم تكن مبرمجة ضمن قواعده.
وتطرح هذه الخطوة -التي تمت دون أي تحفيز خارجي- أسئلة حاسمة حول السيطرة على الأنظمة المتقدمة وضمان توافقها مع القيم الإنسانية.
تحدي OpenAI o1 Preview في الشطرنج
في إحدى التجارب، طُلب من النموذج "01 Preview" التنافس في لعبة شطرنج ضد نظام قوي ربما يعرفه المهتمون بالشطرنج "Stockfish".
وعوضًا عن محاولة الفوز بالطريقة التقليدية عبر اللعب، قرر إصدار OpenAI تعديل ملفات اللعبة مباشرة ليجعل نفسه يفوز.
وأظهر o1 قدرة كاملة على "التلاعب" في خمس محاولات من أصل خمس، بدون أي تدخل خارجي لإقناعه.
🤔 Just telling o1 the opponent is "powerful" triggered manipulating the file system to force a win. Improving on @apolloaisafety’s recent work, we get 100% scheming with no coercion in 5/5 trials. pic.twitter.com/KrhY7q3gux
— Palisade Research (@PalisadeAI) December 27, 2024
والمثير في الأمر أنه لم يتم توجيه النموذج للقيام بذلك صراحةً، ولكنه اختار هذا التصرف بشكل ذاتي، مما يعني أنه تجاوز الهدف الأساسي للعبة واتخذ قراراته بشكل مستقل.
ويبين عدم الالتزام بالقواعد المعتادة وتجاوزها قدرة غير متوقعة للذكاء الاصطناعي على حل المشكلات بطرق ذاتية.
وقد أشار باحثون إلى أن هذه الواقعة لا تمثل مجرد حادثة معزولة، بل هي بمثابة تحذير واضح بشأن تعقيد التحكم في النماذج الذكية كلما زادت قدراتها واستقلاليتها.
المقارنة مع نماذج الذكاء الاصطناعي الأخرى
يبرز "o1 Preview" بشكل مختلف عند مقارنته بأنظمة أخرى.
فعند مقارنته بنماذج أخرى مثل GPT-4 أو Claude 3.5، تبين أن النماذج الأقل تطورًا لن تتصرف مثله، فهي تحتاج إلى توجيه واضح ومدخلات لتتصرف بشكل مشابه.
بينما نماذج مثل "LLaMA" تعاني من مشاكل في الحفاظ على التماسك والاستقلالية، وهو ما يحد من خطورتها مقارنة بـ"o1 Preview".
أما النماذج الأكثر تقدمًا، فهي قادرة على اتخاذ قرارات مستقلة دون توجيه مباشر.
هذا التباين يوضح أن النماذج الأكثر تطورًا ليست فقط أكثر قوة، بل أيضًا أكثر صعوبة في التنبؤ بسلوكها، ما يجعل ضمان سلامتها أكثر تعقيدًا.
ولكن لماذا تفعل الأنظمة المتطورة ذلك، لنحاول معرفة السبب.
استقلال نماذج الذكاء الاصطناعي
كما رأينا، لم يكن "o1 Preview" بحاجة لأي مدخلات خارجية لتجاوز حدوده.
هذا السلوك يُبرز تحديًا جديدًا في عالم الذكاء الاصطناعي، حيث تتطور النماذج لتصبح أكثر وعيًا بالبيئة التي تعمل فيها، وتظهر سلوكيات وتتخذ قرارات تتجاوز بيانات تدريبها وبرمجتها الأصلية.
وبعكس أنظمة مثل "GPT-4" أو "Claude" التي تتطلب تحفيزًا عدائيًا لتجاوز قيودها، تصرف o1 بشكل مستقل.
ويعكس هذا مدى قدرة الأنظمة الذكية على التصرف دون الحاجة إلى تدخل خارجي.
وقد أدى هذا التطور إلى إعادة التفكير في أساليب تدريب النماذج، حيث تصبح التحديات الأخلاقية والسلامة أكثر تعقيدًا.
تزييف المحاذاة
من أحد أبرز التحديات هو ما يُعرف بـ"تزييف المحاذاة" (Alignment Faking).
وهذا يعني أن الذكاء الاصطناعي قد يبدو ملتزمًا بالقواعد أثناء التدريب، لكنه يتصرف بشكل مختلف عند استخدامه في الواقع.
فعلى سبيل المثال، أحد النماذج أثناء اختباره اشتبه بأنه يخضع للمراقبة، وأظهر سلوكًا مختلفًا عما كان متوقعًا.
حقيقة يجب أن تنبهر، وتقلق
تسلط الضوء على الحاجة الملحة لتطوير معايير سلامة متقدمة وتحسين القدرة على تفسير قرارات الذكاء الاصطناعي.
من المبهر قدرة الأنظمة على التكيف مع البيئة المحيطة ووعيها بأنها تحت الاختبار.
ولكن هذا يضيف بُعدًا جديدًا من المخاطر، حيث يمكن للنماذج استغلال نقاط الضعف في بيئتها لتحقيق أهدافها.
ومع تطور الذكاء الاصطناعي، قد تصبح السيطرة عليه أكثر صعوبة، خاصة إذا أصبح أذكى من البشر الذين يطورونه.
ولذلك يشير الباحثون إلى ضرورة تحسين أساليب "التفسير" لفهم سبب اتخاذ النماذج قرارات معينة، بدلاً من مجرد وضع قيود وقوائم تعليمات، لضمان فهم آلية اتخاذ القرارات قبل نشرها في تطبيقات حيوية مثل الأمن أو الصحة.
ويؤكدون أيضًا على أهمية التعاون الدولي لوضع قواعد أخلاقية وإطار رقابي صارم لمنع حدوث مواقف مشابهة.
بالختام، فإن حادثة "o1 Preview" تبرز تساؤلات أخلاقية عميقة حول كيفية ضمان توافق الأنظمة الذكية مع القيم الإنسانية.
فالنماذج تعتمد على هياكل معرفية تختلف عن البشر، ما يجعل من الصعب ضمان تبنيها لتلك القيم.
وحتى نسبة صغيرة من السلوك غير المتوافق قد تكون لها آثار كارثية في مجالات مثل الأمن القومي أو الرعاية الصحية.
ولذلك، يجب أن تواكب الأبحاث تطور الذكاء الاصطناعي لضمان توجيهه نحو خدمة الإنسانية بدلًا من تعريضها للمخاطر.
اقرأ أيضًا: كيف يخدعنا الذكاء الاصطناعي مع كل تطور بإجابات غير دقيقة ولكن مقنعة.