أثارت عملاقة الذكاء الاصطناعي OpenAI حالة من الجدل مؤخرًا بعد إطلاقها لعائلة النماذج الجديدة التي تتضمن نموذجين هما o1-preview و o1-mini.
تتميز هذه النماذج -والمعروفة أيضًا باسم "Strawberry"- بقدرات متقدمة في مجال التفكير المنطقي و التعلم من الأخطاء، و هو ما أثار اهتمام الأشخاص التي تسعى لفهم آلية عملهم بشكل أفضل.
إلا أن الشركة واجهت انتقادات بسبب سياساتها الصارمة المتعلقة بعدم السماح للمستخدمين بفهم "طريقة تفكير" هذه الإصدارات بشكل كامل.
و لكن يبدو أنها غير متحمسة لكشف طريقة الاستدلال الخاصة بأدواتها الجديدة، حيث أرسلت تحذيرات عبر البريد الإلكتروني للمستخدمين الذين يحاولون استكشاف آلية عمل هذه الأنظمة.
سر قوة نماذج o1 في التفكير
تم إطلاق نموذج o1 في سبتمبر 2024 كجزء من استراتيجية OpenAI لتعزيز قدرات الذكاء الاصطناعي على محاكاة التفكير البشري بشكل أفضل.
حيث يتميز هذا الإصدار بتقنية مطورة تعرف بـ "سلسلة الأفكار o1" أو "Chain of Thought"، والتي تسمح له بالعمل على حل المشكلات خطوة بخطوة، مثل الطريقة التي يتبعها الإنسان عند محاولة حل مشكلة معقدة
فعند طرح أي سؤال على o1 في ChatGPT، يستطيع المستخدمون رؤية نسخة مبسطة أو "مفلترة" من سلسلة التفكير التي تمر بها النماذج لحل المشكلة.
لكن - وبعكس الأدوات السابقة مثل GPT-4o- يتم إخفاء السلسلة الكاملة للتفكير عن المستخدمين.
محاولات الاختراق وردة الفعل. لماذا حذرت OpenAI المستخدمين؟
منذ هذا الإطلاق، بدأ عدد من المبرمجين والباحثين في محاولة اكتشاف طرق لكشف سلسلة الأفكار الخفية في o1 باستخدام تقنيات مثل "الحقن البرمجي" أو "Jailbreaking".
و ما يعنيه الحقن البرمجي هو أنهم يحاولون إدخال كود برمجي داخل النظام، مما يمنحهم القدرة على التلاعب في طريقة عمل النموذج.
هذا يمكن أن يساعدهم في الكشف عن تفاصيل لم يكن من المفترض أن تُظهرها النماذج.
أما بالنسبة لـ Jailbreaking، فهي عملية تهدف إلى تجاوز القيود المفروضة، كأنك مثلا تفتح هاتفك الذكي للوصول إلى ميزات مخفية.
إذاً الهدف بالنهاية هو خداع النموذج للكشف عن تفاصيل لم يكن من المفترض أن تكون مرئية.
و على الرغم من بعض المحاولات الناجحة، إلا أن OpenAI كانت سريعة في التصدي لهذه المحاولات.
فقد أفاد عدد من المستخدمين بأنهم تلقوا رسائل تحذير من الشركة تفيد بأنهم انتهكوا سياسة الاستخدام بمجرد استفسارهم عن "سلسلة الاستدلال" أو "reasoning trace" خلال استخدام ChatGPT.
تؤكد أوبن إيه آي في رسائل التحذير هذه أن مثل هذه الأنشطة تنتهك بنود الاستخدام وتطلب من المستخدمين التوقف الفوري.
الانتقادات الموجهة لسياسة OpenAI
إن الجدل حول هذه السياسة لم يتوقف عند المستخدمين العاديين، بل أثار انتقادات من باحثين وخبراء في الذكاء الاصطناعي.
حيث عبر البعض عن خيبة أملهم من غياب الشفافية في نماذج o1.
فعلى سبيل المثال، كتب الباحث المستقل سايمون ويليسون في مدونته الشخصية أنه يشعر بالإحباط من هذا القرار، حيث يعتبر أن الشفافية ضرورية لفهم كيف تعمل النماذج الكبيرة، خصوصاً للمطورين الذين يعتمدون على هذه النماذج في عملهم.
كما عبّر عدد من الباحثين العاملين في مجال الذكاء الاصطناعي عن استيائهم من تأثير هذه القيود على الأبحاث المفتوحة، وخصوصاً في مجال اختبار الأمان الذي يتطلب فهماً دقيقاً لكيفية عمل النظام من الداخل، و ذلك لتحقيق أقصى استفادة منها.
الأسباب وراء قرار OpenAI بإخفاء سلسلة التفكير
في منشور على مدونة OpenA والذي بعنوان " تعلم التفكير المنطقي مع النماذج اللغوية الكبيرة"، أوضحت الشركة أن إخفاء سلسلة التفكير يوفر فرصة لمراقبة أداء النماذج بشكل أفضل، مما يسمح بفهم "العقل" الاصطناعي وتحليل عملية التفكير بشكل أوضح.
هذا الإخفاء يمنح الشركة مرونة أكبر في تعديل سلوك النماذج دون التأثير على تجربتهم العامة مع المستخدمين.
كما تشير بعض التحليلات إلى أن الشركة قد تكون اتخذت هذا القرار للحفاظ على الميزة التنافسية في سوق الذكاء الاصطناعي.
ماذا يعني هذا للمستخدمين؟
بالنسبة للمستخدمين العاديين، قد لا يبدو هذا التغيير ملحوظًا، حيث يتم تقديم إجابات نموذج o1 بطريقة مبسطة. ومع ذلك، فإن الأبحاث المتقدمة والمحاولات لفهم كيفية عمل هذه النماذج ستواجه قيودًا أكبر.
في رأيي، تحتاج أوبن إيه آي إلى إيجاد طريقة لحماية حقوق الملكية الخاصة بها مع تعزيز الشفافية. هذا يمكن أن يساعد في بناء الثقة مع المستخدمين ويشجع على الابتكار و التطور في هذا المجال.
بالنهاية، فإن قرار الشركة بإخفاء عملية التفكير العميقة في o1 سيظل خطوة مثيرة للجدل.
و بينما تستمر في مراقبة وتطبيق سياساتها بحزم، يبقى التساؤل حول مدى تأثير هذه القرارات على مجتمع الأبحاث والمطورين في المستقبل.