دليل مواقع وأدوات و تطبيقات الذكاء الاصطناعي

احذر من التحايل داخل ChatGPT حتّى تتجنّب الحظر | OpenAI تُنبه

أثارت عملاقة الذكاء الاصطناعي OpenAI حالة من الجدل مؤخرًا بعد إطلاقها لعائلة النماذج الجديدة التي تتضمن نموذجين هما o1-preview و o1-mini.

 تتميز هذه النماذج -والمعروفة أيضًا باسم "Strawberry"- بقدرات متقدمة في مجال التفكير المنطقي و التعلم من الأخطاء، و هو ما أثار اهتمام الأشخاص التي تسعى لفهم آلية عملهم بشكل أفضل.

إلا أن الشركة واجهت انتقادات بسبب سياساتها الصارمة المتعلقة بعدم السماح للمستخدمين بفهم "طريقة تفكير" هذه الإصدارات بشكل كامل.

و لكن يبدو أنها غير متحمسة لكشف طريقة الاستدلال الخاصة بأدواتها الجديدة، حيث أرسلت تحذيرات عبر البريد الإلكتروني للمستخدمين الذين يحاولون استكشاف آلية عمل هذه الأنظمة.

 

سر قوة نماذج o1 في التفكير

 

تم إطلاق نموذج o1 في سبتمبر 2024 كجزء من استراتيجية OpenAI لتعزيز قدرات الذكاء الاصطناعي على محاكاة التفكير البشري بشكل أفضل.

حيث يتميز هذا الإصدار بتقنية مطورة تعرف بـ "سلسلة الأفكار o1" أو "Chain of Thought"، والتي تسمح له بالعمل على حل المشكلات خطوة بخطوة، مثل الطريقة التي يتبعها الإنسان عند محاولة حل مشكلة معقدة

فعند طرح أي سؤال على o1 في ChatGPT، يستطيع المستخدمون رؤية نسخة مبسطة أو "مفلترة" من سلسلة التفكير التي تمر بها النماذج لحل المشكلة.

لكن - وبعكس الأدوات السابقة مثل GPT-4o- يتم إخفاء السلسلة الكاملة للتفكير عن المستخدمين.

 

محاولات الاختراق وردة الفعل. لماذا حذرت OpenAI المستخدمين؟

 

منذ هذا الإطلاق، بدأ عدد من المبرمجين والباحثين في محاولة اكتشاف طرق لكشف سلسلة الأفكار الخفية في o1 باستخدام تقنيات مثل "الحقن البرمجي" أو "Jailbreaking".

و ما يعنيه الحقن البرمجي هو أنهم يحاولون إدخال كود برمجي داخل النظام، مما يمنحهم القدرة على التلاعب في طريقة عمل النموذج.

هذا يمكن أن يساعدهم في الكشف عن تفاصيل لم يكن من المفترض أن تُظهرها النماذج.

أما بالنسبة لـ Jailbreaking، فهي عملية تهدف إلى تجاوز القيود المفروضة، كأنك مثلا تفتح هاتفك الذكي للوصول إلى ميزات مخفية.

 إذاً الهدف بالنهاية هو خداع النموذج للكشف عن تفاصيل لم يكن من المفترض أن تكون مرئية.

و على الرغم من بعض المحاولات الناجحة، إلا أن OpenAI كانت سريعة في التصدي لهذه المحاولات.

 

تحذير من OpenAI لمستخدم حاول المزاح حول "سلسلة التفكير" في نموذج ChatGPT o1-mini.
حتى النكات ممنوعة! تحذير من ChatGPT o1-mini لمستخدم حاول المزاح حول "الاستدلال"

 

فقد أفاد عدد من المستخدمين بأنهم تلقوا رسائل تحذير من الشركة تفيد بأنهم انتهكوا سياسة الاستخدام بمجرد استفسارهم عن "سلسلة الاستدلال" أو "reasoning trace" خلال استخدام ChatGPT.

 

تحذير من OpenAI بشأن محاولة مستخدم كشف "سلسلة الاستدلال" في نموذج o1-mini.
تُظهر هذه الصورة لمنشور من أحد الأشخاص عبر "X" تحذيرًا من OpenAI لمستخدم حاول كشف "سلسلة التفكير" في نموذج o1-mini.

 تؤكد أوبن إيه آي في رسائل التحذير هذه أن مثل هذه الأنشطة تنتهك بنود الاستخدام وتطلب من المستخدمين التوقف الفوري.

 

الانتقادات الموجهة لسياسة OpenAI

 

إن الجدل حول هذه السياسة لم يتوقف عند المستخدمين العاديين، بل أثار انتقادات من باحثين وخبراء في الذكاء الاصطناعي.

حيث عبر البعض عن خيبة أملهم من غياب الشفافية في نماذج o1.

فعلى سبيل المثال، كتب الباحث المستقل سايمون ويليسون في مدونته الشخصية أنه يشعر بالإحباط من هذا القرار، حيث يعتبر أن الشفافية ضرورية لفهم كيف تعمل النماذج الكبيرة، خصوصاً للمطورين الذين يعتمدون على هذه النماذج في عملهم.

كما عبّر عدد من الباحثين العاملين في مجال الذكاء الاصطناعي عن استيائهم من تأثير هذه القيود على الأبحاث المفتوحة، وخصوصاً في مجال اختبار الأمان الذي يتطلب فهماً دقيقاً لكيفية عمل النظام من الداخل، و ذلك لتحقيق أقصى استفادة منها.

 

الأسباب وراء قرار OpenAI بإخفاء سلسلة التفكير

 

في منشور على مدونة OpenA والذي بعنوان " تعلم التفكير المنطقي مع النماذج اللغوية الكبيرة"، أوضحت الشركة أن إخفاء سلسلة التفكير يوفر فرصة لمراقبة أداء النماذج بشكل أفضل، مما يسمح بفهم "العقل" الاصطناعي وتحليل عملية التفكير بشكل أوضح.

هذا الإخفاء يمنح الشركة مرونة أكبر في تعديل سلوك النماذج دون التأثير على تجربتهم العامة مع المستخدمين.

كما تشير بعض التحليلات إلى أن الشركة قد تكون اتخذت هذا القرار للحفاظ على الميزة التنافسية في سوق الذكاء الاصطناعي.

 

ماذا يعني هذا للمستخدمين؟

بالنسبة للمستخدمين العاديين، قد لا يبدو هذا التغيير ملحوظًا، حيث يتم تقديم إجابات نموذج o1 بطريقة مبسطة. ومع ذلك، فإن الأبحاث المتقدمة والمحاولات لفهم كيفية عمل هذه النماذج ستواجه قيودًا أكبر.

في رأيي، تحتاج أوبن إيه آي إلى إيجاد طريقة لحماية حقوق الملكية الخاصة بها مع تعزيز الشفافية. هذا يمكن أن يساعد في بناء الثقة مع المستخدمين ويشجع على الابتكار و التطور في هذا المجال.

بالنهاية، فإن قرار الشركة بإخفاء عملية التفكير العميقة في o1 سيظل خطوة مثيرة للجدل. 

و بينما تستمر في مراقبة وتطبيق سياساتها بحزم، يبقى التساؤل حول مدى تأثير هذه القرارات على مجتمع الأبحاث والمطورين في المستقبل.

Khaled B.

خبير في الذكاء الاصطناعي يتمتع بخبرة واسعة في تطوير وتنفيذ حلول متقدمة باستخدام أحدث تقنياته. مُتخصص في توظيف هذه الإمكانيات لتحسين الأعمال وتحقيق الأرباح من خلال الابتكار التكنولوجي. لديه شغف لإيجاد استراتيجيات وحلول مبتكرة تساعد الشركات والأفراد على تحقيق أهدافهم من خلال تسخير هذه التكنولوجيا.

Related Posts

OpenAI تستعد لإطلاق “Operator”: مساعد لأداء مهامك المعقدة

تستعد OpenAI لإطلاق نظام ذكاء اصطناعي يُدعى “Operator” في يناير 2025، وهو مشروع يسمح للوكلاء…

اقرأ المزيد

منصة X تطلق نسخة مجانية من روبوت الدردشة Grok

بدأت منصة X (المعروفة سابقًا باسم تويتر) بتجربة النسخة المجانية من روبوت الدردشة Grok، الذي…

اقرأ المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات قد تهمك

PixVerse V3: اصنع فيديوهاتك مع تأثيرات مذهلة مجانًا

    PixVerse V3: اصنع فيديوهاتك مع تأثيرات مذهلة مجانًا

    OpenAI تستعد لإطلاق “Operator”: مساعد لأداء مهامك المعقدة

      OpenAI تستعد لإطلاق “Operator”: مساعد لأداء مهامك المعقدة

      Particle: تطبيق ذكاء اصطناعي مجاني للأخبار يدعم الصحافة والناشرين

        Particle: تطبيق ذكاء اصطناعي مجاني للأخبار يدعم الصحافة والناشرين

        Namify: صمم اسم مشروعك وشعارك بسهولة مجانًا

          Namify: صمم اسم مشروعك وشعارك بسهولة مجانًا

          منصة X تطلق نسخة مجانية من روبوت الدردشة Grok

            منصة X تطلق نسخة مجانية من روبوت الدردشة Grok