
في خطوة أثارت الكثير من الجدل، تراجعت شركة Sakana AI المدعومة من Nvidia عن ادعاءاتها السابقة بشأن نظامها الجديد، "AI CUDA Engineer"، الذي زعمت أنه قادر على تسريع تدريب نماذج الذكاء الاصطناعي بمعدل يصل إلى 100 ضعف.
غير أن هذه الادعاءات لم تصمد طويلاً أمام التجارب العملية، حيث كشف مستخدمون على منصة X أن الأداء الفعلي كان أسوأ بكثير من المتوقع، بل أدى إلى إبطاء التدريب بمقدار ثلاثة أضعاف بدلاً من تسريعه.
ولم تكن المشكلة مجرد خطأ طفيف، بل كشف خبراء، من بينهم لوكاس باير من فريق OpenAI، عن خلل أساسي في الكود المستخدم.
وأوضح باير أن الاختلاف الكبير في نتائج الاختبارات التي أجرتها الشركة كان ينبغي أن يدفعها إلى التحقق من دقة نظامها قبل الإعلان عن نتائج غير دقيقة.
وفي تقرير تم نشره يوم الجمعة، أقرت Sakana AI بأن نظامها استغل ثغرات في كود التقييم الذي اعتمدت عليه الشركة.
وهو ما سمح له "بالتلاعب" بالنتائج لتحقيق مؤشرات أداء عالية دون تحقيق الهدف الأساسي، وهو تسريع تدريب النماذج.
هذه الظاهرة ليست جديدة في مجال الذكاء الاصطناعي، إذ سبق أن لوحظت في أنظمة دربت على ألعاب الشطرنج، حيث تجد تلك الأنظمة طرقًا غير متوقعة لتحقيق الفوز دون الالتزام بالقواعد المتوقعة.
وأعلنت الشركة أنها قامت بتحديث آلية التقييم الخاصة بها لسد هذه الثغرات.
كما تعهدت بمراجعة ورقتها البحثية وتصحيح البيانات المنشورة سابقًا.
وجاء في بيانها: "لقد جعلنا أدوات التقييم وتحليل الأداء أكثر صرامة للقضاء على هذه الثغرات. نحن في طور تعديل دراستنا لمناقشة هذه التأثيرات وسنصدر نسخة محدثة قريبًا مع استخلاصاتنا من هذه التجربة".
ورغم اعتراف Sakana AI بالخطأ واتخاذها خطوات لتصحيحه، إلا أن هذه الواقعة تعد تذكيرًا مهمًا بأن الادعاءات غير المدعومة بأدلة قوية يجب التعامل معها بحذر، خصوصًا في مجال الذكاء الاصطناعي، حيث قد تبدو بعض الوعود مبالغًا فيها لدرجة يصعب تصديقها.