منذ أيام قليلة، أطلق معهد الابتكار التكنولوجي التابع لمجلس أبحاث التكنولوجيا المتقدمة في أبوظبي نموذجاً لغوياً كبيراً جديداً ضمن سلسلة "فالكون" باسم "Falcon Mamba 7B".
والذي يُعتبر حالياً أفضل نموذج مفتوح المصدر عالمياً من نوع State Space Language Model (SSLM)، و ذلك وفقًا لتقارير المعهد و التي سوف نذكرها لاحقًا.
وفي هذه المقالة سوف نشرح بشكل شامل ومبسط:
- ما هو هذا النموذج
- ما الذي يجعله مميزاً
- مقارنته مع النماذج الأخرى
- كيفية الإستخدام
- كما سأنقل لكم تجربتي الشخصية مع النموذج
ما هو Falcon Mamba 7B؟
فالكون مامبا هو نموذج لغة يعتمد على تصميم جديد يُعرف بـ State Space Language Model (SSLM).
تُساعد طريقة عمل SSLM على تحسين أداء النظام ، و تُمكنه من معالجة النصوص الطويلة بشكل أكثر فعالية. حيث يمكن لهذا النموذج معالجة النصوص التي تتجاوز طاقة معالجة نماذج "الترانسفورمر" ، مثل الكتب والوثائق الطويلة.
هذا التصميم يمكن تشبيهه بطريقة عمل جديدة تتيح للنموذج قراءة وفهم النصوص الطويلة بفاعلية أكبر، دون الحاجة إلى ذاكرة ضخمة.
وهو ما سنشرحه بالتفصيل في الفقرة القادمة.
ما الذي يميز Falcon Mamba 7B؟
ما يُميّز "فالكون مامبا" عن النماذج الأخرى هو عدة عوامل، منها:
١. كفاءة في التعامل مع النصوص الطويلة: عادةً ما تعاني النماذج التقليدية من صعوبة في معالجة النصوص الطويلة بسبب الحاجة إلى ذاكرة كبيرة. ولكن هذا النموذج الجديد يمكنه التعامل مع هذه النصوص بسلاسة وبدون استهلاك كبير للذاكرة.
دعني أوضح لك هذا الأمر بطريقة أبسط.
النماذج التقليدية مثل "المحولات - Transformers" تعتمد على مقارنة الكلمات ببعضها البعض لفهم النصوص.
فعلى سبيل المثال، إذا كنت تقرأ جملة، يقوم النموذج التقليدي بالنظر إلى الكلمات بجانب بعضها ومحاولة استنتاج المعنى من خلال تلك المقارنة.
لكن في نموذج Falcon Mamba 7B، الأمور مختلفة. هذا النموذج يستخدم مفهوم يُسمى (SSLM).
تخيل أن النموذج يقوم بتحديث نفسه باستمرار بينما يقرأ النص، كما لو كان يتابع نص طويل بخطوة ثابتة ويتذكر كل التفاصيل بشكل منظم.
هذه القدرة تمنحه ميزة التعامل مع نصوص طويلة جدًا بدون الحاجة إلى ذاكرة ضخمة.
حسناً، وبم يفيد هذا؟
هذا يعني أنه يمكن لهذا النموذج معالجة وفهم النصوص الكبيرة بشكل أسرع وأكثر فعالية، مما يجعله مثاليًا للاستخدامات التي تتطلب التعامل مع كميات كبيرة من البيانات النصية، مثل تحليل الوثائق الكبيرة أو الترجمة الآلية.
وسأطرح عليك مثالاً لكى تصل لك الأمور بشكل جيد، إذا أعطيت هذا النموذج مستند طويل أو كتاب ، فإنه لديه ذاكرة قوية جدًا.
حيث يستطيع تذكر كل شيء يقرأه بدون أن ينسى التفاصيل حتى لو كان نص الكتاب طويلًا جدًا. هذا ما يجعل هذا الإصدار مميزًا ويتيح له أداء أفضل مقارنة بالنماذج الأخرى.
٢. أداء عالي: في الاختبارات القياسية، تغلب Falcon Mamba 7B على نماذج معروفة مثل Llama 3.1 8B و Mistral 7B، مما يثبت أنه أكثر كفاءة في فهم النصوص وتحليلها.
و بفضل هذه الميزات، يمكن استخدام Falcon Mamba 7B في مجموعة واسعة من التطبيقات، بدءًا من تحليل النصوص الكبيرة وحتى توليد النصوص الطويلة بشكل مستمر.
تعرف أيضًا على مزايا نموذج الذكاء الاصطناعي Qwen2-Math من Alibaba.
مقارنة مع النماذج الأخرى
لتوضيح قوة Falcon Mamba 7B، يمكننا النظر إلى الجدول المرفق في الصورة السابقة و الذي نشره معهد الابتكار التكنولوجي (TII)، حيث يظهر نتائجه مقارنة مع نماذج أخرى مثل Mistral 7B و Llama 3.1 8B.
تُظهر البيانات أن Falcon Mamba 7B يتفوق في العديد من المهام مثل IFEval و BBH و MATH Lvl 5.
بالإضافة إلى ذلك، تُوضّح صورة الرسم البياني التالية أنه يمكن للنموذج التعامل مع أطوال سياقية أكبر على وحدة معالجة الرسومات NVIDIA A10 بسعة 24 جيجابايت، مما يعزز من كفاءته في التعامل مع النصوص الطويلة.
كيفية استخدام Falcon Mamba 7B، و التجربة الشخصية
النموذج متاح على منصة Hugging Face، مما يجعله في متناول الجميع من باحثين، مطورين، وحتى الأشخاص العاديين الذين يرغبون في استكشاف قدراته.
يمكنك الاطلاع على النموذج و تجربته من هنا.
و قد لاحظت خلال تجربتي أنّ أداء النموذج في اللغة العربية لم يكن على نفس مستوى الأداء في اللغة الإنجليزية. فقد وجدت أنّ النموذج يُمكنه معالجة نصوص طويلة باللغة الإنجليزية بشكل أفضل.
وهذا يُشير إلى أنّ النموذج لا يزال في مرحلة تطوير، ويحتاج إلى تحسينات لِضمان أداء أفضل في اللغات المُختلفة.