دليل مواقع وأدوات و تطبيقات الذكاء الاصطناعي

شركة عربية تطلق نموذج متقدم: Falcon Mamba 7B لِمعالجة النصوص الطويلة

منذ أيام قليلة، أطلق معهد الابتكار التكنولوجي التابع لمجلس أبحاث التكنولوجيا المتقدمة في أبوظبي نموذجاً لغوياً كبيراً جديداً ضمن سلسلة "فالكون" باسم "Falcon Mamba 7B".

والذي يُعتبر حالياً أفضل نموذج مفتوح المصدر عالمياً من نوع State Space Language Model (SSLM)، و ذلك وفقًا لتقارير المعهد و التي سوف نذكرها لاحقًا.

وفي هذه المقالة سوف نشرح بشكل شامل ومبسط:

  • ما هو هذا النموذج
  • ما الذي يجعله مميزاً
  • مقارنته مع النماذج الأخرى
  • كيفية الإستخدام 
  • كما سأنقل لكم تجربتي الشخصية مع النموذج

ما هو Falcon Mamba 7B؟

فالكون مامبا هو نموذج لغة يعتمد على تصميم جديد يُعرف بـ State Space Language Model (SSLM).

تُساعد طريقة عمل SSLM على تحسين أداء النظام ، و تُمكنه من معالجة النصوص الطويلة بشكل أكثر فعالية. حيث يمكن لهذا النموذج معالجة النصوص التي تتجاوز طاقة معالجة نماذج "الترانسفورمر" ، مثل الكتب والوثائق الطويلة.

هذا التصميم يمكن تشبيهه بطريقة عمل جديدة تتيح للنموذج قراءة وفهم النصوص الطويلة بفاعلية أكبر، دون الحاجة إلى ذاكرة ضخمة.

وهو ما سنشرحه بالتفصيل في الفقرة القادمة.

ما الذي يميز Falcon Mamba 7B؟

تجربة Falcon Mamba 7B مع نص طويل باللغة الإنجليزية
تُظهر هذه الصورة فالكون مامبا و هو يُقدم ملخصًا مُفصّلًا لتاريخ الإمبراطورية الرومانية باللغة الإنجليزية ، وهو ما يُبين قدرة النموذج على التعامل مع النصوص الطويلة.

ما يُميّز "فالكون مامبا" عن النماذج الأخرى هو عدة عوامل، منها:

١. كفاءة في التعامل مع النصوص الطويلة: عادةً ما تعاني النماذج التقليدية من صعوبة في معالجة النصوص الطويلة بسبب الحاجة إلى ذاكرة كبيرة. ولكن هذا النموذج الجديد يمكنه التعامل مع هذه النصوص بسلاسة وبدون استهلاك كبير للذاكرة.

 

دعني أوضح لك هذا الأمر بطريقة أبسط.

النماذج التقليدية مثل "المحولات - Transformers" تعتمد على مقارنة الكلمات ببعضها البعض لفهم النصوص.

فعلى سبيل المثال، إذا كنت تقرأ جملة، يقوم النموذج التقليدي بالنظر إلى الكلمات بجانب بعضها ومحاولة استنتاج المعنى من خلال تلك المقارنة.

لكن في نموذج Falcon Mamba 7B، الأمور مختلفة. هذا النموذج يستخدم مفهوم يُسمى (SSLM).

تخيل أن النموذج يقوم بتحديث نفسه باستمرار بينما يقرأ النص، كما لو كان يتابع نص طويل بخطوة ثابتة ويتذكر كل التفاصيل بشكل منظم.

هذه القدرة تمنحه ميزة التعامل مع نصوص طويلة جدًا بدون الحاجة إلى ذاكرة ضخمة.

 

حسناً، وبم يفيد هذا؟

هذا يعني أنه يمكن لهذا النموذج معالجة وفهم النصوص الكبيرة بشكل أسرع وأكثر فعالية، مما يجعله مثاليًا للاستخدامات التي تتطلب التعامل مع كميات كبيرة من البيانات النصية، مثل تحليل الوثائق الكبيرة أو الترجمة الآلية.

 

وسأطرح عليك مثالاً لكى تصل لك الأمور بشكل جيد، إذا أعطيت هذا النموذج مستند طويل أو كتاب ، فإنه لديه ذاكرة قوية جدًا.

حيث يستطيع تذكر كل شيء يقرأه بدون أن ينسى التفاصيل حتى لو كان نص الكتاب طويلًا جدًا. هذا ما يجعل هذا الإصدار مميزًا ويتيح له أداء أفضل مقارنة بالنماذج الأخرى.

 

٢. أداء عالي: في الاختبارات القياسية، تغلب Falcon Mamba 7B على نماذج معروفة مثل Llama 3.1 8B و Mistral 7B، مما يثبت أنه أكثر كفاءة في فهم النصوص وتحليلها.

و بفضل هذه الميزات، يمكن استخدام Falcon Mamba 7B في مجموعة واسعة من التطبيقات، بدءًا من تحليل النصوص الكبيرة وحتى توليد النصوص الطويلة بشكل مستمر.

تعرف أيضًا على مزايا نموذج الذكاء الاصطناعي Qwen2-Math من Alibaba.


 

مقارنة مع النماذج الأخرى

أداء Falcon Mamba 7B يتفوق على Llama 3.1 8B و Mistral 7B في مهام مختلفة
المصدر: TII

لتوضيح قوة Falcon Mamba 7B، يمكننا النظر إلى الجدول المرفق في الصورة السابقة و الذي نشره معهد الابتكار التكنولوجي (TII)، حيث يظهر نتائجه مقارنة مع نماذج أخرى مثل Mistral 7B و Llama 3.1 8B.

تُظهر البيانات أن Falcon Mamba 7B يتفوق في العديد من المهام مثل IFEval و BBH و MATH Lvl 5.

بالإضافة إلى ذلك، تُوضّح صورة الرسم البياني التالية أنه يمكن للنموذج التعامل مع أطوال سياقية أكبر على وحدة معالجة الرسومات NVIDIA A10 بسعة 24 جيجابايت، مما يعزز من كفاءته في التعامل مع النصوص الطويلة.

Falcon Mamba 7B يُمكنه التعامل مع نصوص أطول من نماذج لغة أخرى على معالج رسومات واحد

كيفية استخدام Falcon Mamba 7B، و التجربة الشخصية

النموذج متاح على منصة Hugging Face، مما يجعله في متناول الجميع من باحثين، مطورين، وحتى الأشخاص العاديين الذين يرغبون في استكشاف قدراته.

يمكنك الاطلاع على النموذج و تجربته من هنا.

تجربة Falcon Mamba 7B مع نص طويل باللغة العربية
تُظهر الصورة Falcon Mamba 7B يُقدم ردًا غير مُناسب لمُطالبة باللغة العربية، وهو ما يُبين أنّ النموذج لا يزال في مرحلة التطوير و يحتاج إلى تحسينات.

و قد لاحظت خلال تجربتي أنّ أداء النموذج في اللغة العربية لم يكن على نفس مستوى الأداء في اللغة الإنجليزية. فقد وجدت أنّ النموذج يُمكنه معالجة نصوص طويلة باللغة الإنجليزية بشكل أفضل.

وهذا يُشير إلى أنّ النموذج لا يزال في مرحلة تطوير، ويحتاج إلى تحسينات لِضمان أداء أفضل في اللغات المُختلفة.

Related Posts

OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين
  • أبريل 1, 2025

أعلنت شركة OpenAI عن إتاحة ميزة توليد الصور داخل ChatGPT لجميع المستخدمين، بعد أن كانت مقتصرة في البداية على المشتركين في…

رداً على ديب سيك.. OpenAI تعلن عن نموذج ذكاء اصطناعي قادم مفتوح الوزن
  • أبريل 1, 2025

أعلنت شركة أوبن إيه آي عن نيتها إطلاق نموذج ذكاء اصطناعي بوزن مفتوح خلال الأشهر القادمة، في خطوة تعكس تحولاً في…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

آخر المقالات

EasyControl: بديل ChatGPT لتحويل الصور إلى فن جيبلي ستوديو مجانًا

    EasyControl: بديل ChatGPT لتحويل الصور إلى فن جيبلي ستوديو مجانًا

    صور أنمي Ghibli Studio بال AI مجانًا: دليلك لإنشاء تحف فنية بـ ChatGPT

      صور أنمي Ghibli Studio بال AI مجانًا: دليلك لإنشاء تحف فنية بـ ChatGPT

      OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين

        OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين