
أصدرت شركة "أنثروبيك"، المتخصصة في أبحاث الذكاء الاصطناعي، دليلاً إرشاديًا يوضح كيفية صياغة الأوامر والنصوص بفاعلية للحصول على أفضل النتائج من نماذجها اللغوية.
يأتي هذا الدليل في وقت أصبحت فيه مهارة "هندسة الأوامر" واحدة من أهم المهارات في العصر الرقمي الحالي.
وأشارت الشركة في دليلها إلى أن الطريقة المثلى للتعامل مع روبوت الدردشة "Claude" التابع لها، تكون عبر اعتباره "موظفًا لامع الذكاء، ولكنه جديد تمامًا في العمل ويعاني من فقدان للذاكرة".
وبذلك، تستدعي هذه المقاربة من المستخدم تقديم تعليمات واضحة ومفصلة لتحقيق الهدف المطلوب.
التحديد هو مفتاح النجاح
أفاد الدليل أن تزويد النموذج اللغوي بمعلومات دقيقة ومحددة يقود إلى استجابات أفضل بكثير.
وتنصح "Anthropic" المستخدمين بتوضيح سياق الطلب بشكل كامل.
على سبيل المثال، يجب تحديد الجمهور المستهدف من النص، والغرض النهائي من المهمة، والأسلوب المطلوب للكتابة.
فكلما كانت التعليمات أكثر تنظيمًا، اقتربت النتائج من التوقعات.
وتقترح الشركة أيضًا تنظيم الطلبات على شكل نقاط أو قوائم مرقمة لزيادة الوضوح.
قوة الأمثلة في تحسين الجودة
في هذا الإطار، وصفت "أنثروبيك" الأمثلة بأنها "السلاح السري" للحصول على المخرجات المرغوبة بدقة.
فعندما يقدم المستخدم نماذج جيدة الصياغة ضمن طلبه، فإنه يوجه النموذج اللغوي لإنتاج محتوى يتسم بالدقة والاتساق والجودة العالية.
وتعرف هذه الاستراتيجية أحيانًا باسم "التوجيه متعدد المحاولات"، وهي تقلل من احتمالات سوء التفسير وتفرض على الذكاء الاصطناعي الالتزام بأسلوب وهيكل محددين.
امنحه فرصة للتفكير
من ناحية أخرى، أوضحت الشركة أن منح النموذج اللغوي مساحة للتفكير خطوة بخطوة يحسن من أدائه بشكل ملحوظ.
هذه التقنية، المعروفة باسم "سلسلة التفكير"، تشجع الذكاء الاصطناعي على تحليل المشكلات وتفكيكها إلى مراحل متسلسلة قبل الوصول إلى إجابة نهائية.
وذلك الأسلوب في التفكير العميق ينتج عنه توصيات أكثر ثقة ومنطقية.
ومنذ إطلاق أول نموذج تفكير للعامة -o1 preview من OpenAI- وأصبح هذا هو الاتجاه السائد لكبرى الشركات في تصميم نماذجها.
وقد بدأت "Anthropic" ذلك النهج عندما أطلقت في وقت سابق هذا العام نموذجها "Claude 3.7 Sonnet"، والذي يعتبر أول نماذجها الهجينة التي تجمع بين قدرات النماذج التقليدية مع قدرات الاستدلال.
استراتيجية لعب الأدوار
إضافة إلى ذلك، يعتبر إسناد دور معين للنموذج اللغوي من أقوى الاستراتيجيات للحصول على استجابات متخصصة.
فعندما تطلب منه أن يتصرف "كمحرر أخبار" أو "مخطط مالي"، فإنك تضبط أسلوبه ونبرته ليتوافقا مع الدور المحدد.
وتضمن هذه الطريقة أن تكون النتائج متوافقة تمامًا مع رؤية المستخدم، سواء كان يبحث عن الإيجاز الصحفي أو العمق الأكاديمي.
الحد من المعلومات المغلوطة
رغم تطورها، قد تقدم روبوتات الدردشة معلومات غير دقيقة أحيانًا.
ولمواجهة هذا التحدي، تقترح "أنثروبيك" حلولاً عملية. أبرز هذه الحلول هو السماح للنموذج اللغوي بالاعتراف بعدم المعرفة، عبر إضافة عبارة مثل "إذا لم تكن تعرف الإجابة، قل لا أعرف".
هذا الإذن البسيط يقلل بشكل كبير من ظهور المعلومات الخاطئة.
كما يمكن للمستخدم أن يطلب من الروبوت الاستشهاد بمصادره وتأكيد صحة ادعاءاته من خلال البحث عن اقتباسات داعمة بعد إنشاء الاستجابة. وإذا لم يجد مصدرًا موثوقًا، يجب عليه التراجع عن الادعاء.
https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview