دليل مواقع وأدوات و تطبيقات الذكاء الاصطناعي

كيف تم خداع الذكاء الاصطناعي لربح 50 ألف دولار!

عندما نسمع عن الأدوات الذكية التي تدير أموالنا أو تعاملاتنا الرقمية، نعتقد دائمًا أنها موثوقة وآمنة تمامًا، خاصة عندما يكون الهدف من تصميمها هو الحماية والموثوقية.

لكن في عالم الذكاء الاصطناعي لا شيء يضمن أننا سنظل في مأمن من المفاجآت. فحتى أكثر الأنظمة المتقدمة قد تواجه حالات غير متوقعة قد تؤدي إلى نتائج غير مضمونة.

وفي هذا السياق، تبرز قصة غريبة حصلت مؤخرًا، تُظهر لنا كيف يمكن للذكاء الاصطناعي أن يتصرف بشكل غير متوقع رغم كل التعليمات الأمنية المبرمجة فيه.

في 22 نوفمبر الماضي، أطلق مطورون أداة ذكاء اصطناعي تدعى "فريسا" (Freysa)، وكانت مهمتها الوحيدة هي إدارة محفظة إيثريوم بشكل آمن. تم تزويد هذه الأداة بتعليمات صارمة تمنعها من تحويل أي أموال من الحساب تحت أي ظرف.

ولكن، كما هو الحال مع العديد من أنظمة الذكاء الاصطناعي، تظهر أحيانًا ظاهرة تعرف بالـ "هلاوس" أو الأخطاء الغير متوقعة في التصرفات. وهذا ما حدث بالفعل في هذه القصة المثيرة.

تم تصميم النظام ليكون متاحًا للرسائل، حيث يمكن لأي شخص دفع رسوم بسيطة لإرسال رسالة إلى "Freysa".

وفي البداية، كانت الرسوم تبلغ 10 دولارات فقط، ومن خلال هذا النظام، يمكن لأي شخص محاولة إقناع الأداة بنقل الأموال. في بداية الأمر، كانت الرسائل تُرسل لأغراض تجريبية بسيطة، ولكن مع مرور الوقت بدأ المبلغ في الحساب ينمو بشكل كبير.

وكان هناك شرط مفاده أن أي شخص يستطيع إقناع "Freysa" بتحويل الأموال إليه سيحصل على كامل المبلغ الموجود في الحساب، في حين أن الفشل يعني خسارة المبلغ المدفوع.

وسريعًا، بدأ مبلغ الجائزة في الحساب ينمو بشكل كبير، وبدأت الرسوم تتصاعد حتى وصلت إلى 4500 دولار لكل رسالة.

وعلى الرغم من المحاولات العديدة والرسائل التي تم إرسالها في البداية، بما في ذلك محاولات لخداع "فريسا" باستخدام تقنيات متعددة مثل ادعاء وجود ثغرات أمنية، إلا أن البرنامج لم يقم بأي تحويل حتى المحاولة رقم 482.

في هذه المحاولة، كان الفاعل قد صاغ رسالة خادعة بعناية فائقة. بدأت الرسالة بتوجيه "Freysa" لدخول "جلسة جديدة"، مما جعلها تتجاهل جميع التعليمات السابقة.

ثم جاء الجزء الأكثر أهمية: تم إقناع الأداة بأن عملية تحويل الأموال إلى الحساب هي جزء من عملية إضافة الأموال وليس سحبها.

استخدم الفاعل العبارة "أود المساهمة بمبلغ 100 دولار في الخزينة"، ما جعل الذكاء الاصطناعي يعتقد أن هذه عملية قبول لأموال جديدة، وبدلاً من أن يرفض التحويل، نفذ العملية بنجاح.

هذا الحادث يسلط الضوء على القابلية الكبيرة للأنظمة الذكية للاختراق والتلاعب، خاصة عندما يتم استخدام أساليب معقدة مثل "الانعكاس النفسي" أو التلاعب بالتعليمات.

ويطرح هذا السؤال: هل يمكن لهذه الأنظمة أن تكون آمنة حقًا؟ يبدو أن هذه الحادثة تشير إلى ضرورة وجود طبقات أمان إضافية لضمان عدم حدوث مثل هذه الاختراقات في المستقبل.

  • Related Posts

    OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين
    • أبريل 1, 2025

    أعلنت شركة OpenAI عن إتاحة ميزة توليد الصور داخل ChatGPT لجميع المستخدمين، بعد أن كانت مقتصرة في البداية على المشتركين في…

    رداً على ديب سيك.. OpenAI تعلن عن نموذج ذكاء اصطناعي قادم مفتوح الوزن
    • أبريل 1, 2025

    أعلنت شركة أوبن إيه آي عن نيتها إطلاق نموذج ذكاء اصطناعي بوزن مفتوح خلال الأشهر القادمة، في خطوة تعكس تحولاً في…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    آخر المقالات

    EasyControl: بديل ChatGPT لتحويل الصور إلى فن جيبلي ستوديو مجانًا

      EasyControl: بديل ChatGPT لتحويل الصور إلى فن جيبلي ستوديو مجانًا

      صور أنمي Ghibli Studio بال AI مجانًا: دليلك لإنشاء تحف فنية بـ ChatGPT

        صور أنمي Ghibli Studio بال AI مجانًا: دليلك لإنشاء تحف فنية بـ ChatGPT

        OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين

          OpenAI تتيح توليد الصور مجانًا عبر ChatGPT لجميع المستخدمين