دليل مواقع وأدوات و تطبيقات الذكاء الاصطناعي

هل الذكاء الاصطناعي يجعلنا أغبياء؟

في كل عصر، تظهر المخاوف بشأن تأثير التكنولوجيا على القدرات العقلية.

من الكتابة التي انتقدها سقراط، إلى الطباعة التي تم اعتبارها تهديدًا للذاكرة البشرية، ثم الحاسبات التي قيل إنها ستجعلنا أغبياء في الحساب.

واليوم، يتم طرح السؤال ذاته: هل يؤدي الاعتماد على الذكاء الاصطناعي، وخاصة ChatGPT، إلى تراجع مهارات التفكير النقدي لدينا؟

وضعت دراسة حديثة أجرتها جامعة كارنيجي ميلون ومايكروسوفت هذه الفرضية تحت الاختبار.

والنتائج كانت واضحة: المستخدمون الذين يثقون في الذكاء الاصطناعي أكثر، يبذلون جهدًا أقل في التحقق من المعلومات. وهذا بدوره يؤدي إلى تآكل تدريجي في قدراتهم على التحليل والاستنتاج.

ولكن، هل هذا التأثير حتمي؟ وهل يمكن الحد منه؟

كيف يغيّر الذكاء الاصطناعي طريقة التفكير؟

شملت الدراسة 319 مشاركًا من مهن متنوعة (مثل المبرمجين والمعلمين والمهندسين)، قدموا 936 مثالًا عمليًا لاستخدامهم أدوات الذكاء الاصطناعي في العمل.

ووجدت أنهم غالبًا ما يستخدمونها في مهام مثل

  • الإنتاج: مثل كتابة التقارير والرسائل الرسمية.
  • البحث: كتلخيص المقالات أو البحث عن المعلومات.
  • الاستشارة: مثل طلب النصيحة أو تحليل البيانات.

ولكن عند تحليل كيفية تفاعل المستخدمين مع هذه المهام، تم اكتشاف نمط مقلق: بدلاً من الاعتماد على قدراتهم العقلية في التقييم، أصبح دورهم أشبه بالمراقب، يكتفي بالتحقق ما إذا كانت الإجابة "مقبولة" أم لا. وهنا تكمن المشكلة.

وجاء في نص الدراسة

"عندما يعتمد المستخدم على الذكاء الاصطناعي للقيام بالعمل بدلاً منه، فإنه يُحرم من فرصة ممارسة مهارات التفكير النقدي الخاصة به، وهو ما يجعلها تضعف بمرور الوقت".

 

الثقة العمياء بالذكاء الاصطناعي: هل تؤدي إلى تراجع القدرات؟

أحد أخطر النتائج التي توصلت إليها الدراسة أن الثقة في الذكاء الاصطناعي تتناسب عكسيًا مع التفكير النقدي.

أي أنه كلما زادت ثقة الشخص في ChatGPT، قلّ المجهود الذي يبذله في التدقيق والمراجعة.

على سبيل المثال للممارسة الجيدة، إحدى المشاركات استخدمت ChatGPT لصياغة تقييم لأداء زميلها، لكنها راجعته بحذر خوفًا من أن يحتوي على أخطاء قد تؤثر على مستقبلها المهني.

ولكن في المقابل، أرسل مستخدم آخر بريدًا إلكترونيًا لمديره بعد تعديلات طفيفة، لكنه اضطر لاحقًا إلى تبرير بعض العبارات التي لم تكن مناسبة في سياق بيئة العمل الرسمية.

ووجدت الدراسة أن 36% فقط من المستخدمين مارسوا نوعًا من التفكير النقدي أثناء استخدامهم للذكاء الاصطناعي.

بينما البقية تعاملوا مع إجابات ChatGPT على أنها صحيحة دون فحص دقيق..

الخطر عندما يصبح الذكاء الاصطناعي مرجعك الوحيد

ومن الظواهر الأخرى التي رصدتها الدراسة أن المستخدمين الذين يعتمدون على الذكاء الاصطناعي بشكل متكرر، يميلون إلى إنتاج محتوى متشابه إلى حد كبير.

بمعنى آخر، بدلاً من أن يعزز ChatGPT التنوع في التفكير، فإنه يؤدي إلى "توحيد" الطريقة التي يتم كتابة المحتوى بها.

ويعتبر هذا الأمر خطيرًا لأنه يقلل من الإبداع والاختلاف بين الأفراد.

يصف أحد المشاركين هذا قائلاً: "عندما أطلب من ChatGPT المساعدة في كتابة تقرير، أحصل دائمًا على هيكل مشابه، مما يجعل عملي يبدو وكأنه مكتوب بنفس الأسلوب مرارًا وتكرارًا."

إن الذكاء الاصطناعي قد يخدعك بإجابات تبدو مقنعة، ولكنها غير دقيقة.

وهذه الدراسة لا تدعو إلى التوقف عن استخدامه إطلاقًا، لكنها تشير إلى ضرورة التعامل معه بوعي أكبر.

فالحل يتوقف على اتباع استراتيجية تجعل من ChatGPT أداة مساعدة، وليس بديلاً عن التفكير البشري

على سبيل المثال، بدلاً من قبول الإجابة كما هي، يمكنك استخدامها كنقطة انطلاق للمزيد من البحث والتدقيق.

وفي هذا السياق، أشار أحد المشاركين في الدراسة إلى أنه عندما يستخدم ChatGPT للبحث عن معلومات، فإنه يتأكد من صحتها عبر مصادر أخرى مثل الدراسات الأكاديمية أو المواقع المتخصصة.

ولكن ماذا لو كان الشخص غير مدرك لحدود الذكاء الاصطناعي؟

في الواقع هنا تتجلى الإشكالية الحقيقية.

فالأشخاص الذين يفتقرون إلى الوعي بحدود قدرات ChatGPT، يكونون أكثر عرضة لتقبل المعلومات الخاطئة دون مساءلة.

إن التحدي الأكبر يكمن في كيفية استخدامه دون أن يتحول إلى عكاز نعتمد عليه بالكامل، مما يجعل قدراتنا النقدية تضعف مع الوقت.

الأمر ليس مجرد قلق نظري، بل حقيقة مدعومة بدراسات علمية، كما أظهرت الأبحاث التي أجرتها جامعة كارنيجي ميلون ومايكروسوفت.

وأفضل النماذج مثل ChatGPT و DeepSeek يمكن أن تختلف إجاباتها في القرارات المصيرية.

ولذلك يبقى الخط الأول للدفاع هو التفكير النقدي والتحوط.

Related Posts

Huginn-3.5B: نموذج جديد يغير شكل صناعة الذكاء الاصطناعي
  • فبراير 14, 2025

عند الحديث عن تحسين قدرة الذكاء الاصطناعي على الاستدلال، غالبًا ما يتجه الباحثون إلى زيادة حجم النموذج أو استخدام أساليب مثل…

اقرأ المزيد

ChatGPTو Gemini يشوهان الحقائق عند تلخيص الأخبار
  • فبراير 12, 2025

كشفت دراسة حديثة أجرتها هيئة الإذاعة البريطانية (BBC) عن أخطاء كبيرة ترتكبها أنظمة الذكاء الاصطناعي عند تلخيص الأخبار، ما يثير تساؤلات…

اقرأ المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

آخر المقالات

QwQ-32B: كل ما تريد معرفته عن نموذج على بابا الجديد منافس DeepSeek-R1

    QwQ-32B: كل ما تريد معرفته عن نموذج على بابا الجديد منافس DeepSeek-R1

    الآن على X: اسأل Grok مباشرة لفهم أي منشور في التعليقات

      الآن على X: اسأل Grok مباشرة لفهم أي منشور في التعليقات

      Mistral OCR: الحل الذكي لمعالجة مستندات PDF المعقدة بالذكاء الاصطناعي

        Mistral OCR: الحل الذكي لمعالجة مستندات PDF المعقدة بالذكاء الاصطناعي