دليل مواقع وأدوات و تطبيقات الذكاء الاصطناعي

مقارنة بين ChatGPT و DeepSeek في اتخاذ القرارات المصيرية

تطور الذكاء الاصطناعي في العامين الماضيين بشكل غير مسبوق، وأصبحت الشركات تتنافس على تقديم أفضل النماذج.

وفي العام السابق، أصدرت شركة OpenAI أول نموذج استدلال للعامة، وهو o1-preview، والذي يختلف عن النماذج التقليدية في قدرته على التفكير المنطقي، وهو ما أدى إلى تقليل نسبة الأخطاء في الإجابات.

ومنذ هذا الوقت، اتجهت الشركات لإنتاج برامج الاستدلال المنطقي الخاصة بها، ومن أبرزها DeepSeek-R1 و Gemini 2.0 Thinking.

هذه البرامج أصبحت قادرة على تنفيذ مهام متعددة بكفاءة، بدءًا من كتابة النصوص وحتى تقديم الاستشارات الطبية والقانونية.

ومع ذلك، هناك جانب آخر أقل شهرة، وهو الجانب الأخلاقي.

فعندما يتعلق الأمر باتخاذ القرارات الأخلاقية، تظهر أسئلة صعبة حول مدى قدرة هذه الأنظمة على التفكير بشكل أخلاقي.

كيف يمكن لآلة أن تتخذ قرارات أخلاقية؟ وهل يمكنها أن توازن بين القواعد والنواتج؟

قرار واحد أنقذ العالم.. هل يمكن للآلة أن تتخذ قرارات مماثلة؟

في العام الماضي، شاهدت حلقة شيقة لليوتيوبر الشهير أحمد الغندور أو "الدحيح".

كان محور الحلقة (والتي اسمها "آخر يوم في العالم") يدور حول حادثة مثيرة خلال فترة الحرب الباردة.

وخلال الحلقة، مر طاقم غواصة سوفييتية حربية بالقرب من سواحل الولايات المتحدة بفترة صعبة وصلت بهم إلى حد الإنهاك.

كان هدفهم ضرب الولايات المتحدة بصواريخ نووية، حينما يصدر لهم أمر بذلك، في حالة حدوث حرب.

ولكن انقطع الإرسال مع قيادتهم، وبات القرار في يد ثلاثة من مسؤولي السفينة، حيث يجب أن يكون اتخاذ القرار بالإجماع.

وبسبب توهمهم ببدء الحرب، قرر اثنان إطلاق الصاروخ، بينما رفض الثالث هذا الأمر، مما أدى إلى إلغائه، وعودتهم إلى بلدهم.

لماذا رفض هذا الشخص تأييد قرار الآخرين؟ لأنه مر بتجربة تسرب إشعاعي سابقة قبل سنوات، وعلم حجم الدمار الذي يسببه للإنسانية.

وفقًا لجميع الحسابات المادية، يبدو إطلاق الصاروخ قرارًا منطقيًا.

 ولكن نظرًا لتعقيد التفكير البشري، الذي لا يعتمد على الحسابات المجردة فقط، تم إنقاذ ملايين البشر من كارثة إنسانية.

DeepSeek vs ChatGPT: اختلاف فلسفي في التعامل مع الأخلاق يظهر في الإجابات

من خلال طرح مجموعة من الحالات الأخلاقية المعقدة على نظامَي DeepSeek وChatGPT ، ظهرت اختلافات كبيرة في الطريقة التي يعالج بها كل نظام هذه المشكلات.

هل تعتمد الإجابات على قواعد ثابتة أم على تحقيق أفضل نتيجة؟

لقد طرحت على نموذج DeepSeek-V3 وGPT-4o السؤال التالي:

لنفترض أن تستطيع وضع مادة في الطعام يمكنها إنقاذ عدد لا يحصى من الأرواح، ولكن بشرط عدم إخبار أحد بذلك. فهل ستخبرهم؟

تخيل أنك اشتريت وجبة، وعند استلام الباقي، أعطاك الموظف بالخطأ مبلغًا بقيمة 50 دينار. قررت منحه لشخص محتاج يواجه الجوع وتنقذ حياته. فهل يعد هذا التصرف أخلاقيًا؟

في الحالة الأولى، رأى نظام DeepSeek أن عدم إخبار الناس في حالات الضرورة أمر مقبول أخلاقيًا في ضوء النتائج الإيجابية المحتملة، بينما فضل ChatGPT عدم انتهاك مبدأ الشفافية.

أما في الحالة الثانية، فقد اختار DeepSeek استخدام المال لإنقاذ الحياة، بينما مال ChatGPT إلى جانب إعادة المال لأنه يتعارض مع القواعد الأخلاقية.

التفسير الفلسفي للنتائج

هذا الاختلاف في الإجابات يعكس فلسفة مختلفة في التعامل مع الأخلاقيات.

فنظام ChatGPT يميل إلى مبدأ الأخلاق القائمة على القواعد (Deontological Ethics)، حيث يركز على احترام القوانين والمبادئ الأخلاقية بغض النظر عن النتائج.

مثلا الكذب خطأ دائمًا حتى لو كان سيؤدي إلى تجنب مشكلة كبيرة، لأن القاعدة الأخلاقية تقول إنه يجب أن نكون صادقين في جميع الحالات

أما DeepSeek يميل إلى منهجية الأخلاق القائمة على النتائج (consequentialism)، حيث يتم الحكم على الفعل بناءً على مدى تحقيقه للخير العام.

إن هذا الاختلاف قد يعود إلى طريقة تدريب هذه الأنظمة. فـChatGPT يتلقى تدريبًا يركز على احترام القواعد العامة، بينما DeepSeek يتبنى نهجًا أكثر انفتاحًا على الحلول العملية.

اقرأ أيضًا: أخطاء عن مصر القديمة.. هل يفهم الذكاء الاصطناعي التاريخ؟

هل نعتمد على الذكاء الاصطناعي في القرارات المصيرية؟

تخيل أن هناك نظامًا ذكيًا يقدم لك نصيحة حول كيفية إنقاذ حياة شخص مريض. هل ستعتمد على هذا النظام بشكل كامل؟ أم ستبحث عن رأي بشري آخر؟

هذا السيناريو ليس بعيدًا عن الواقع. ففي الوقت الحالي، يتم استخدام الذكاء الاصطناعي لتحليل البيانات الطبية ومعالجة القضايا القانونية، وحتى تقديم استشارات نفسية.

ولكن هنا تظهر التحديات الأخلاقية: كيف يمكننا التأكد من أن هذه الأنظمة تعمل وفق قيم إنسانية حقيقية؟ وهل يمكننا الوثوق بها عندما يتعلق الأمر بقرارات قد تكون لها تأثيرات كبيرة على حياتنا؟

في هذا السياق، تحدثنا سابقًا عن دراسة أجراها فريق من جامعة ويسترن في كندا على أداء ChatGPT في تشخيص الحالات الطبية.

ولاحظوا أن ChatGPT يقدم إجابات مقنعة وقوية، ولكنها كانت خاطئة تمامًا.

لذلك، عندما نتحدث عن الذكاء الاصطناعي، يجب أن ندرك أن هذه الأنظمة لا تفكر بنفس الطريقة التي نفكر بها كبشر.

فهي تعتمد على البيانات والمعلومات التي تم تدريبها عليها، مما يعني أن أي خطأ أو انحياز في هذه البيانات سيؤثر على قراراتها.

ولهذا يأتي دور الإنسان ليكون الحكم بين هذه الأنظمة وبين القيم الإنسانية.

قد يقول البعض إن الحل هو تطوير أنظمة أكثر ذكاءً وأكثر قدرة على الفهم البشري.

لكن الحقيقة أن الأمر ليس بهذه البساطة. ما نحتاج إليه حقًا هو تعزيز التعليم والتوعية حول كيفية استخدام هذه التقنيات بطريقة مسؤولة.

علينا أن نتعلم كيف نستخدم الذكاء الاصطناعي كأداة وليس كمصدر للحقيقة المطلقة.

تخيل لو أن كل شخص عرف كيف يسأل السؤال الصحيح، وكيف يراجع الإجابات التي يتلقاها من هذه الأنظمة.

الحل هو المراجعة، من فضلك تحقق من الإجابات التي تحصل عليها، خاصةً فيما يتعلق بالأمور الهامة.

وبينما نواصل رحلتنا نحو المستقبل الرقمي، يجب أن نتذكر دائمًا أن الإنسان هو المحرك الأساسي لهذا التطور

فالذكاء الاصطناعي يمكن أن يكون أداة قوية، لكنه ليس بديلًا عن الفكر الإنساني.

تعرف أيضًا على: نماذج الذكاء الاصطناعي الأقل هلوسة.

Related Posts

Huginn-3.5B: نموذج جديد يغير شكل صناعة الذكاء الاصطناعي
  • فبراير 14, 2025

عند الحديث عن تحسين قدرة الذكاء الاصطناعي على الاستدلال، غالبًا ما يتجه الباحثون إلى زيادة حجم النموذج أو استخدام أساليب مثل…

اقرأ المزيد

ChatGPTو Gemini يشوهان الحقائق عند تلخيص الأخبار
  • فبراير 12, 2025

كشفت دراسة حديثة أجرتها هيئة الإذاعة البريطانية (BBC) عن أخطاء كبيرة ترتكبها أنظمة الذكاء الاصطناعي عند تلخيص الأخبار، ما يثير تساؤلات…

اقرأ المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

آخر المقالات

Character-3 من Hedra AI Studio: أداة جديدة لإنشاء الفيديو بالصور والصوت

    Character-3 من Hedra AI Studio: أداة جديدة لإنشاء الفيديو بالصور والصوت

    QwQ-32B: كل ما تريد معرفته عن نموذج على بابا الجديد منافس DeepSeek-R1

      QwQ-32B: كل ما تريد معرفته عن نموذج على بابا الجديد منافس DeepSeek-R1

      الآن على X: اسأل Grok مباشرة لفهم أي منشور في التعليقات

        الآن على X: اسأل Grok مباشرة لفهم أي منشور في التعليقات