سام ألتمان يحذر من الثقة العمياء في ChatGPT

حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على توخي الحذر وعدم الثقة العمياء في الأداة، مشيرًا إلى أن النموذج، على الرغم من قوته، لا يزال عرضة للأخطاء. جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن دهشته من حجم الثقة التي يمنحها المستخدمون لـChatGPT، على الرغم من معرفتهم بمحدوديته.

قال ألتمان: “من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ ‘الهلوسة’ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرًا”.

تحذير واضح رغم الشعبية الواسعة

أثارت هذه التصريحات جدلاً في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة مثل الكتابة، البحث، وتقديم النصائح التربوية. وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يقدم إجابات مقنعة لكنها قد تكون غير صحيحة أو مضللة.

وأوضح أن ChatGPT لا “يفهم” العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية بناءً على البيانات التي تم تدريبه عليها، مما يجعله أحيانًا يقدم معلومات مغلوطة أو مختلقة تمامًا، وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم “الهلوسة”. وأكد ألتمان بصراحة: “النموذج ليس موثوقًا تمامًا.. ويجب أن نكون صادقين بشأن ذلك”.

مخاطر الاعتماد المفرط

ورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عند التعامل مع إجاباته وكأنها حقائق مؤكدة. وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء.

كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها تثير أيضًا تساؤلات جديدة حول الخصوصية واستخدام البيانات.

“ثق.. ولكن تحقق”

تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي. فقد عبر جيفري هينتون، المعروف بلقب “عراب الذكاء الاصطناعي”، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: “رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي”.

وأوضح هينتون ذلك من خلال اختبار بسيط: “سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟”، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو “واحدة” سالي نفسها. وعلق هينتون: “ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه”، مضيفًا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء.

في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.