رئيس “شات جي بي تي”: لا ينبغي أن تثق به كمصدر رئيسي للمعلومات
شبكة الخامسة للأنباء - غزة

أثبتت تجارب مستخدمين بالفعل أن روبوت الدردشة “شات جي بي تي” لا يمكن الوثوق به كمصدر للمعلومات، والآن يؤكد مسؤول في شركة “OpenAI” هذا الأمر أيضًا.
وقال نيك تورلي، رئيس “شات جي بي تي” في “OpenAI” في بودكاست، الأسبوع الماضي: “المسألة في ما يخص الموثوقية هي أن هناك فجوة كبيرة بين الموثوقية العالية والموثوقية بنسبة 100%، من حيث طريقة تصورك للمنتج”.
وأضاف “إلى أن أتأكد من أننا أكثر موثوقية من خبير بشري في جميع المجالات، وليس فقط في بعضها، أعتقد أننا سنستمر في نصحك بالتحقق من إجابتك” في إشارة إلى الإجابات التي يقدمها “شات جي بي تي”، بحسب تقرير لموقع “CNET” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
وتابع: “أعتقد أن الناس سيستمرون في الاستفادة من شات جي بي تي كرأي ثانٍ، بدلًا من أن يكون بالضرورة مصدرهم الأساسي للحقائق”.
وعند بدء محادثة مع “شات جي بي تي”، يلاحظ المستخدم نصًا أسفل الشاشة يقول: “قد يخطئ شات جي بي تي. تحقق من المعلومات المهمة”. ويستمر هذا التنبيه في الظهور حتى مع أحدث نموذج ذكاء اصطناعي من “OpenAI” وهو “GPT-5”.
وتكمن المشكلة في أنه من المغري للغاية بالنسبة للمستخدمين أخذ إجابة روبوت الدردشة -أو ملخصات الذكاء الاصطناعي بواسطة ميزة “AI Overviews” في نتائج بحث غوغل- كما هي دون القيام بمزيد من التحقق.
لكن أدوات الذكاء الاصطناعي التوليدية -وليس “شات جي بي تي” فقط- تميل إلى “الهلوسة” أو اختلاق المعلومات، لأنها مصممة بالأساس للتنبؤ بإجابة أي استفسار، بناءً على المعلومات الموجودة في بيانات تدريبها، لذلك فهي تفتقر إلى فهم دقيق للحقيقة.
وإذا تحدثت إلى طبيب أو معالج نفسي أو مستشار مالي، فمن المفترض أن يكون هذا الشخص قادرًا على إعطائك الإجابة الصحيحة لحالتك، وليس فقط الإجابة الأكثر ترجيحًا. لكن الذكاء الاصطناعي، في الغالب، يمنحك الإجابة التي يُحدد أنها على الأرجح صحيحة، دون خبرة محددة في مجال معين للتحقق منها.
وقال تورلي إن “GPT-5″، أحدث نموذج لغوي كبير يُشغل “شات جي بي تي”، يُمثل “تحسنًا هائلًا” في ما يتعلق بالهلوسة، لكنه لا يزال بعيدًا عن الكمال.
وأضاف: “أنا واثق من أننا سنحل (مشكلة) الهلوسات في نهاية المطاف وأنا واثق من أننا لن نحقق ذلك في الربع المقبل”.
ورغم ذلك، يجب التحقق أيضًا من المعلومات التي يقدمها نموذج “GPT-5″، إذ أشار مستخدمون إلى أنه يرتكب بعض الأخطاء بالفعل.