چرا پاسخ‌های هوش مصنوعی قابل اعتماد نیست؟

زمانی که یک گفتگوی جدید را با ChatGPT شروع می‌کنید، متنی در پایین صفحه نمایش داده می‌شود که در آن نوشته شده «Chat‌GPT ممکن است اشتباه کند. اطلاعات مهم را بررسی کنید.» این هشدار حتی در نسخه جدید مدل، یعنی GPT-5 هم وجود دارد و اکنون یکی از مدیران ارشد OpenAI دوباره بر آن تأکید کرده است.

به گزارش خبرآنلاین، به نقل از دیجیاتو، نیک تورلی»، رئیس بخش ChatGPT در OpenAI، در پادکست Decoder وب‌سایت The Verge گفت: «موضوعی که درباره قابل‌اعتماد بودن وجود دارد این است که فاصله زیادی بین دو حالت «خیلی قابل‌اعتماد» و «صددرصد قابل‌اعتماد» وجود دارد. تا زمانی که ثابت نکنیم از یک متخصص انسانی در همه حوزه‌ها قابل‌اعتمادتر هستیم، همچنان به کاربران توصیه می‌کنیم پاسخ‌ها را دوباره بررسی کنند.»

او در ادامه صحبت‌های خود گفت که مردم باید به ChatGPT نه به‌عنوان منبع اصلی حقیقت، بلکه بیشتر به‌عنوان نظر دوم نگاه کنند. تورلی همچنین هشدار داده که ابزارهای هوش مصنوعی مولد مثل ChatGPT ممکن است دچار «توهم» شوند و اطلاعاتی نمایش دهند که واقعیت ندارند. دلیلش آن است که مدل‌ها برای پیش‌بینی محتمل‌ترین پاسخ طراحی شده‌اند و هدف اصلی آنها درک حقیقت نیست.

به گفته او، این ابزار زمانی بهترین عملکرد را دارد که در کنار منابع معتبر مانند موتورهای جستجو یا داده‌های اختصاصی یک شرکت استفاده شود: «هنوز هم باور دارم که بهترین محصول مدل زبانی بزرگی است که به واقعیت متصل باشد. به‌همین دلیل جستجو را به ChatGPT اضافه کردیم و فکر می‌کنم این قابلیت تفاوت بزرگی ایجاد کرده است.»

تورلی همچنین تأکید کرده که GPT-5 در کاهش خطاها نسبت به گذشته پیشرفت بزرگی داشته است، اما هنوز با ایده‌آل فاصله دارد. او در این رابطه گفت: «مطمئنم در نهایت مشکل توهم را حل می‌کنیم، اما قطعاً نه در فصل آینده.»

با اشاره به تمام این موارد، او توصیه کرده که کاربران همیشه اطلاعات دریافت‌شده از ChatGPT یا هر چت‌بات دیگری را با منابع معتبر یا نظر کارشناسان مقایسه کنند، حتی اگر پاسخ همراه با لینک ارائه شده باشد.

۵۸۵۸

کد خبر 2103507

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار

پربیننده‌ترین