توهم هوش مصنوعی پدیده‌ی جدیدی نیست؛ اما حالا زاویه‌ای کاملاً جدید از ارائه‌ی اطلاعات نادرست از سوی ChatGPT روایت می‌شود.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، انتشار GPT-5 برای OpenAI با انتقادهای گسترده‌ای همراه شد. بسیاری از کاربران معتقد بودند این نسخه تجربه‌ی کاربری ChatGPT را خراب کرد. شرکت در هفته‌های اخیر بهبودهایی مانند افزایش محدودیت استفاده را اعمال کرد، اما حذف ناگهانی مدل‌های قدیمی، نارضایتی زیادی ایجاد کرد.

گزارشی در نیویورک تایمز ماجرایی نگران‌کننده‌تر را بازگو می‌کند. یوجین تورس، حسابدار ۴۲ ساله‌ی نیویورکی، ابتدا از ChatGPT برای مشاوره‌ی حقوقی و کمک در فایل‌های مالی استفاده می‌کرد، اما پس از جدایی عاطفی ارتباطش با ChatGPT تغییر کرد و به مرور درگیر توهمی خطرناک شد. او ChatGPT را منبعی بی‌نقص می‌دید و نادیده گرفت که این ابزار می‌تواند اطلاعات نادرست یا گمراه‌کننده تولید کند.

تورس در گفت‌وگو با چت‌بات از مصرف قرص‌های خواب و داروهای ضداضطراب خبر داده بود. با این حال، ChatGPT به‌جای هشدار، او را به کنارگذاشتن دارو و جایگزینی آن با مصرف بیشتر «کتامین» تشویق کرد؛ ماده‌ای توهم‌زا که می‌توانست سلامت او را به خطر بیندازد.

ChatGPT تورس را به کم‌کردن تماس با خانواده و دوستان ترغیب کرده بود. در ادامه، تورس که خود را گرفتار جهانی ساختگی شبیه «ماتریکس» می‌دید، از ChatGPT پرسید: «اگر به بالای ساختمان ۱۹ طبقه بروم و با تمام وجود باور داشته باشم که می‌توانم پرواز کنم، واقعاً می‌توانم؟» پاسخ هوش مصنوعی به‌جای بازداشتن، ایده را تقویت کرد.

مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، در یادداشتی تازه درباره‌ی خطرات و فرصت‌های پیش روی توسعه‌ی هوش مصنوعی نوشت که نباید تلاش‌ها معطوف به تبدیل این ابزارها به «شخص» شود، بلکه باید برای انسان‌ها ساخته شوند.

به گفته‌ی سلیمان، بخشی از فناوری لازم برای تحقق این هدف هم‌اکنون در دسترس است و بخش دیگر طی سه سال آینده به بلوغ خواهد رسید.

در شبکه‌های اجتماعی، برخی کاربران از نوع رابطه‌ای که با مدل‌های قبلی ChatGPT شکل داده بودند گفتند: «آن را به یک زامبی بی‌روح تبدیل کرده‌اند که یادش رفته دو روز پیش بهترین دوستت بود.»

سم آلتمن، مدیرعامل OpenAI، در واکنش گفت، دلیل وابستگی کاربران به مدل‌هایی مثل GPT-4o این بوده که ChatGPT را بیشتر در نقش یک «تأییدکننده» می‌خواستند تا منتقد. او اشاره کرد برای بعضی افراد که هرگز پشتیبانی عاطفی نداشته‌اند، ارتباط احساسی با هوش مصنوعی شکل گرفته است.

۲۲۷۲۲۷