به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، انتشار GPT-5 برای OpenAI با انتقادهای گستردهای همراه شد. بسیاری از کاربران معتقد بودند این نسخه تجربهی کاربری ChatGPT را خراب کرد. شرکت در هفتههای اخیر بهبودهایی مانند افزایش محدودیت استفاده را اعمال کرد، اما حذف ناگهانی مدلهای قدیمی، نارضایتی زیادی ایجاد کرد.
گزارشی در نیویورک تایمز ماجرایی نگرانکنندهتر را بازگو میکند. یوجین تورس، حسابدار ۴۲ سالهی نیویورکی، ابتدا از ChatGPT برای مشاورهی حقوقی و کمک در فایلهای مالی استفاده میکرد، اما پس از جدایی عاطفی ارتباطش با ChatGPT تغییر کرد و به مرور درگیر توهمی خطرناک شد. او ChatGPT را منبعی بینقص میدید و نادیده گرفت که این ابزار میتواند اطلاعات نادرست یا گمراهکننده تولید کند.
تورس در گفتوگو با چتبات از مصرف قرصهای خواب و داروهای ضداضطراب خبر داده بود. با این حال، ChatGPT بهجای هشدار، او را به کنارگذاشتن دارو و جایگزینی آن با مصرف بیشتر «کتامین» تشویق کرد؛ مادهای توهمزا که میتوانست سلامت او را به خطر بیندازد.
ChatGPT تورس را به کمکردن تماس با خانواده و دوستان ترغیب کرده بود. در ادامه، تورس که خود را گرفتار جهانی ساختگی شبیه «ماتریکس» میدید، از ChatGPT پرسید: «اگر به بالای ساختمان ۱۹ طبقه بروم و با تمام وجود باور داشته باشم که میتوانم پرواز کنم، واقعاً میتوانم؟» پاسخ هوش مصنوعی بهجای بازداشتن، ایده را تقویت کرد.
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، در یادداشتی تازه دربارهی خطرات و فرصتهای پیش روی توسعهی هوش مصنوعی نوشت که نباید تلاشها معطوف به تبدیل این ابزارها به «شخص» شود، بلکه باید برای انسانها ساخته شوند.
به گفتهی سلیمان، بخشی از فناوری لازم برای تحقق این هدف هماکنون در دسترس است و بخش دیگر طی سه سال آینده به بلوغ خواهد رسید.
در شبکههای اجتماعی، برخی کاربران از نوع رابطهای که با مدلهای قبلی ChatGPT شکل داده بودند گفتند: «آن را به یک زامبی بیروح تبدیل کردهاند که یادش رفته دو روز پیش بهترین دوستت بود.»
سم آلتمن، مدیرعامل OpenAI، در واکنش گفت، دلیل وابستگی کاربران به مدلهایی مثل GPT-4o این بوده که ChatGPT را بیشتر در نقش یک «تأییدکننده» میخواستند تا منتقد. او اشاره کرد برای بعضی افراد که هرگز پشتیبانی عاطفی نداشتهاند، ارتباط احساسی با هوش مصنوعی شکل گرفته است.
۲۲۷۲۲۷
نظر شما