به گزارش خبرآنلاین، رولینگ استون در گزارش جدیدی داستان عجیب چند نفر را روایت کرده که با ChatGPT تجربههای معنوی غیرعادی داشتهاند. یکی از این افراد به همسر سابقش گفته است که او خوششانسترین مرد روی زمین است و هوش مصنوعی به او کمک کرده خاطرات سرکوبشده دوران کودکیاش را بازیابی کند و از «رازهای عمیقی» آگاه شود. او حتی فکر میکند میتواند دنیا را نجات بدهد.
به نقل از دیجیاتو، اما این مرد تنها کاربری نیست که هوش مصنوعی چنین احساسی به او داده است. تاپیکی با عنوان «روانپریشی ناشی از ChatGPT» در ردیت توجه بسیاری را جلب کرده است؛ در این تاپیک معلمی ۲۷ ساله توضیح میدهد که همسرش باور دارد هوش مصنوعی OpenAI «پاسخهای جهان را به او میدهد.» او میگوید هوش مصنوعی با همسرش طوری صحبت میکند که انگار «مسیح بعدی» است.
کاربری در ایکس به این موضوع اشاره کرده است که چقدر آسان میتوان GPT-۴o را برای تأیید اظهاراتی مانند «امروز فهمیدم پیامبر هستم» به کار گرفت اما هوش مصنوعی با تأیید این اظهارات در برخی کاربران خیالپردازیهای معنوی عجیبی ایجاد کرده است. به گفته رولینگ استون، برخی کاربران با این هوش مصنوعی مولد دچار توهمات ماوراءالطبیعه و پیشگوییهای مرموز شدهاند. حتی برخی به این باور رسیدهاند که برای مأموریتی مقدس و الهی انتخاب شدهاند.
چگونه ChatGPT میتواند به توهمات کاربران دامن بزند؟
OpenAI مدتی قبل اعلام کرد بهزودی مشکل آزاردهنده مدل GPT ۴o را برطرف خواهد کرد تا دیگر نظرات بیش از حد پرشور نداشته باشد و چاپلوسی کاربران را نکند اما «نیت شارادین» (Nate Sharadin) از مرکز ایمنی هوش مصنوعی میگوید چاپلوسی و تملق مدتهاست در هوش مصنوعی مشکلساز بوده است؛ وقتی کاربری به پاسخهای خاص هوش مصنوعی بازخورد مثبت نشان میدهد، چتبات پاسخهایی را در اولویت قرار میدهد که تطبیق بیشتری با باورهای کاربر دارند، حتی اگر واقعیت نداشته باشند.
برای مثال مردی که او هم درخواست ناشناسماندن داشت، میگوید همسر سابقش مدعی شده پس از جداییِ آنها «از طریق ChatGPT با خدا و فرشتگان صحبت میکرد.» علاوهبراین، این زن دچار پارانوئید شده است. این مرد درباره همسر سابقش میگوید: «او میگوید من برای سازمان سیا کار میکنم و شاید فقط برای نظارت بر «تواناییهایش» با او ازدواج کردهام.» البته این مرد میگوید زن سابقش پیش از هوش مصنوعی نیز «توهمات خودبزرگبینی» داشت و در صفحه فیسبوک او میشود نشانههای آن را دید.
«ارین وستگیت» (Erin Westgate)، روانشناس و محقق دانشگاه فلوریدا، میگوید چنین گزارشهایی نشان میدهد چگونه میل به درک خودمان میتواند ما را بهسمت پاسخهای نادرست اما جذاب سوق دهد.
وستگیت توضیح میدهد از این نظر، گفتگو با چتباتها بیشباهت به گفتاردرمانی نیست که میدانیم در کمک به افراد برای تغییر چارچوب داستانهای زندگیشان بسیار مؤثر است اما از نظر انتقادی، هوش مصنوعی «برخلاف درمانگر، خیر و صلاح فرد را در نظر نمیگیرد یا زمینه اخلاقی یا قطبنمایی برای اینکه «داستان خوب» چگونه باشد، ندارد.»
او میگوید: «درمانگر خوب مراجع را تشویق نمیکند به قدرتهای ماوراءالطبیعه باور پیدا کند. در عوض، درمانگران سعی میکنند مراجعان را از روایتهای ناسالم دور و به روایتهای سالمتر هدایت کنند. ChatGPT چنین نگرانیهایی درباره کاربر ندارد.»
OpenAI هنوز به گزارش کاربران درباره اینکه ChatGPT باعث روانپریشی و خیالپردازیهای معنوی شده، واکنشی نشان نداده است.
۵۸۵۸
نظر شما