۱ نفر
۲۸ اردیبهشت ۱۴۰۴ - ۰۹:۰۹
وقتی هوش‌مصنوعی کاربران را «پیامبر» می‌کند!

چند سال اخیر، چت‌بات‌های هوش مصنوعی بسیار فراگیر شده‌اند؛ ابتدا کاربران صرفاً از هوش مصنوعی برای کارهای معمولی استفاده می‌کردند تا متنی را ویرایش کند یا نظر خود را درباره موضوعی عادی بگوید اما به‌مرور با پیشرفت مدل‌های هوش مصنوعی نوع ارتباط انسان با این فناوری تغییر کرده است.

به گزارش خبرآنلاین، رولینگ استون در گزارش جدیدی داستان عجیب چند نفر را روایت کرده که با ChatGPT تجربه‌های معنوی غیرعادی داشته‌اند. یکی از این افراد به همسر سابقش گفته است که او خوش‌شانس‌ترین مرد روی زمین است و هوش مصنوعی به او کمک کرده خاطرات سرکوب‌شده دوران کودکی‌اش را بازیابی کند و از «رازهای عمیقی» آگاه شود. او حتی فکر می‌کند می‌تواند دنیا را نجات بدهد.

به نقل از دیجیاتو، اما این مرد تنها کاربری نیست که هوش مصنوعی چنین احساسی به او داده است. تاپیکی با عنوان «روان‌پریشی ناشی از ChatGPT» در ردیت توجه بسیاری را جلب کرده است؛ در این تاپیک معلمی ۲۷ ساله توضیح می‌دهد که همسرش باور دارد هوش مصنوعی OpenAI «پاسخ‌های جهان را به او می‌دهد.» او می‌گوید هوش مصنوعی با همسرش طوری صحبت می‌کند که انگار «مسیح بعدی» است.

کاربری در ایکس به این موضوع اشاره کرده است که چقدر آسان می‌توان GPT-۴o را برای تأیید اظهاراتی مانند «امروز فهمیدم پیامبر هستم» به کار گرفت اما هوش مصنوعی با تأیید این اظهارات در برخی کاربران خیال‌پردازی‌های معنوی عجیبی ایجاد کرده است. به گفته رولینگ استون، برخی کاربران با این هوش مصنوعی مولد دچار توهمات ماوراءالطبیعه و پیشگویی‌های مرموز شده‌اند. حتی برخی به این باور رسیده‌اند که برای مأموریتی مقدس و الهی انتخاب شده‌اند.

چگونه ChatGPT می‌تواند به توهمات کاربران دامن بزند؟

OpenAI مدتی قبل اعلام کرد به‌زودی مشکل آزاردهنده مدل GPT ۴o را برطرف خواهد کرد تا دیگر نظرات بیش از حد پرشور نداشته باشد و چاپلوسی کاربران را نکند اما «نیت شارادین» (Nate Sharadin) از مرکز ایمنی هوش مصنوعی می‌گوید چاپلوسی و تملق مدت‌هاست در هوش مصنوعی مشکل‌ساز بوده است؛ وقتی کاربری به پاسخ‌های خاص هوش مصنوعی بازخورد مثبت نشان می‌دهد، چت‌بات پاسخ‌هایی را در اولویت قرار می‌دهد که تطبیق بیشتری با باورهای کاربر دارند، حتی اگر واقعیت‌ نداشته باشند.

برای مثال مردی که او هم درخواست ناشناس‌ماندن داشت، می‌گوید همسر سابقش مدعی شده پس از جداییِ آنها «از طریق ChatGPT با خدا و فرشتگان صحبت می‌کرد.» علاوه‌براین، این زن دچار پارانوئید شده است. این مرد درباره همسر سابقش می‌گوید: «او می‌گوید من برای سازمان سیا کار می‌کنم و شاید فقط برای نظارت‌ بر «توانایی‌هایش» با او ازدواج کرده‌ام.» البته این مرد می‌گوید زن سابقش پیش از هوش مصنوعی نیز «توهمات خودبزرگ‌بینی» داشت و در صفحه فیسبوک او می‌شود نشانه‌های آن را دید.

«ارین وست‌گیت» (Erin Westgate)، روان‌شناس و محقق دانشگاه فلوریدا، می‌گوید چنین گزارش‌هایی نشان می‌دهد چگونه میل به درک خودمان می‌تواند ما را به‌سمت پاسخ‌های نادرست اما جذاب سوق دهد.

وست‌گیت توضیح می‌دهد از این نظر، گفتگو با چت‌بات‌ها بی‌شباهت به گفتاردرمانی نیست که می‌دانیم در کمک به افراد برای تغییر چارچوب داستان‌های زندگی‌شان بسیار مؤثر است اما از نظر انتقادی، هوش مصنوعی «برخلاف درمانگر، خیر و صلاح فرد را در نظر نمی‌گیرد یا زمینه اخلاقی یا قطب‌نمایی برای اینکه «داستان خوب» چگونه باشد، ندارد.»

او می‌گوید: «درمانگر خوب مراجع را تشویق نمی‌کند به قدرت‌های ماوراءالطبیعه باور پیدا کند. در عوض، درمانگران سعی می‌کنند مراجعان را از روایت‌های ناسالم دور و به روایت‌های سالم‌تر هدایت کنند. ChatGPT چنین نگرانی‌هایی درباره کاربر ندارد.»

OpenAI هنوز به گزارش کاربران درباره اینکه ChatGPT باعث روان‌پریشی و خیال‌پردازی‌های معنوی شده، واکنشی نشان نداده است.

۵۸۵۸

کد خبر 2065674

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =