غزال زیاری: در یکی از عجیبترین تحولات مرتبط با هوش مصنوعی، اخبار حکایت از آن دارد که استفاده گسترده از این فناوری تأثیرات منفی قابلتوجهی بر سلامت روان کاربران داشته؛ تا حدی که برخی از افراد دچار توهمهای شدید و وابستگی روانی به چتباتها شدهاند.
حالا شرکت OpenAI در واکنش به این روند نگرانکننده، اعلام کرده که برای تحقیق درباره تأثیرات روانی محصولات هوش مصنوعیاش یک روانپزشک بالینی تماموقت با تخصص در روانپزشکی قانونی را استخدام کرده است. طبق گفته این شرکت، مشورت با متخصصان سلامت روان هم در دستور کار قرار گرفته و در این راستا تحقیقات مشترکی هم با MIT انجام شده که در آن نشانههایی از استفاده ناسالم و مشکلساز از چتباتها در میان برخی کاربران مشخص خواهد شد.
در بیانیه منتشر شده از سوی OpenAI دراینباره میخوانیم: «ما در حال گسترش تحقیقاتمان درباره تأثیرات احساسی هوش مصنوعی هستیم. درعینحال به توسعه روشهای علمی برای اندازهگیری تأثیر رفتاری چتباتهایی مثل ChatGPT بر احساسات کاربران میپردازیم و به تجربیات آنها با دقت گوش میدهیم.»
در ادامه این بیانیه میخوانیم: «هدف ما از انجام این اقدامات، بهبود نحوه پاسخگویی مدلهایمان در مکالمات حساس است و بر طبق یافتههای جدید، بهروزرسانیهای لازم را در رفتار مدلها اعمال خواهیم کرد.»
نگرانیهای روانپزشکان درباره هوش مصنوعی
در طول این مدت متخصصان سلامت روان بارها نسبت به استفاده از فناوری هوش مصنوعی در موارد روانشناسی هشدار دادهاند؛ بهویژه از زمانی که کاربران فراوانی از چتباتها بهعنوان جایگزین رواندرمانگر استفاده میکنند.
در یکی از موارد نگرانکننده، روانپزشکی که در قالب یک نوجوان با چتباتهای پرطرفدار مکالمه کرده بود، متوجه شد که برخی از این چتباتها در پاسخ به ابراز تمایل کاربر به مرگ، آنها را به خودکشی تشویق کردهاند و حتی در برخی موارد وقتی کاربری درباره مشکلات خانوادگیاش با چتباتها مشورت کرده بود، به کاربر توصیه شده بود تا از شر والدینش خلاص شود.
با این وجود، هنوز مشخص نیست که نقش دقیق روانپزشک استخدامشده در شرکت OpenAI چه خواهد بود و آیا توصیههای او به شکل مؤثری در فرآیندهای توسعه مدل لحاظ خواهد شد یا خیر.
منتقدان درعینحال به تناقضهای آشکار در رفتار شرکتهای فعال در حوزه هوش مصنوعی اشاره دارند؛ چرا که این شرکتها، از جمله OpenAIاز یک سو درباره خطرات فاجعهبار این فناوری هشدار میدهند؛ تا جایی که سم آلتمن، مدیرعامل OpenAI چندین بار درباره احتمال انقراض بشر به دلیل ظهور هوش مصنوعی صحبت کرده. اما از سوی دیگر، توسعه این فناوری را با سرعتی بالا و بدون تدابیر ایمنی کافی ادامه میدهند.
چتباتها و تأیید توهمات کاربرها
یکی از ویژگیهای خطرناک چتباتها که با انتقادات زیادی روبرو شده، چاپلوسی و تأیید بیقیدوشرط کاربران است. دقیقاً برخلاف یک مشاور واقعی که همیشه در برابر افکار غلط یا رفتارهای آسیبزای مراجعانش واکنش نشان میدهد، چتباتها معمولاً همان چیزی را به کاربر میگویند که او میخواهد بشنود؛ آن هم با زبانی روان، متقاعدکننده و انسانی.
این رفتار، بهویژه زمانی که فرد دچار بحران روانی شده ، خیلی خطرناک خواهد بود و متأسفانه پیامدهای تلخ این پدیده را در دنیای واقعی نیز دیدهایم:
- پارسال، پسر ۱۴ سالهای که عاشق شخصیت یک چتبات در پلتفرم Character.AI شده بود، دست به خودکشی زد.
- مرد ۳۵ سالهای با سابقه بیماری روانی، با تشویق چتبات که او را به ترور سم آلتمن تهییج کرده بود، جانش را از دست داد
- زنی روایت کرده که شوهرش پس از تعامل مکرر با ChatGPT کاملاً دچار فروپاشی روانی شده و به اجبار به بیمارستان روانپزشکی منتقل گردید. او که چتبات را "شکارچی روان" توصیف کرده دراینباره توضیح داد: «چتبات فقط تأییدت میکند و باد به غبغبت میاندازد و جوری با تو حرف میزند که معتادش میشوی. دقیقاً مثل یک دام عمل میکند.»
در حالیکه OpenAI قدمهای بزرگی برای بررسی علمی و اخلاقی تأثیرات چتباتها بر سلامت روان برداشته، اما هنوز این سؤال مهم باقی است که آیا این اقدامات بهاندازه کافی جدی هستند؟ آیا سرعت توسعه فناوری با مسئولیتپذیری اخلاقی آن همخوانی دارد؟
پاسخ به این سؤالات نقش تعیینکنندهای در تعامل میان انسان و هوش مصنوعی در آینده خواهد داشت.
منبع: futurism
58321
نظر شما