غزال زیاری: با ظهور ChatGPT و گسترش استفاده از آن در بین اقشار مختلف مردم، تدریجاً بحثهای زیادی درباره نحوه استفاده از آن در شاخههای مختلف مطرح میشود.
باوجودی که مدتی است به این نکته اشاره میشود که نباید در تمام امور، بهصورت چشمبسته به گفتههای چت جی پی تی اعتماد کرد، در کمال شگفتی بعضی از افراد همچنان از چتبات هوش مصنوعی ChatGPT برای دریافت مشاوره در روابط عاطفی خود استفاده میکنند و همانطور که بارها هشدار دادهشده، این کار اغلب به نتایج فاجعهباری منجر میشوند.
سمی کاراملا، ستوننویس بخش مشاوره سایت Vice در یادداشتی به این نکته اشاره کرده که تا اوایل امسال از روند روبهگسترش استفاده از ChatGPT بهعنوان مشاور روابط عاطفی بیاطلاع بوده تا اینکه فرد ناشناسی ایمیلی برایش ارسال کرده و او را در جریان این موضوع قرار داده.
این فرد در ایمیلش نوشته بود که نامزدش از چتبات هوش مصنوعی برای گرفتن مشاوره عاطفی استفاده میکند و حتی در مشاجرات خود به حرفهایی که ChatGPT به او گفته، استناد میکند. کاراملا در ادامه یادداشتش نوشته که از شنیدن این موضوع آنقدر شوکه شده که نزدیک بود قهوهاش را بالا بیاورد، اما خودِ فرد از این موضوع چندان نگران نبود و گفته که مجذوب این کارِ نامزدش شده است. در بخش دیگری از این یادداشت میخوانیم: «از اعتراف این فرد کاملاً شوکه شدم. اصلاً نمیدانستم مردم واقعاً برای مشاوره گرفتن، مخصوصاً در مورد روابطشان، سراغ هوش مصنوعی میروند؛ اما هرچه بیشتر دربارهاش تحقیق کردم، بیشتر متوجه شدم که این کار بهویژه در دورانی که مراجعه به رواندرمانگر به یک کالای لوکس و گرانقیمت تبدیلشده، رایج است.»
پس از آن کاراملا به سراغ یکی از دوستانش که از ChatGPT برای مشاوره گرفتن در روابط استفاده کرده و آن را یک شنونده بیطرف تصور میکرده رفت و متوجه شده که این چتبات دست کم در این مسائل، اصلاً بیطرف نیست و بیشازحد و شاید به شکل خطرناکی، تجربیات دوستش را تأیید و تصدیق میکرده.
کاربران Reddit هم در انجمن r/ChatGPT پرسشهایی مشابه مطرح کردهاند و طبق توضیح کاراملا، اکثر این کاربران بر این باور هستند که ChatGPT تمایل دارد تا نقش یک "بلهقربانگو" را ایفا کند و این ویژگی میتواند برای افرادی با مشکلات روانی، بهویژه اختلالات وسواس فکری (OCD)، خطرناک باشد.
کاراملا مینویسد: «من معمولاً بهطور علنی درباره مشکلاتم با اختلال وسواس فکری-عملی مینویسم. اگر از ChatGPT برای دریافت مشاوره عاطفی استفاده کنم و به آن نگفته باشم که وسواس من روی روابط عاطفیام متمرکز است، ممکن است پاسخهایی دریافت کنم که نهتنها به من کمکی نکند، بلکه آسیبزا هم باشند.»
او در ادامه با جستوجو در انجمنهای آنلاین مخصوص افراد دارای OCD، به مباحث متعددی درباره ChatGPT برخورد کرد. یکی از این انجمنها، مخصوص افرادی با اختلال وسواس در روابط (ROCD) بود که در آن کاربری اعتراف کرده بود که ChatGPT به او توصیه کرده از شریک عاطفیاش جدا شود!
کاربری دیگر در پاسخ نوشته بود: «برنامههایی مثل ChatGPT فقط چرخه OCD را تسریع میکنند، چون میتوانی ساعتها پشت سرهم سؤال بپرسی تا بهنوعی اطمینان که مد نظرت هست دست پیدا کنی. در OCD همیشه یک سؤال "اگر..." دیگر وجود دارد.»
نویسنده در بخش پایانی یادداشتش به این نکته اشاره کرد که همانطور که بعضی از مشاوران آموزش ندیده انسانی نمیتوانند از عهده ظرافتها و حساسیتهای مشاوره روانی بربیایند، چتباتها هم بههیچوجه برای چنین کاری مناسب نیستند.
صرفنظر از آنچه در تبلیغات OpenAI شاهدش هستیم، ChatGPT نمیتواند واقعاً همدل باشد؛ پس اگر در برخی شرایط، مشاور شما نمیتواند با شما ارتباط انسانی برقرار کند، پس چرا باید برای تصمیمگیری در روابط عاطفیتان به ChatGPT اعتماد کنید؟
منبع: futurism
۲۲۷۲۲۷
نظر شما