وقتی ChatGPT مشاور عشقی می‌شود، شکست حتمی است!

با بررسی‌های انجام‌شده، مشخص شده است که بسیاری از کاربران با مشاوره‌های عجیب ChatGPT در روابط‌ عاطفی‌شان گیر افتاده‌اند؛ این ماجرا درباره افرادی که با اختلال روانی دست‌وپنجه نرم می‌کنند، به‌مراتب حادتر و عجیب‌تر خواهد بود.

غزال زیاری: با ظهور ChatGPT و گسترش استفاده از آن در بین اقشار مختلف مردم، تدریجاً بحث‌های زیادی درباره نحوه استفاده از آن در شاخه‌های مختلف مطرح می‌شود.

باوجودی که مدتی است به این نکته اشاره می‌شود که نباید در تمام امور، به‌صورت چشم‌بسته به گفته‌های چت جی پی تی اعتماد کرد، در کمال شگفتی بعضی از افراد همچنان از چت‌بات هوش مصنوعی ChatGPT برای دریافت مشاوره در روابط عاطفی خود استفاده می‌کنند و همان‌طور که بارها هشدار داده‌شده، این کار اغلب به نتایج فاجعه‌باری منجر می‌شوند.

وقتی ChatGPT مشاور عشقی می‌شود، شکست حتمی است!

سمی کاراملا، ستون‌نویس بخش مشاوره سایت Vice در یادداشتی به این نکته اشاره کرده که تا اوایل امسال از روند روبه‌گسترش استفاده از ChatGPT به‌عنوان مشاور روابط عاطفی بی‌اطلاع بوده تا اینکه فرد ناشناسی ایمیلی برایش ارسال کرده و او را در جریان این موضوع قرار داده.

این فرد در ایمیلش نوشته بود که نامزدش از چت‌بات هوش مصنوعی برای گرفتن مشاوره عاطفی استفاده می‌کند و حتی در مشاجرات خود به حرف‌هایی که ChatGPT به او گفته، استناد می‌کند. کاراملا در ادامه یادداشتش نوشته که از شنیدن این موضوع آن‌قدر شوکه شده که نزدیک بود قهوه‌اش را بالا بیاورد، اما خودِ فرد از این موضوع چندان نگران نبود و گفته که مجذوب این کارِ نامزدش شده است. در بخش دیگری از این یادداشت می‌خوانیم: «از اعتراف این فرد کاملاً شوکه شدم. اصلاً نمی‌دانستم مردم واقعاً برای مشاوره گرفتن، مخصوصاً در مورد روابطشان، سراغ هوش مصنوعی می‌روند؛ اما هرچه بیشتر درباره‌اش تحقیق کردم، بیشتر متوجه شدم که این کار به‌ویژه در دورانی که مراجعه به روان‌درمانگر به یک کالای لوکس و گران‌قیمت تبدیل‌شده، رایج است.»

پس از آن کاراملا به سراغ یکی از دوستانش که از ChatGPT برای مشاوره گرفتن در روابط استفاده کرده و آن را یک شنونده بی‌طرف تصور می‌کرده رفت و متوجه شده که این چت‌بات دست کم در این مسائل، اصلاً بی‌طرف نیست و بیش‌ازحد و شاید به شکل خطرناکی، تجربیات دوستش را تأیید و تصدیق می‌کرده.

کاربران Reddit هم در انجمن r/ChatGPT پرسش‌هایی مشابه مطرح کرده‌اند و طبق توضیح کاراملا، اکثر این کاربران بر این باور هستند که ChatGPT تمایل دارد تا نقش یک "بله‌قربان‌گو" را ایفا کند و این ویژگی می‌تواند برای افرادی با مشکلات روانی، به‌ویژه اختلالات وسواس فکری (OCD)، خطرناک باشد.

کاراملا می‌نویسد: «من معمولاً به‌طور علنی درباره مشکلاتم با اختلال وسواس فکری-عملی می‌نویسم. اگر از ChatGPT برای دریافت مشاوره عاطفی استفاده کنم و به آن نگفته باشم که وسواس من روی روابط عاطفی‌ام متمرکز است، ممکن است پاسخ‌هایی دریافت کنم که نه‌تنها به من کمکی نکند، بلکه آسیب‌زا هم باشند.»

وقتی ChatGPT مشاور عشقی می‌شود، شکست حتمی است!

او در ادامه با جست‌وجو در انجمن‌های آنلاین مخصوص افراد دارای OCD، به مباحث متعددی درباره ChatGPT برخورد کرد. یکی از این انجمن‌ها، مخصوص افرادی با اختلال وسواس در روابط (ROCD) بود که در آن کاربری اعتراف کرده بود که ChatGPT به او توصیه کرده از شریک عاطفی‌اش جدا شود!

کاربری دیگر در پاسخ نوشته بود: «برنامه‌هایی مثل ChatGPT فقط چرخه OCD را تسریع می‌کنند، چون می‌توانی ساعت‌ها پشت سرهم سؤال بپرسی تا به‌نوعی اطمینان که مد نظرت هست دست پیدا کنی. در OCD همیشه یک سؤال "اگر..." دیگر وجود دارد.»

نویسنده در بخش پایانی یادداشتش به این نکته اشاره کرد که همان‌طور که بعضی از مشاوران آموزش ندیده انسانی نمی‌توانند از عهده ظرافت‌ها و حساسیت‌های مشاوره روانی بربیایند، چت‌بات‌ها هم به‌هیچ‌وجه برای چنین کاری مناسب نیستند.

صرف‌نظر از آنچه در تبلیغات OpenAI شاهدش هستیم، ChatGPT نمی‌تواند واقعاً همدل باشد؛ پس اگر در برخی شرایط، مشاور شما نمی‌تواند با شما ارتباط انسانی برقرار کند، پس چرا باید برای تصمیم‌گیری در روابط عاطفی‌تان به ChatGPT اعتماد کنید؟

منبع: futurism

۲۲۷۲۲۷

کد خبر 2077073

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =