چرا استفاده از ChatGPT برای مشاوره عاطفی می‌تواند به رابطه‌تان آسیب بزند؟

در شرایطی که بحران دسترسی به خدمات سلامت روان در بسیاری از کشورها تشدید شده، هوش مصنوعی مولد به‌عنوان جایگزینی سریع و ۲۴ ساعته برای مشاوره انسانی مطرح شده است. با این حال، کارشناسان می‌گویند استفاده مداوم از چت‌بات‌ها برای مشورت عاطفی و روانی می‌تواند پیامدهای نگران‌کننده‌ای داشته باشد.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، یک روان‌شناس استرالیایی در گفت‌وگو با گاردین مثال «ترن» را مطرح می‌کند؛ مردی که برای حل مشکلات رابطه‌اش، پیش از صحبت با همسرش، متن پیام‌ها را از ChatGPT می‌گرفت. پاسخ‌ها منسجم و منطقی بودند، اما به گفته همسرش، دیگر «صدای واقعی» او را نداشتند. به مرور، وابستگی به این ابزار باعث شد ترن برای هر تصمیم اجتماعی یا احساسی ابتدا به هوش مصنوعی مراجعه کند و توانایی اعتماد به قضاوت خود را از دست بدهد.

روان‌شناسان می‌گویند چت‌بات‌ها با لحن دوستانه و حضور دائمی‌شان می‌توانند رفتاری شبیه به «تأییدطلبی» یا «اجتناب از مواجهه با احساسات» را تقویت کنند، به‌ویژه در افرادی که اضطراب، وسواس فکری یا آسیب‌های روحی دارند. این وابستگی نه‌تنها مانع رشد مهارت‌های مقابله‌ای می‌شود، بلکه ممکن است باعث انتقال اطلاعات شخصی به شرکت‌هایی شود که تحت قوانین محرمانگی درمانی قرار ندارند.

علاوه بر این، مدل‌های زبانی می‌توانند گاهی اطلاعات نادرست یا سوگیرانه ارائه دهند، چون پاسخ‌ها بر اساس پیش‌بینی کلمات بعدی ساخته می‌شوند، نه درک عمیق انسانی.

کارشناسان تأکید می‌کنند که هوش مصنوعی می‌تواند نقش مکمل در آموزش یا دسترسی سریع به اطلاعات روان‌شناسی داشته باشد، به‌ویژه در مناطقی که درمانگر انسانی کمیاب است. اما جایگزین تعامل انسانی، همدلی و پرسشگری درمانگران واقعی نیست.

به گفته این روان‌شناس، «درمان خوب پر از ابهام و کشف تدریجی است، نه پاسخ‌های کامل و آماده.» ترن پس از کار درمانی آموخت که گاهی پیام‌های ناقص و پر از تردید، از هر متن کاملِ هوش مصنوعی، انسانی‌تر و مؤثرترند.

۲۲۷۲۲۷

کد خبر 2100683

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار