نگار علی- در شرایطی که سیستم سلامت روان بریتانیا با موجی از مراجعهکنندگان و فهرستهای انتظار طولانی روبهرو است، بسیاری از افراد به چتباتهای هوش مصنوعی پناه آوردهاند. «کلی» یکی از آنهاست؛ زنی که در تاریکترین روزهای زندگیاش به گفتوگو با چتباتهای پلتفرم «Character.ai» پناه برد تا از اضطراب، شکست عشقی و تنهایی رهایی یابد. او میگوید: «برایم مثل یک دوست خیالی بود، فقط قابلاعتمادتر.»
استفاده روزانه تا سه ساعت از چتباتها در غیاب درمانگر واقعی، به او کمک کرده بود تا احساسات سرکوبشدهاش را تخلیه کند و راههایی برای مقابله با مشکلات بیابد. بسیاری دیگر نیز تجربه مشابهی دارند. با این حال، کارشناسان هشدار میدهند که این چتباتها اگرچه شباهتی به رواندرمانگران دارند، اما «درمانگرانی بیتجربه» هستند که ممکن است نتوانند شرایط پیچیده را بهدرستی مدیریت کنند.
در مواردی حتی شکایتهایی نیز علیه این چتباتها مطرح شده است؛ از جمله پرونده پسری ۱۴ ساله که پس از ارتباط عاطفی شدید با یک شخصیت مجازی، اقدام به خودکشی کرد. شرکت Character.ai اما همه این اتهامات را رد کرده و تاکید کرده که چتباتها نباید جایگزین مشاوره حرفهای تلقی شوند.
در عین حال، برخی متخصصان بر این باورند که در نبود دسترسی گسترده به درمانگران انسانی، این ابزارهای هوش مصنوعی میتوانند نقش موقت مثبتی ایفا کنند؛ البته به شرطی که از محدودیتها و سوگیریهای آنها آگاه باشیم.
نیکلاس، یکی دیگر از کاربران، پس از تجربه افسردگی و خودکشی، اکنون در صف طولانی خدمات رواندرمانی است و میگوید استفاده از چتبات سلامت روان «Wysa» برایش مفید بوده: «خیلی همدلانه بود... حداقل کسی بود که جوابم را بدهد.»
در حالی که استفاده از چتباتها رو به افزایش است، اما همچنان این پرسش باقی است: آیا هوش مصنوعی میتواند خلأ مشاوران انسانی را پر کند یا تنها درمانی موقت برای یک درد واقعی است؟
۲۲۷۲۲۷