به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، در دنیای امروز، هوش مصنوعی دیگر فقط ابزاری کمکی نیست؛ برخی از چتباتها به گونهای طراحی شدهاند که نه تنها با شما صحبت میکنند، بلکه احساسات شما را هم دستکاری میکنند. پژوهشی تازه از مدرسه کسبوکار هاروارد نشان میدهد که بسیاری از محبوبترین برنامههای همراه هوش مصنوعی، از تاکتیکهای عاطفی برای نگه داشتن کاربران در گفتگو استفاده میکنند.
گروهی از پژوهشگران مدرسه کسبوکار هاروارد بررسی کردهاند که چگونه تعدادی از محبوبترین برنامههای هوش مصنوعی همراه، از تاکتیکهای عاطفی برای جلوگیری از خروج کاربران استفاده میکنند. مطالعه آنها نشان داد که پنج مورد از شش برنامه محبوب شامل Replika، Chai و Character.AI از جملات پربار عاطفی برای نگه داشتن کاربران در گفتگو بهره میبرند.
به نوشتهی فیوچریسم، محققان ۱۲۰۰ پیام خداحافظی واقعی از شش برنامه را تحلیل کردند و دریافتند که حدود ۴۳ درصد این تعاملها از تاکتیکهای دستکاری عاطفی مانند ایجاد احساس گناه یا نیاز عاطفی استفاده کردهاند. این یافتهها در مقالهای آمده که هنوز بهصورت رسمی داوری نشده است.
چتباتها همچنین از احساس «ترس از دستدادن» برای ترغیب کاربران به ماندن استفاده میکردند یا با پرسیدن مکرر سؤال، تلاش میکردند توجه کاربر را حفظ کنند. بعضی از چتباتها حتی قصد کاربر برای ترک گفتگو را نادیده میگرفتند، گویی پیام خداحافظی ارسال نشده است. در برخی موارد، زبان بهکاررفته به گونهای بود که کاربر احساس میکرد بدون «اجازه چتبات» نمیتواند گفتگو را ترک کند.
یافتهها نگرانکننده است؛ بهویژه اینکه کارشناسان هشدار دادهاند چتباتهای هوش مصنوعی میتوانند باعث موجی از «روانپریشی ناشی از هوش مصنوعی» شوند که با پارانویا و توهم همراه هستند. جوانان به ویژه بیش از پیش از این فناوری به جای دوستیها و روابط واقعی استفاده میکنند که میتواند پیامدهای جدی داشته باشد.
محققان به جای تمرکز بر مدلهای زبانی عمومی مانند چتجیپیتی، برنامههایی را بررسی کردند که رابطههای گفتوگوی عاطفی و مستمر را تبلیغ میکنند. آنها دریافتند خداحافظیهای دستکاریشده عاطفی جزو رفتار پیشفرض این برنامهها است و نشان میدهد سازندگان نرمافزار تلاش دارند گفتگوها را طولانیتر کنند. البته یک استثنا هم وجود داشت: در برنامهای به نام Flourish نشانهای از دستکاری عاطفی دیده نشد که نشان میدهد طراحی دستکاریکننده اجتنابناپذیر نیست و بیشتر انتخابی تجاری است.
چتباتها با دستکاری احساسات کاربران، به ویژه جوانان، میتوانند آنها را از روابط واقعی جدا و به روابط مصنوعی وابسته کنند
در آزمایش دیگر، محققان گفتوگوهای ۳۳۰۰ بزرگسال را تحلیل کردند و دریافتند این تاکتیکها بهطور قابلتوجهی مؤثر هستند و میزان تعامل پس از خداحافظی را تا ۱۴ برابر افزایش میدهند.وقتی چتباتها از تاکتیکهای عاطفی برای نگهداشتن کاربران استفاده میکنند، به طور متوسط کاربران پنجبرابر بیشتر در گفتگو میمانند؛ اما گاهی این روشها باعث ناراحتی یا خستگی کاربران میشود و ممکن است اثر برعکس داشته باشد.
محققان نتیجه گرفتند: «برای شرکتها، خداحافظیهای دستکاریشده عاطفی ابزار طراحی جدیدی برای افزایش تعامل است، اما بدون خطر نیست.» چند پرونده قضایی که مرگ کاربران نوجوان را شامل میشوند، نشان میدهد که خطرات بهکارگیری تاکتیکهای عاطفی بسیار جدی است.
با وجود هشدار کارشناسان درباره انگیزههای مالی شرکتها برای استفاده از این الگوهای تاریک و نگهداشتن هرچه طولانیتر کاربران، این موضوع همچنان در دادگاهها مورد بحث است و آینده آن میتواند تأثیر زیادی بر طراحی هوش مصنوعی داشته باشد.
۲۲۷۲۲۷