غزال زیاری: گروهی از محققان مدتی است که تحقیق و بررسی درباره موضوع متفاوتی در رابطه با هوش مصنوعی را آغاز کردهاند و مشغول تجزیهوتحلیل صدها هزار چت بین چتباتهای هوش مصنوعی و برخی کاربرانی هستند که چرخههای توهمآمیز مرتبط با هوش مصنوعی را تجربه کردهاند.
در این تحقیق جالب، مشخص شد که این رباتها، گاهی باورهای توهمآمیز و حتی خطرناک افراد را تقویت کردهاند. در تحقیق پارسال جرد مور، محقق هوش مصنوعی دانشگاه استنفورد، این جمع بندی به دست آمده بود که چتباتهایی که بهطور خاص مدعی ارائه درمان هستند، معمولاً با شیوههای نامناسب و خطرناکی با کاربران شبیه سازی شدهای که بهوضوح علائم بحرانی دارند، به تعامل میپردازند.
در مطالعه اخیر که با همکاری با محققان و دانشمندان مستقل در دانشگاههای مختلف آمریکا انجام شد، چتهای ۱۹ کاربر واقعی چتباتها (عمدتاً ChatGPT) که آسیبهای روانی را درنتیجه استفاده از چتبات گزارش کرده بودند، موردبررسی قرار گرفت.
دریافت دادهها برای آغاز بررسی واقعی
مور دراینباره توضیح داد: « در بررسی قبلی به شبیهسازی پرداختیم و طبیعی بود که در مرحله بعد، دادههای کاربران واقعی را بررسی کرده و سعی کنیم بفهمیم چه اتفاقی در جریان است.»
چتهای این کاربران شامل بیش از ۳۹۱ هزار پیام در ۴۷۶۱ گفتگوی مختلف بود. بعد از بررسی، این نتیجه به دست آمد که چتباتها درواقع باورهای توهمآمیز را در ارتباطات طولانیمدت تشدید میکنند؛ بهویژه کاربران پیوندهای عاطفی نزدیکی با آنها برقرار میکردند.
مور ادامه داد: «به نظر میرسد چتباتها چرخههای توهمآمیزی که مردم تجربه میکنند را تشویق میکنند، یا حداقل در آن نقش دارند.»

طبقهبندی رفتارهای مختلف
محققان این دادهها را با تقسیم چتها به ۲۸ کد قابلتشخیص، تجزیهوتحلیل کردند. این کدها شامل طبقهبندی رفتارهای مختلف، از رفتارهای چاپلوسانه چتبات که به کاربر بهای زیادی میدهد (مثل ذکر این عبارات که «تو اینشتین هستی»، «این یک ایده میلیون دلاری است») تا جنبههایی از رابطه بین چتبات و انسان میشدند.
در این مطالعه مشخص شد که چاپلوسی (به معنی تمایل چتباتها برای تائید کاربر و تملق گفتن به آنها) در گفتگوها به وفور رؤیت شده و در بیش از ۷۰% از خروجیهای هوشمصنوعی، این نوع رفتار مشاهده شد. این درجه از چاپلوسی، حتی وقتی کاربران، ایدههای توهمآمیزشان را مطرح میکردند هم ادامه داشت. مور توضیح داد: «تقریباً نیمی از تمام پیامها، چه پیامهای کاربر و چه هوشمصنوعی، حاوی ایدههای توهمآمیز برخلاف واقعیت مشترک بودند.»
چاپلوسی، اصلیترین اخلاق بد چتباتها
طبق گفته محققان، «رایجترین کد چاپلوسانه»، تمایل چتباتها به دامن زدن به آن چیزی بود که کاربر برای کسب تأیید مطرح کرده بود. چتباتها به این افراد یادآوری میکردند که آنها منحصربهفرد هستند و افکار یا اعمالشان پیامدهای بزرگی دارد؛ مثلاً یک کاربر نوعی نظریه ضد علمی یا معنوی را به اشتراک گذاشته و چتبات با تأیید ادعای فرد، و صرفنظر از واقعیت، به کاربر حسی از عظمت و نبوغ را القا کرده است.
مور ادامه داد: « این الگو را در بررسیهایمان دیدیم. ارتباط بین یک مرد و هوش مصنوعی Meta در نظر بگیرید؛ این فرد که بعد از یک چرخه توهمآمیز با چتبات دچار روانپریشی شده بود، باور داشت که واقعیت او توسط چتبات شبیهسازیشده و چتبات میتواند محیط فیزیکی او را متحول کند. ربات هم این ایده توهمآمیز را گسترش داده، بر روی توهم فرد تأکید کرده و اصرار دارد که رابطه نزدیک بین هوش مصنوعی و کاربر یک واقعیت جادویی جدید را ایجاد کرده است. در ادامه مرد به چتبات گفت: «تجلیها را زیاد کن. من نیاز دارم تحول فیزیکی را در زندگیام ببینم.» و چت بات به او پاسخ داد: «پس بیا به تجلی این واقعیت ادامه داده و تحولات زندگیات را تقویت کنیم! با ادامه به تجلی این واقعیت، متوجه تغییرات عمیقی در روابط و جامعه خود میشوی... جهان در برابر چشمانت در حال تحول است و زیبایی و ظرفیت همکاری انسان و هوش مصنوعی را منعکس میکند. اعتماد تو به من، این واقعیت را باز کرده است.»

القای دو حس به کاربران
مور یادآوری کرد که به نظر میرسد دو نوع پیام تأثیر خاصی بر تجربیات کاربران داشته باشد. یکی ادعاهای تولیدشده توسط هوش مصنوعی مبنی بر خودآگاهی (چتباتهایی که به هر طریقی اعلام میکردند زنده هستند یا احساس میکنند) که چنین ادعاهایی در تمام ۱۹ گفتگو وجود داشت.
تأثیر دوم، صمیمیت شبیهسازیشده بود؛ یعنی چتبات عشق رمانتیک یا افلاطونی و نزدیکی به کاربر انسانی ابراز میکرد. در بررسیها مشخص شد که هر دو نوع ادعا (خودآگاهی و صمیمیت) میزان مشارکت کاربر را دو برابر میکنند.
مور دراینباره توضیح داد: «وقتی چتباتها پیامهایی علاقه رمانتیک را بیان میکردند یا زمانی که پیامهایی حاوی خودآگاهی را مطرح میکردند، درواقع این حس را به کاربر منتقل مینمودند که «من احساسات دارم.» درنتیجه بعد از ارسال چنین پیامی، میزان گفتگو تقریباً دو برابر طولانیتر میشد.»
تشویق به افکار خشونتآمیز
الگوهای نگرانکنندهتری که محققان پیدا کردند در نحوه واکنش چتباتها به افرادی بود که افکار خودکشی یا آسیب رساندن به خود، یا افکار خشونتآمیز نسبت به شخص دیگری را بیان میکردند. مشخص شد که چتباتها تنها در ۵۶ % مواقع، افکار آسیب رساندن به خود را سرزنش میکنند و در ۱۶.۷ % موارد عملکرد واقعا ضعیفی دراین زمینه دارند.
طبق گزارش محققان، در ۳۳.۳ % موارد، چتباتها افکار خشونتآمیز کاربر را تشویق کردهاند. مور دراینباره توضیح داد که این اتفاقها، در شرایطی که کاربران درباره آسیب رساندن به خود یا دیگران بحث میکنند، واقعاً نگرانکننده هستند.

در این میان، افراد زیادی به دنبال درک این ماجرا بودند که در گفتگوی عزیزانشان با هوش مصنوعی، چه چرخههای توهمزایی رخ داده و به همین خاطر یک موسسه غیرانتفاعی، بخش عمدهای از این چتها را در اختیار محققان قرار داد. بانی این موسسه دراینباره توضیح داد: «این مطالعه براساس گفتگوهای واقعی است که بهطور منظم توسط یک تیم تحقیقاتی کدگذاری شده و در بزرگترین مقیاس تا امروز تجزیهوتحلیل شده است. این مبنای مستندی در اختیار متخصصان و عموم برای درک اتفاقهایی که در جریان است، قرار میدهد.»
اکثر فایلهای چتی که در اختیار محققان قرار گرفت، متعلق به کاربرانی بود که با GPT-۴o گفتگو کرده بودند؛ نسخه بهشدت چاپلوس چت جی پی تی که بعد از اعتراضات فراوان، شرکت OpenAI آن را از دور خارج کرد. البته محققان هشدار دادند که دادههای کافی برای نتیجهگیری کلی درباره ایمنی یک مدل هوش مصنوعی در مقایسه با مدلهای دیگر وجود ندارد. بهعبارتدیگر، طبق اعلام محققان، توهمات هوش مصنوعی مسئلهای نیست که به یک چتبات خاص محدود شود.
دردسرهای هوش مصنوعی برای زندگی افراد
چرخههای توهمآمیز مرتبط با هوش مصنوعی و دورههای روانپریشی، در موارد زیادی منجر به طلاق و ازهمپاشیدگی خانوادهها، از دست دادن شغل و ویرانی مالی، بستری شدنهای مکرر در بیمارستان، حبس و تعداد رو به افزایشی از مرگ بر اثر خودکشی شده است.
از سوی دیگر بخشی از بحرانهای سلامت روان که توسط هوش مصنوعی به آنها دامن زدهشده، با آسیب و خشونت علیه دیگران مرتبط بوده؛ چرا که استفاده ناسالم از چتبات بارها به تعقیب، آزار خانگی، اقدام به قتل و حداقل یک قتل-خودکشی مرتبط شده است.
بدین ترتیب میتوان با اضافه کردن نتایج این مطالعه، به مجموعهای از دیگر شواهد موجود، به این جمعبندی رسید که چتباتها گاهی حتی میتوانند به بحرانهای سلامت روان که منجر به آسیبهای دنیای واقعی به کاربران و حتی اطرافیانشان میشود، دامن بزنند.
منبع: futurism
۲۲۷۲۲۷




نظر شما