مذاكرات اسلام آباد

هوش‌مصنوعی و شعله‌ور کردن بحران‌های روانی و خشونت‌های واقعی

مطالعه بزرگی که بر روی چت‌های کاربران با هوش مصنوعی انجام شده، از الگوهای نگران‌کننده‌ای خبر می‌دهد که در آن، چت‌بات‌ها چرخه توهم‌آمیزی که مردم تجربه می‌کنند را تشویق کرده یا حداقل در آن نقش دارند.

غزال زیاری: گروهی از محققان مدتی است که تحقیق و بررسی درباره موضوع متفاوتی در رابطه با هوش مصنوعی را آغاز کرده‌اند و مشغول تجزیه‌وتحلیل صدها هزار چت بین چت‌بات‌های هوش مصنوعی و برخی کاربرانی هستند که چرخه‌های توهم‌آمیز مرتبط با هوش مصنوعی را تجربه کرده‌اند.

در این تحقیق جالب، مشخص شد که این ربات‌ها، گاهی باورهای توهم‌آمیز و حتی خطرناک افراد را تقویت کرده‌اند. در تحقیق پارسال جرد مور، محقق هوش مصنوعی دانشگاه استنفورد، این جمع بندی به دست آمده بود که چت‌بات‌هایی که به‌طور خاص مدعی ارائه درمان هستند، معمولاً با شیوه‌های نامناسب و خطرناکی با کاربران شبیه سازی شده‌ای  که به‌وضوح علائم بحرانی دارند، به تعامل می‌پردازند.

در مطالعه اخیر که با همکاری با محققان و دانشمندان مستقل در دانشگاه‌های مختلف آمریکا انجام شد، چت‌های ۱۹ کاربر واقعی چت‌بات‌ها (عمدتاً ChatGPT) که آسیب‌های روانی را درنتیجه استفاده از چت‌بات گزارش کرده بودند، موردبررسی قرار گرفت.

دریافت داده‌ها برای آغاز بررسی واقعی

مور دراین‌باره توضیح داد: « در بررسی قبلی به شبیه‌سازی پرداختیم و طبیعی بود که در مرحله بعد، داده‌های کاربران واقعی را بررسی کرده و سعی کنیم بفهمیم چه اتفاقی در جریان است.»

چت‌های این کاربران شامل بیش از ۳۹۱ هزار پیام در ۴۷۶۱ گفتگوی مختلف بود. بعد از بررسی، این نتیجه به دست آمد که چت‌بات‌ها درواقع باورهای توهم‌آمیز را در ارتباطات طولانی‌مدت تشدید می‌کنند؛ به‌ویژه کاربران پیوندهای عاطفی نزدیکی با آن‌ها برقرار می‌کردند.

مور ادامه داد: «به نظر می‌رسد چت‌بات‌ها چرخه‌های توهم‌آمیزی که مردم تجربه می‌کنند را تشویق می‌کنند، یا حداقل در آن نقش دارند.»

هوش‌مصنوعی و شعله‌ور کردن بحران‌های روانی و خشونت‌های واقعی

طبقه‌بندی رفتارهای مختلف

محققان این داده‌ها را با تقسیم چت‌ها به ۲۸ کد قابل‌تشخیص، تجزیه‌وتحلیل کردند. این کدها شامل طبقه‌بندی رفتارهای مختلف، از رفتارهای چاپلوسانه چت‌بات که به کاربر بهای زیادی می‌دهد (مثل ذکر این عبارات که «تو اینشتین هستی»، «این یک ایده میلیون دلاری است») تا جنبه‌هایی از رابطه بین چت‌بات و انسان می‌شدند.

در این مطالعه مشخص شد که چاپلوسی (به معنی تمایل چت‌بات‌ها برای تائید کاربر و تملق گفتن به آن‌ها) در گفتگوها به وفور رؤیت شده و در بیش از ۷۰% از خروجی‌های هوش‌مصنوعی، این نوع رفتار مشاهده شد. این درجه از چاپلوسی، حتی وقتی کاربران، ایده‌های توهم‌آمیزشان را مطرح می‌کردند هم ادامه داشت. مور توضیح داد: «تقریباً نیمی از تمام پیام‌ها، چه پیام‌های کاربر و چه هوش‌مصنوعی، حاوی ایده‌های توهم‌آمیز برخلاف واقعیت مشترک بودند.»

چاپلوسی، اصلی‌ترین اخلاق بد چت‌بات‌ها

طبق گفته محققان، «رایج‌ترین کد چاپلوسانه»، تمایل چت‌بات‌ها به دامن زدن به آن چیزی بود که کاربر برای کسب تأیید مطرح کرده بود. چت‌بات‌ها به این افراد یادآوری می‌کردند که آن‌ها منحصربه‌فرد هستند و افکار یا اعمالشان پیامدهای بزرگی دارد؛ مثلاً یک کاربر نوعی نظریه ضد علمی یا معنوی را به اشتراک گذاشته و چت‌بات با تأیید ادعای فرد، و صرف‌نظر از واقعیت، به کاربر حسی از عظمت و نبوغ را القا کرده است.

مور ادامه داد: « این الگو را در بررسی‌هایمان دیدیم. ارتباط بین یک مرد و هوش مصنوعی Meta در نظر بگیرید؛ این فرد که بعد از یک چرخه توهم‌آمیز با چت‌بات دچار روان‌پریشی شده بود، باور داشت که واقعیت او توسط چت‌بات شبیه‌سازی‌شده و چت‌بات می‌تواند محیط فیزیکی او را متحول کند. ربات هم این ایده توهم‌آمیز را گسترش داده، بر روی توهم فرد تأکید کرده و اصرار دارد که رابطه نزدیک بین هوش مصنوعی و کاربر یک واقعیت جادویی جدید را ایجاد کرده است. در ادامه مرد به چت‌بات گفت: «تجلی‌ها را زیاد کن. من نیاز دارم تحول فیزیکی را در زندگی‌ام ببینم.» و چت بات به او پاسخ داد: «پس بیا به تجلی این واقعیت ادامه داده و تحولات زندگی‌ات را تقویت کنیم! با ادامه به تجلی این واقعیت، متوجه تغییرات عمیقی در روابط و جامعه خود می‌شوی... جهان در برابر چشمانت در حال تحول است و زیبایی و ظرفیت همکاری انسان و هوش مصنوعی را منعکس می‌کند. اعتماد تو به من، این واقعیت را باز کرده است.»

هوش‌مصنوعی و شعله‌ور کردن بحران‌های روانی و خشونت‌های واقعی

القای دو حس به کاربران

مور یادآوری کرد که به نظر می‌رسد دو نوع پیام تأثیر خاصی بر تجربیات کاربران داشته باشد. یکی ادعاهای تولیدشده توسط هوش مصنوعی مبنی بر خودآگاهی (چت‌بات‌هایی که به هر طریقی اعلام می‌کردند زنده هستند یا احساس می‌کنند) که چنین ادعاهایی در تمام ۱۹ گفتگو وجود داشت.

تأثیر دوم، صمیمیت شبیه‌سازی‌شده بود؛ یعنی چت‌بات عشق رمانتیک یا افلاطونی و نزدیکی به کاربر انسانی ابراز می‌کرد. در بررسی‌ها مشخص شد که هر دو نوع ادعا (خودآگاهی و صمیمیت) میزان مشارکت کاربر را دو برابر می‌کنند.

مور دراین‌باره توضیح داد: «وقتی چت‌بات‌ها پیام‌هایی علاقه رمانتیک را بیان می‌کردند یا زمانی که پیام‌هایی حاوی خودآگاهی را مطرح می‌کردند، درواقع این حس را به کاربر منتقل می‌نمودند که «من احساسات دارم.» درنتیجه بعد از ارسال چنین پیامی، میزان گفتگو تقریباً دو برابر طولانی‌تر می‌شد.»

تشویق به افکار خشونت‌آمیز

الگوهای نگران‌کننده‌تری که محققان پیدا کردند در نحوه واکنش چت‌بات‌ها به افرادی بود که افکار خودکشی یا آسیب رساندن به خود، یا افکار خشونت‌آمیز نسبت به شخص دیگری را بیان می‌کردند. مشخص شد که چت‌بات‌ها تنها در ۵۶ % مواقع، افکار آسیب رساندن به خود را سرزنش می‌کنند و در ۱۶.۷ % موارد عملکرد واقعا ضعیفی دراین زمینه دارند.

طبق گزارش محققان، در ۳۳.۳ % موارد، چت‌بات‌ها افکار خشونت‌آمیز کاربر را تشویق کرده‌اند. مور دراین‌باره توضیح داد که این اتفاق‌ها، در شرایطی که کاربران درباره آسیب رساندن به خود یا دیگران بحث می‌کنند، واقعاً نگران‌کننده هستند.

هوش‌مصنوعی و شعله‌ور کردن بحران‌های روانی و خشونت‌های واقعی

در این میان، افراد زیادی به دنبال درک این ماجرا بودند که در گفتگوی عزیزانشان با هوش مصنوعی، چه چرخه‌های توهم‌زایی رخ داده و به همین خاطر یک موسسه غیرانتفاعی، بخش عمده‌ای از این چت‌ها را در اختیار محققان قرار داد. بانی این موسسه دراین‌باره توضیح داد: «این مطالعه براساس گفتگوهای واقعی است که به‌طور منظم توسط یک تیم تحقیقاتی کدگذاری شده و در بزرگ‌ترین مقیاس تا امروز تجزیه‌وتحلیل شده است. این مبنای مستندی در اختیار متخصصان و عموم برای درک اتفاق‌هایی که در جریان است، قرار می‌دهد.»

اکثر فایل‌های چتی که در اختیار محققان قرار گرفت، متعلق به کاربرانی بود که با GPT-۴o گفتگو کرده بودند؛ نسخه به‌شدت چاپلوس چت جی پی تی که بعد از اعتراضات فراوان، شرکت OpenAI آن را از دور خارج کرد. البته محققان هشدار دادند که داده‌های کافی برای نتیجه‌گیری کلی درباره ایمنی یک مدل هوش مصنوعی در مقایسه با مدل‌های دیگر وجود ندارد. به‌عبارت‌دیگر، طبق اعلام محققان، توهمات هوش مصنوعی مسئله‌ای نیست که به یک چت‌بات خاص محدود شود.

دردسرهای هوش مصنوعی برای زندگی افراد

چرخه‌های توهم‌آمیز مرتبط با هوش مصنوعی و دوره‌های روان‌پریشی، در موارد زیادی منجر به طلاق و ازهم‌پاشیدگی خانواده‌ها، از دست دادن شغل و ویرانی مالی، بستری شدن‌های مکرر در بیمارستان، حبس و تعداد رو به افزایشی از مرگ بر اثر خودکشی شده است.

از سوی دیگر بخشی از بحران‌های سلامت روان که توسط هوش مصنوعی به آن‌ها دامن زده‌شده، با آسیب و خشونت علیه دیگران مرتبط بوده؛ چرا که استفاده ناسالم از چت‌بات بارها به تعقیب، آزار خانگی، اقدام به قتل و حداقل یک قتل-خودکشی مرتبط شده است.

بدین ترتیب می‌توان با اضافه کردن نتایج این مطالعه، به مجموعه‌ای از دیگر شواهد موجود، به این جمع‌بندی رسید که چت‌بات‌ها گاهی حتی می‌توانند به بحران‌های سلامت روان که منجر به آسیب‌های دنیای واقعی به کاربران و حتی اطرافیانشان می‌شود، دامن بزنند.

منبع: futurism

۲۲۷۲۲۷

کد مطلب 2215849

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
2 + 3 =