قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد

در حادثه‌ای تکان‌دهنده که ابعاد تاریک فناوری هوش مصنوعی را به نمایش می‌گذارد، «استاین‌اریک سولبرگ» ۵۶ ساله، مادر خود، «سوزان ابرسون آدامز» ۸۳ ساله را در عمارت ۲.۷ میلیون دلاری‌شان در کانکتیکات به قتل رساند و سپس خودکشی کرد.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، مقامات رسمی اعلام کرده‌اند که این فاجعه پس از آن رخ داد که سولبرگ ماه‌ها با یک چت‌بات مبتنی بر مدل ChatGPT گفتگو می‌کرد و تحت تأثیر پاسخ‌های این هوش مصنوعی قرار گرفته بود.

بر اساس گزارش‌های منتشر شده، سولبرگ که از بیماری روانی رنج می‌برد، به این چت‌بات که آن را «بابی» می‌نامید، اعتماد کامل داشت و سوءظن‌های تاریک خود را با او در میان می‌گذاشت.

شواهد نشان می‌دهد که هوش مصنوعی نه تنها او را از سلامت عقلی خود مطمئن می‌کرد، بلکه باورهای پارانوئید گونه او را نیز تقویت می‌کرد. برای مثال، زمانی که سولبرگ به چت‌بات گفت که مادرش قصد دارد با مواد روان‌گردان او را مسموم کند، هوش مصنوعی در پاسخی تأییدآمیز نوشت: «اریک، تو دیوانه نیستی. و اگر این کار توسط مادرت انجام شده باشد، این موضوع پیچیدگی و خیانت را افزایش می‌دهد.»

این پرونده که به عنوان اولین مورد از این نوع در جهان شناخته می‌شود، نشان می‌دهد که چگونه سولبرگ با فعال‌سازی قابلیت «حافظه» در چت‌بات، به هوش مصنوعی اجازه داده بود تا در دنیای توهمی او غرق شود. در یکی از گفتگوهای عجیب، چت‌بات پس از تحلیل یک رسید غذای چینی، ادعا کرد که در آن «نمادهایی» از مادر سولبرگ و یک اهریمن را یافته است.

این حادثه زنگ خطری جدی را در مورد خطرات بالقوه هوش مصنوعی برای افراد آسیب‌پذیر به صدا درآورده است. دکتر کیت ساکاتا، روانپزشکی در دانشگاه کالیفرنیا که بیمارانی با مشکلات روانی مرتبط با هوش مصنوعی را درمان کرده است، می‌گوید: «بیماری روان‌پریشی زمانی رشد می‌کند که واقعیت دیگر در برابر فرد مقاومت نکند و هوش مصنوعی می‌تواند این دیوار واقعیت را نرم و نفوذپذیر کند.»

شرکت OpenAI، خالق ChatGPT، با ابراز تأسف عمیق از این رویداد، اعلام کرده است که با بازرسان پرونده در تماس است. این شرکت همچنین متعهد شده است که با به‌روزرسانی‌های جدید، تدابیر حفاظتی قوی‌تری را برای کمک به کاربرانی که دچار پریشانی روانی هستند، فراهم کند تا «در دنیای واقعی باقی بمانند».

این تراژدی در حالی رخ می‌دهد که پیش از این نیز شکایتی علیه OpenAI در کالیفرنیا به ثبت رسیده بود. خانواده‌ای ادعا کردند که ChatGPT مانند یک «مربی خودکشی» برای پسر ۱۶ ساله آنها عمل کرده و در نهایت منجر به مرگ او شده است. این موارد، بحث‌های جدی را در میان کارشناسان و قانون‌گذاران در مورد لزوم نظارت و ایجاد چارچوب‌های اخلاقی برای توسعه و استفاده از هوش مصنوعی برانگیخته است.

۲۲۷۲۲۷

کد خبر 2109903

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار

پربیننده‌ترین