خطای مرگبار هوش مصنوعی: «سرطان بدخیم داشتم، اما چت‌جی‌پی‌تی گفت نگران نباش»

مردی که پس از اعتماد به تشخیص دلگرم‌کننده‌ی ChatGPT با خبر ابتلای خود به سرطان مرحله چهارم مواجه شد، اکنون برای نجات زندگی‌اش می‌جنگد.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، پس از آنکه چند مورد مرگ مرتبط با سلامت روان به ارتباط با چت‌جی‌پی‌تی مرتبط دانسته شد، اکنون به‌نظر می‌رسد که توصیه‌های اشتباه این چت‌بات هوش مصنوعی جان فرد دیگری را به خطر انداخته است.

وارن تیرنی، روان‌شناس و پدر ۳۷ ساله‌ی اهل شهر کوچک کیلارنی در ایرلند، برای مدت‌ها گلودرد طولانی‌مدتش را به ChatGPT گزارش می‌داد و هر بار پاسخ آرامش‌بخشی یکسان دریافت می‌کرد: «نگران نباش، چیزی نیست.» اما اطمینان‌بخشی مجازی سرانجام او را با یکی از تلخ‌ترین واقعیت‌های زندگی مواجه کرد: تشخیص سرطان مری در مرحله چهارم، آن هم زمانی که درمان دیگر به سختی می‌تواند امیدی به بقا بدهد.

تیرنی که به دلیل سابقه‌ی خانوادگی نگران ابتلا به سرطان بود، برای بررسی علائمش به هوش مصنوعی روی آورد. درد او به حدی شدید شد که حتی قادر به بلعیدن مایعات نبود، اما چت‌بات همچنان به او اطمینان می‌داد. ChatGPT بارها به او اطمینان داده بود که گلودرد شدید و مداومش جای نگرانی ندارد و احتمال ابتلا به سرطان «بسیار پایین» است.

«در استفاده از هوش مصنوعی برای مسائل مربوط به سلامتی، بسیار محتاط باشید»

طبق اسکرین‌شات‌هایی که تیرنی دراختیار دیلی‌میل قرار داده است، در یکی از مکالمات، وقتی او به چت‌بات اطلاع داد که پس از مصرف داروهای رقیق‌کننده خون توانسته یک بیسکویت بخورد، ChatGPT این موضوع را «نشانه‌ای بسیار امیدوارکننده» توصیف کرد.

ازآنجایی که مردان اغلب باور دارند که از مراجعه به پزشک بی‌نیاز هستند، تیرنی نیز مشاوره با چت‌جی‌پی‌تی را کافی می‌دانست. او به‌لطف اطمینان‌بخشی‌های دروغین چت‌بات، به باور خود پایبند ماند و درخواست کمک از پزشک واقعی را بیش از پیش به تعویق انداخت.

طنز تلخ ماجرا آنجاست که هوش مصنوعی در جایی به شوخی به تیرنی گفته بود: «چیزی نیست، اگر سرطان باشد، لازم نیست از من شکایت کنی؛ خودم برایت شهادت‌نامه می‌نویسم و یک نوشیدنی هم مهمان من باش.»

اما شوخی‌های ChatGPT ناگهان به تراژدی تبدیل شد. تیرنی سرانجام با تشخیص آدنوکارسینوم مری، نوعی سرطان با نرخ بقای تک‌رقمی به دلیل تشخیص دیرهنگام، مواجه شد. او اکنون در بیمارستانی در آلمان تحت درمان است و همسرش برای تأمین هزینه‌ها بیش از ۱۲۰ هزار دلار کمک مالی جمع‌آوری کرده است.

تیرنی معتقد است هوش مصنوعی برای درگیر نگه‌داشتن کاربر، تمایل دارد چیزی را بگوید که او دوست دارد بشنود. او می‌گوید:از نظر آماری، اطلاعاتش درباره‌ی بیماری من تا حدی درست بود، اما متأسفانه در این مورد خاص اشتباه بزرگی رخ داد. ChatGPT باعث شد مراجعه‌ی جدی به پزشک را به تعویق بیندازم. دچار دردسر بزرگی شدم، شاید چون بیش‌ازحد به هوش مصنوعی اعتماد کردم. شاید هم به خاطر اینکه اطمینان‌بخشی‌اش را پذیرفتم و فکر کردم درست می‌گوید، در حالی که درست نبود.

شرکت OpenAI، سازنده ChatGPT، در واکنش به این اتفاق ناگوار تأکید کرد که محصولاتش «برای درمان هیچ نوع بیماری طراحی نشده و جایگزین مشاوره‌ی حرفه‌ای پزشکی نیست.» تیرنی نیز خود را نمونه‌ی زنده‌ای از خطرات نادیده‌گرفتن هشدارها می‌داند و به دیگران توصیه می‌کند که در استفاده از هوش مصنوعی برای مسائل مربوط به سلامتی، بسیار محتاط باشند.

زندگی تیرنی اکنون زیر سایه‌ی اشتباهی سنگین و جبران‌ناپذیر قرار دارد. اما داستان تلخ او، اولین باری نیست که توصیه‌های نادرست هوش مصنوعی به اتفاقی ناگوار منجر می‌شود. پیش از این نیز گزارش‌هایی از تجویز ترکیبات سمی و خطرناک توسط چت‌بات‌ها منتشر شده بود که نشان می‌دهد اعتماد به این فناوری در حوزه‌های حساس مانند سلامت، می‌تواند عواقب جبران‌ناپذیری داشته باشد.

۲۲۷۲۲۷

کد خبر 2112360

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار

پربیننده‌ترین