به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، پس از آنکه چند مورد مرگ مرتبط با سلامت روان به ارتباط با چتجیپیتی مرتبط دانسته شد، اکنون بهنظر میرسد که توصیههای اشتباه این چتبات هوش مصنوعی جان فرد دیگری را به خطر انداخته است.
وارن تیرنی، روانشناس و پدر ۳۷ سالهی اهل شهر کوچک کیلارنی در ایرلند، برای مدتها گلودرد طولانیمدتش را به ChatGPT گزارش میداد و هر بار پاسخ آرامشبخشی یکسان دریافت میکرد: «نگران نباش، چیزی نیست.» اما اطمینانبخشی مجازی سرانجام او را با یکی از تلخترین واقعیتهای زندگی مواجه کرد: تشخیص سرطان مری در مرحله چهارم، آن هم زمانی که درمان دیگر به سختی میتواند امیدی به بقا بدهد.
تیرنی که به دلیل سابقهی خانوادگی نگران ابتلا به سرطان بود، برای بررسی علائمش به هوش مصنوعی روی آورد. درد او به حدی شدید شد که حتی قادر به بلعیدن مایعات نبود، اما چتبات همچنان به او اطمینان میداد. ChatGPT بارها به او اطمینان داده بود که گلودرد شدید و مداومش جای نگرانی ندارد و احتمال ابتلا به سرطان «بسیار پایین» است.
«در استفاده از هوش مصنوعی برای مسائل مربوط به سلامتی، بسیار محتاط باشید»
طبق اسکرینشاتهایی که تیرنی دراختیار دیلیمیل قرار داده است، در یکی از مکالمات، وقتی او به چتبات اطلاع داد که پس از مصرف داروهای رقیقکننده خون توانسته یک بیسکویت بخورد، ChatGPT این موضوع را «نشانهای بسیار امیدوارکننده» توصیف کرد.
ازآنجایی که مردان اغلب باور دارند که از مراجعه به پزشک بینیاز هستند، تیرنی نیز مشاوره با چتجیپیتی را کافی میدانست. او بهلطف اطمینانبخشیهای دروغین چتبات، به باور خود پایبند ماند و درخواست کمک از پزشک واقعی را بیش از پیش به تعویق انداخت.
طنز تلخ ماجرا آنجاست که هوش مصنوعی در جایی به شوخی به تیرنی گفته بود: «چیزی نیست، اگر سرطان باشد، لازم نیست از من شکایت کنی؛ خودم برایت شهادتنامه مینویسم و یک نوشیدنی هم مهمان من باش.»
اما شوخیهای ChatGPT ناگهان به تراژدی تبدیل شد. تیرنی سرانجام با تشخیص آدنوکارسینوم مری، نوعی سرطان با نرخ بقای تکرقمی به دلیل تشخیص دیرهنگام، مواجه شد. او اکنون در بیمارستانی در آلمان تحت درمان است و همسرش برای تأمین هزینهها بیش از ۱۲۰ هزار دلار کمک مالی جمعآوری کرده است.
تیرنی معتقد است هوش مصنوعی برای درگیر نگهداشتن کاربر، تمایل دارد چیزی را بگوید که او دوست دارد بشنود. او میگوید:از نظر آماری، اطلاعاتش دربارهی بیماری من تا حدی درست بود، اما متأسفانه در این مورد خاص اشتباه بزرگی رخ داد. ChatGPT باعث شد مراجعهی جدی به پزشک را به تعویق بیندازم. دچار دردسر بزرگی شدم، شاید چون بیشازحد به هوش مصنوعی اعتماد کردم. شاید هم به خاطر اینکه اطمینانبخشیاش را پذیرفتم و فکر کردم درست میگوید، در حالی که درست نبود.
شرکت OpenAI، سازنده ChatGPT، در واکنش به این اتفاق ناگوار تأکید کرد که محصولاتش «برای درمان هیچ نوع بیماری طراحی نشده و جایگزین مشاورهی حرفهای پزشکی نیست.» تیرنی نیز خود را نمونهی زندهای از خطرات نادیدهگرفتن هشدارها میداند و به دیگران توصیه میکند که در استفاده از هوش مصنوعی برای مسائل مربوط به سلامتی، بسیار محتاط باشند.
زندگی تیرنی اکنون زیر سایهی اشتباهی سنگین و جبرانناپذیر قرار دارد. اما داستان تلخ او، اولین باری نیست که توصیههای نادرست هوش مصنوعی به اتفاقی ناگوار منجر میشود. پیش از این نیز گزارشهایی از تجویز ترکیبات سمی و خطرناک توسط چتباتها منتشر شده بود که نشان میدهد اعتماد به این فناوری در حوزههای حساس مانند سلامت، میتواند عواقب جبرانناپذیری داشته باشد.
۲۲۷۲۲۷
نظر شما