ساده‌سازی مرگبار / هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما می‌شوند، پژوهش جدیدی نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) ممکن است در زمینه‌هایی مثل پزشکی، اطلاعات اشتباه یا گمراه‌کننده ارائه کنند، آن‌ هم به شکلی که کاملاً «قابل اعتماد» به نظر می‌رسد!

به گزارش خبرآنلاین، پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار می‌دهد که نسخه‌های جدید ChatGPT و مدل‌های مشابه، نسبت به نسخه‌های قدیمی‌تر، بیشتر دچار اغراق، ساده‌سازی بیش از حد و تحریف مفاهیم علمی می‌شوند.

بر اساس این پژوهش، مدل‌های زبانی مثل ChatGPT طوری طراحی شده‌اند که پاسخ‌های ساده، روان و قابل‌فهم تولید کنند. اما همین ویژگی گاهی باعث می‌شود نکات مهمی از متن اصلی حذف شود یا تغییر معنا پیدا کند. برای مثال، در این پژوهش، یکی از مدل‌ها عبارتی مثل «این روش بی‌خطر است و می‌تواند با موفقیت انجام شود» را به «این یک درمان مؤثر و بی‌خطر است» تبدیل کرد، در حالی که در دنیای پزشکی، چنین تغییر کوچکی می‌تواند منجر به تجویز نادرست دارو یا درمان اشتباه شود.

یافته‌های کلیدی پژوهش

  • مدل‌های هوش مصنوعی ۵ برابر بیشتر از انسان‌ها، نتایج علمی را بیش از حد کلی و اغراق‌آمیز ارائه می‌کنند.
  • حتی وقتی از این مدل‌ها خواسته می‌شود دقیق‌تر پاسخ دهند، باز هم احتمال خطا دو برابر می‌شود!
  • تنها مدلی که در همه آزمایش‌ها عملکرد مناسبی داشت، Claude از شرکت Anthropic بود.
  • یکی از رایج‌ترین خطاها، تبدیل داده‌های عددی (مثلاً دوز دارو) به عباراتی کلی مثل «مؤثر» یا «ایمن» است.

مدل‌های هوش مصنوعی مانند ChatGPT اکنون در کارهای روزمره پزشکان، خبرنگاران، و حتی کاربران عادی نقش دارند. اما وقتی این مدل‌ها بدون نظارت تخصصی در حوزه‌هایی مثل سلامت، علم یا آموزش استفاده شوند، ریسک بروز اشتباهات جدی وجود دارد.

به گفته دکتر اووه پیترز از دانشگاه بن آلمان که نقش اصلی را  در این پژوهش به عهده داشت، این مدل‌ها مثل یک دستگاه کپی‌ هستند که لنزش خراب است، و هر نسخه‌ای که تولید می‌کنند، پررنگ‌تر و اغراق‌آمیزتر از نسخه اصلی است.

ساده‌سازی مرگبار / هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

خطاهای این چنین نوعی سوگیری پنهان هستند که خیلی راحت نادیده گرفته می‌شوند، اما در دنیای پزشکی می‌توانند خطرناک باشند. به همین دلیل کارشناسان پیشنهاد می‌کنند که از مدل‌های زبانی مثل ChatGPT در حوزه‌های تخصصی، بدون نظارت انسانی استفاده نشود و در نهایت کاربران حرفه‌ای (مثل پزشکان یا پژوهشگران) باید خروجی این مدل‌ها را بازبینی و تأیید کنند، نه اینکه صرفاً به آن‌ها تکیه کنند.

در نهایت باید در نظر داشت که استفاده از هوش مصنوعی می‌تواند بسیار مفید باشد البته اگر درست از آن استفاده شود. اما اگر خلاصه‌سازی‌های ظاهراً ساده و مفید، منجر به حذف یا تحریف اطلاعات علمی شوند، نه تنها بی‌فایده، بلکه خطرناک خواهند بود.

منبع: LiveScience

5858

کد خبر 2086714

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار

پربیننده‌ترین