به گزارش خبرآنلاین، پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار میدهد که نسخههای جدید ChatGPT و مدلهای مشابه، نسبت به نسخههای قدیمیتر، بیشتر دچار اغراق، سادهسازی بیش از حد و تحریف مفاهیم علمی میشوند.
بر اساس این پژوهش، مدلهای زبانی مثل ChatGPT طوری طراحی شدهاند که پاسخهای ساده، روان و قابلفهم تولید کنند. اما همین ویژگی گاهی باعث میشود نکات مهمی از متن اصلی حذف شود یا تغییر معنا پیدا کند. برای مثال، در این پژوهش، یکی از مدلها عبارتی مثل «این روش بیخطر است و میتواند با موفقیت انجام شود» را به «این یک درمان مؤثر و بیخطر است» تبدیل کرد، در حالی که در دنیای پزشکی، چنین تغییر کوچکی میتواند منجر به تجویز نادرست دارو یا درمان اشتباه شود.
یافتههای کلیدی پژوهش
- مدلهای هوش مصنوعی ۵ برابر بیشتر از انسانها، نتایج علمی را بیش از حد کلی و اغراقآمیز ارائه میکنند.
- حتی وقتی از این مدلها خواسته میشود دقیقتر پاسخ دهند، باز هم احتمال خطا دو برابر میشود!
- تنها مدلی که در همه آزمایشها عملکرد مناسبی داشت، Claude از شرکت Anthropic بود.
- یکی از رایجترین خطاها، تبدیل دادههای عددی (مثلاً دوز دارو) به عباراتی کلی مثل «مؤثر» یا «ایمن» است.
مدلهای هوش مصنوعی مانند ChatGPT اکنون در کارهای روزمره پزشکان، خبرنگاران، و حتی کاربران عادی نقش دارند. اما وقتی این مدلها بدون نظارت تخصصی در حوزههایی مثل سلامت، علم یا آموزش استفاده شوند، ریسک بروز اشتباهات جدی وجود دارد.
به گفته دکتر اووه پیترز از دانشگاه بن آلمان که نقش اصلی را در این پژوهش به عهده داشت، این مدلها مثل یک دستگاه کپی هستند که لنزش خراب است، و هر نسخهای که تولید میکنند، پررنگتر و اغراقآمیزتر از نسخه اصلی است.
خطاهای این چنین نوعی سوگیری پنهان هستند که خیلی راحت نادیده گرفته میشوند، اما در دنیای پزشکی میتوانند خطرناک باشند. به همین دلیل کارشناسان پیشنهاد میکنند که از مدلهای زبانی مثل ChatGPT در حوزههای تخصصی، بدون نظارت انسانی استفاده نشود و در نهایت کاربران حرفهای (مثل پزشکان یا پژوهشگران) باید خروجی این مدلها را بازبینی و تأیید کنند، نه اینکه صرفاً به آنها تکیه کنند.
در نهایت باید در نظر داشت که استفاده از هوش مصنوعی میتواند بسیار مفید باشد البته اگر درست از آن استفاده شود. اما اگر خلاصهسازیهای ظاهراً ساده و مفید، منجر به حذف یا تحریف اطلاعات علمی شوند، نه تنها بیفایده، بلکه خطرناک خواهند بود.
منبع: LiveScience
5858
نظر شما