هر بچه‌ای می‌تواند اما هوش مصنوعی نمی‌تواند / انسان، ماشین را شکست داد

ناتوانی در پردازش بصری و فضایی و کمبود داده‌های آموزشی، از ضعف شگفت‌انگیز هوش مصنوعی در انجام وظایف ساده‌ای چون خواندن ساعت یا تشخیص روزهای تقویمی پرده برداشته است.

تینا مزدکی_پژوهشی تازه نشان داده است که هوش مصنوعی (AI) در انجام مجموعه‌ای از وظایفی که اکثر انسان‌ها به‌راحتی از عهده‌ی آن‌ها برمی‌آیند، دچار مشکل است؛ از جمله خواندن ساعت آنالوگ یا فهمیدن اینکه یک تاریخ مشخص، در چه روزی از هفته قرار می‌گیرد.

با وجود توانایی‌های تحسین‌برانگیز مدل‌های هوش مصنوعی در نوشتن کد، تولید تصاویر واقع‌گرایانه، خلق متن‌هایی مشابه انسان و حتی موفقیت نسبی در گذراندن آزمون‌ها، این سیستم‌ها در تفسیر موقعیت عقربه‌های ساعت‌های روزمره و انجام محاسبات پایه‌ای تقویمی شکست می‌خورند.

پژوهشگران این کاستی‌های غیرمنتظره را در کنفرانس بین‌المللی «بازنمایی‌های یادگیری» سال ۲۰۲۵ (ICLR ۲۰۲۵) ارائه دادند. همچنین یافته‌هایشان در تاریخ ۱۸ مارس در پایگاه پیش‌چاپ arXiv منتشر شده است. این مقاله هنوز تحت داوری همتا قرار نگرفته است.

سرگروه این پژوهش روهیت ساکسنا، پژوهشگر دانشگاه ادینبرا، در بیانیه‌ای گفت:«بیشتر مردم از سنین پایین قادر به تشخیص زمان و استفاده از تقویم هستند. یافته‌های ما شکاف قابل‌توجهی را در توانایی هوش مصنوعی برای انجام مهارت‌هایی که برای انسان‌ها بسیار پایه‌ای تلقی می‌شوند، برجسته می‌کند. اگر قرار است سیستم‌های هوش مصنوعی به‌طور موفق در کاربردهای واقعی و زمان‌محور مانند زمان‌بندی، اتوماسیون و فناوری‌های کمک‌یار ادغام شوند، باید این کمبودها برطرف شوند.»

برای بررسی توانایی‌های زمانی هوش مصنوعی، پژوهشگران مجموعه‌داده‌ای سفارشی‌شده شامل تصاویر ساعت و تقویم را به مدل‌های بزرگ زبان چندوجهی (MLLMs) که می‌توانند اطلاعات متنی و بصری را هم‌زمان پردازش کنند، وارد کردند. مدل‌های استفاده‌شده در این مطالعه شامل Llama ۳.۲-Vision از متا، Claude-۳.۵ Sonnet از آنتروپیک، Gemini ۲.۰ از گوگل و GPT-۴o از شرکت OpenAI بودند. نتایج اما ضعیف بود، این مدل‌ها در بیش از نیمی از مواقع نتوانستند زمان درست را از روی تصویر ساعت تشخیص دهند یا روز هفته‌ی متناظر با یک تاریخ نمونه را به‌درستی مشخص کنند.

پژوهشگران اما برای این ضعف غیرمنتظره در خواندن ساعت توسط هوش مصنوعی، توضیحی دارند. ساکسنا می‌گوید:«سیستم‌های اولیه بر اساس نمونه‌های برچسب‌خورده آموزش می‌دیدند. اما خواندن ساعت به چیزی فراتر از این نیاز دارد—استدلال فضایی. مدل باید بتواند عقربه‌های هم‌پوشان را تشخیص دهد، زاویه‌ها را اندازه‌گیری کند و با طراحی‌های متنوعی چون اعداد رومی یا صفحه‌نماهای استایل‌دار کار کند. اینکه AI تشخیص دهد 'این یک ساعت است' آسان‌تر از خواندن واقعی آن است.»

کار با تاریخ‌ها نیز به همان اندازه دشوار بود. برای مثال، وقتی از مدل‌ها پرسیده شد: «روز ۱۵۳ام سال، چه روزی از هفته خواهد بود؟» نرخ خطا بسیار بالا باقی ماند. به‌طور میانگین، سیستم‌های AI تنها ۳۸.۷ درصد از پرسش‌های مربوط به ساعت و ۲۶.۳ درصد از پرسش‌های تقویمی را درست پاسخ دادند. این ناتوانی شگفت‌آور است، چرا که محاسبات عددی یکی از پایه‌های بنیادین رایانش به‌حساب می‌آید. اما همان‌طور که ساکسنا توضیح می‌دهد، مدل‌های زبان بزرگ به‌شکل متفاوتی عمل می‌کنند.

او گفت:«محاسبات عددی برای رایانه‌های سنتی آسان هستند، اما برای مدل‌های زبانی بزرگ این‌طور نیست. هوش مصنوعی الگوریتم‌های ریاضی را اجرا نمی‌کند، بلکه خروجی را بر اساس الگوهایی که در داده‌های آموزشی دیده، پیش‌بینی می‌کند. بنابراین، ممکن است گاهی پاسخ درست بدهد، اما استدلالش مبتنی بر قواعد نیست و پژوهش ما این فاصله را به‌وضوح نشان می‌دهد.»

این پروژه تازه‌ترین نمونه از مجموعه تحقیقات روبه‌رشدی است که تفاوت میان درک هوش مصنوعی و انسان را برجسته می‌کنند. مدل‌ها پاسخ‌ها را از الگوهای آشنا استخراج می‌کنند و در مواقعی که مثال‌های کافی در داده‌های آموزشی‌شان باشد، عملکرد خوبی دارند. اما وقتی از آن‌ها خواسته می‌شود تا تعمیم دهند یا از استدلال انتزاعی استفاده کنند، دچار مشکل می‌شوند.ساکسنا می‌گوید:«کاری که برای ما بسیار ساده است—مثل خواندن ساعت—ممکن است برای هوش مصنوعی بسیار دشوار باشد، و برعکس.»

این تحقیق همچنین بر یکی از مشکلات بزرگ آموزش AI اشاره دارد: داده‌های محدود در پدیده‌های نسبتاً نادری مانند سال‌های کبیسه یا محاسبات تقویمی غیربدیهی. حتی اگر مدل‌های زبانی مثال‌های زیادی در مورد مفهوم سال کبیسه دیده باشند، به این معنا نیست که می‌توانند ارتباط لازم را برای انجام یک وظیفه‌ی بصری برقرار کنند.

این یافته‌ها نشان می‌دهد که هم باید داده‌های آموزشی هدفمندتری در اختیار مدل‌ها قرار داد و هم باید در شیوه‌ی مواجهه‌ی هوش مصنوعی با ترکیب منطق و استدلال فضایی تجدیدنظر کرد—به‌ویژه در وظایفی که به‌ندرت در معرض آن‌ها قرار می‌گیرند.

در نهایت، این مطالعه یک هشدار دیگر نیز در بر دارد: اعتماد بیش‌ازحد به خروجی هوش مصنوعی می‌تواند خطرناک باشد. ساکسنا تأکید می‌کند:«هوش مصنوعی قدرتمند است، اما در وظایفی که ادراک بصری با استدلال دقیق ترکیب می‌شود، همچنان به آزمون‌های سخت‌گیرانه، منطق پشتیبان و در بسیاری از موارد، حضور انسان در حلقه نیاز داریم.»

هر بچه‌ای می‌تواند اما هوش مصنوعی نمی‌تواند / انسان، ماشین را شکست داد

منبع: livescience

۵۸۳۲۳

کد خبر 2066249

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار