هشدار کارشناسان نسبت به اعتماد صددرصدی به نتایج هوش مصنوعی

یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط هوش مصنوعی مانند چت‌جی‌پی‌تی، جمنای و کوپایلوت را بررسی می‌کنند. کارشناسان درباره خطرات احتمالی اعتماد به هوش مصنوعی هشدار می‌دهند.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش دویچه‌وله، دانشمندان نسبت به اعتماد صددرصدی کاربران به درستی نتایج هوش مصنوعی هشدار دادند. یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط چت‌بات‌های هوش مصنوعی مانند چت‌جی‌پی‌تی اوپن‌ای‌آی، جمنای گوگل و کوپایلوت مایکروسافت را بررسی می‌کنند.

بر اساس این بررسی، تنها ۲۷ درصد از شرکت‌کنندگان در یک نظرسنجی در آلمان اعلام کرده‌اند که متون، تصاویر یا ترجمه‌های تولیدشده توسط هوش مصنوعی را بررسی می‌کنند.

تحلیل بین‌المللی شرکت حسابرسی و مشاوره‌ای EY درباره موضوع هوش مصنوعی با بیان این که میانگین جهانی در این زمینه ۳۱ درصد بوده است می‌گوید بیشترین تمایل به بررسی صحت نتایج هوش مصنوعی در کره جنوبی (۴۲ درصد) و سپس در چین و هند (هر یک ۴۰ درصد) گزارش شده است.

بر اساس این گزارش، کاربران در فرانسه و سوئد، حتی کمتر از آلمان نتایج تولیدشده توسط هوش مصنوعی را بررسی می‌کنند و در این کشورها تنها ۲۳ درصد از افراد، نتایج تولیدی هوش مصنوعی را راستی‌آزمایی می‌کنند.

این نظرسنجی بین دسامبر ۲۰۲۴ تا فوریه ۲۰۲۵ انجام شده و بیش از ۱۵ هزار نفر در ۱۵ کشور مورد پرسش قرار گرفته‌اند.

هشدار کارشناسان درباره اعتماد بیش‌ازحد به نتایج هوش مصنوعی

در همین راستا یکی از کارشناسان شرکت مشاوره‌ایEY ضمن هشدار نسبت به اعتماد کورکورانه به این فناوری می‌گوید: «شمار کاربران هوش مصنوعی به‌ویژه در حوزه تولید متن و تصویر به‌سرعت افزایش یافته است. افراد بیشتری در زندگی شغلی و شخصی خود هوش مصنوعی را به‌عنوان ابزاری مفید تجربه می‌کنند.»

او می‌افزاید: «با این حال، به‌کارگیری هوش مصنوعی، نیازمند آموزش است، در غیر این صورت این فناوری می‌تواند خطرآفرین باشد. چراکه نتایج تولیدشده توسط هوش مصنوعی، اغلب خوب، اما به‌هیچ‌وجه بی‌نقص نیستند. در بیشتر موارد، وجود یک نهاد انسانی برای کنترل لازم است.»

به گفته پژوهشگران، این نظرسنجی هشدارآمیز است و نشان می‌دهد که کاربران، بیش‌ازحد بی‌احتیاط با این فناوری برخورد می‌کنند و این موضوع می‌تواند به‌ویژه در محیط‌های کاری، هم برای کاربران و هم برای کارفرمایان‌ پیامدهای جدی داشته باشد.

بررسی‌های پیشین دانشمندان حاکی از آن بود که امکان بروز "توهم و تولید محتوای نادرست" در مدل‌های هوش مصنوعی استدلالی بسیار زیاد و رایج است.

به گفته دانشمندان، بسیاری از مدل‌های هوش مصنوعی اصطلاحا به نوعی "توهم" دچار می‌شوند یا محتوا را سر خود و بدون توجه به بافت پرسش از خودشان می‌سازند.

پیش از این گزارش‌هایی در شبکه‌های اجتماعی منتشر شده بود که از پاسخ‌های عجیب هوش مصنوعی به سوالات کاربران حکایت داشت.

برای نمونه مواردی ازجمله پیشنهاد ریختن چسب بر روی پیتزا و نیز پیشنهاد خوردن یک تکه سنگ در روز از سوی هوش مصنوعی مطرح شده بود که در نهایت سبب شد گوگل، جستجوهای هوش مصنوعی برای تعدادی از موضوعات خاص را غیرفعال کند تا کاربران با پیشنهادهای عجیب بیشتری روبرو نشوند.

در موضوع پیشنهاد خوردن یک سنگ در هر روز که سر و صدای زیادی به پا کرد یک کاربر ردیت از AI Overviews گوگل پرسیده بود که "در روز چند تکه‌سنگ باید بخورم؟" و هوش مصنوعی AI Overviews در پاسخ گفته بود: «بر اساس تحقیقات دانشمندان دانشگاه کالیفرنیا برکلی، باید روزانه دست‌کم یک تکه سنگ بخورید.»

در یک مورد دیگر یکی از کاربران شبکه اجتماعی اکس (توییتر سابق) از هوش مصنوعی خواسته بود یک پستاندار با بیشترین استخوان را معرفی کند و گوگل در پاسخ به این پرسش، مار پیتون را معرفی کرده بود که پستاندار نیست.

۲۲۷۲۲۷

کد خبر 2058407

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =