به گزارش خبرگزاری خبرآنلاین و براساس گزارش دویچهوله، دانشمندان نسبت به اعتماد صددرصدی کاربران به درستی نتایج هوش مصنوعی هشدار دادند. یک بررسی جدید نشان میدهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط چتباتهای هوش مصنوعی مانند چتجیپیتی اوپنایآی، جمنای گوگل و کوپایلوت مایکروسافت را بررسی میکنند.
بر اساس این بررسی، تنها ۲۷ درصد از شرکتکنندگان در یک نظرسنجی در آلمان اعلام کردهاند که متون، تصاویر یا ترجمههای تولیدشده توسط هوش مصنوعی را بررسی میکنند.
تحلیل بینالمللی شرکت حسابرسی و مشاورهای EY درباره موضوع هوش مصنوعی با بیان این که میانگین جهانی در این زمینه ۳۱ درصد بوده است میگوید بیشترین تمایل به بررسی صحت نتایج هوش مصنوعی در کره جنوبی (۴۲ درصد) و سپس در چین و هند (هر یک ۴۰ درصد) گزارش شده است.
بر اساس این گزارش، کاربران در فرانسه و سوئد، حتی کمتر از آلمان نتایج تولیدشده توسط هوش مصنوعی را بررسی میکنند و در این کشورها تنها ۲۳ درصد از افراد، نتایج تولیدی هوش مصنوعی را راستیآزمایی میکنند.
این نظرسنجی بین دسامبر ۲۰۲۴ تا فوریه ۲۰۲۵ انجام شده و بیش از ۱۵ هزار نفر در ۱۵ کشور مورد پرسش قرار گرفتهاند.
هشدار کارشناسان درباره اعتماد بیشازحد به نتایج هوش مصنوعی
در همین راستا یکی از کارشناسان شرکت مشاورهایEY ضمن هشدار نسبت به اعتماد کورکورانه به این فناوری میگوید: «شمار کاربران هوش مصنوعی بهویژه در حوزه تولید متن و تصویر بهسرعت افزایش یافته است. افراد بیشتری در زندگی شغلی و شخصی خود هوش مصنوعی را بهعنوان ابزاری مفید تجربه میکنند.»
او میافزاید: «با این حال، بهکارگیری هوش مصنوعی، نیازمند آموزش است، در غیر این صورت این فناوری میتواند خطرآفرین باشد. چراکه نتایج تولیدشده توسط هوش مصنوعی، اغلب خوب، اما بههیچوجه بینقص نیستند. در بیشتر موارد، وجود یک نهاد انسانی برای کنترل لازم است.»
به گفته پژوهشگران، این نظرسنجی هشدارآمیز است و نشان میدهد که کاربران، بیشازحد بیاحتیاط با این فناوری برخورد میکنند و این موضوع میتواند بهویژه در محیطهای کاری، هم برای کاربران و هم برای کارفرمایان پیامدهای جدی داشته باشد.
بررسیهای پیشین دانشمندان حاکی از آن بود که امکان بروز "توهم و تولید محتوای نادرست" در مدلهای هوش مصنوعی استدلالی بسیار زیاد و رایج است.
به گفته دانشمندان، بسیاری از مدلهای هوش مصنوعی اصطلاحا به نوعی "توهم" دچار میشوند یا محتوا را سر خود و بدون توجه به بافت پرسش از خودشان میسازند.
پیش از این گزارشهایی در شبکههای اجتماعی منتشر شده بود که از پاسخهای عجیب هوش مصنوعی به سوالات کاربران حکایت داشت.
برای نمونه مواردی ازجمله پیشنهاد ریختن چسب بر روی پیتزا و نیز پیشنهاد خوردن یک تکه سنگ در روز از سوی هوش مصنوعی مطرح شده بود که در نهایت سبب شد گوگل، جستجوهای هوش مصنوعی برای تعدادی از موضوعات خاص را غیرفعال کند تا کاربران با پیشنهادهای عجیب بیشتری روبرو نشوند.
در موضوع پیشنهاد خوردن یک سنگ در هر روز که سر و صدای زیادی به پا کرد یک کاربر ردیت از AI Overviews گوگل پرسیده بود که "در روز چند تکهسنگ باید بخورم؟" و هوش مصنوعی AI Overviews در پاسخ گفته بود: «بر اساس تحقیقات دانشمندان دانشگاه کالیفرنیا برکلی، باید روزانه دستکم یک تکه سنگ بخورید.»
در یک مورد دیگر یکی از کاربران شبکه اجتماعی اکس (توییتر سابق) از هوش مصنوعی خواسته بود یک پستاندار با بیشترین استخوان را معرفی کند و گوگل در پاسخ به این پرسش، مار پیتون را معرفی کرده بود که پستاندار نیست.
۲۲۷۲۲۷
نظر شما