به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، گزارشهای منتشر شده حاکی از آن است که مدلهای اخیر هوش مصنوعی این شرکت، در میان صحبتهای جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده میکردند. این رفتار عجیب ابتدا توجه برنامهنویسان را جلب کرد که از کاربران حرفهای و دائمی این ابزار هستند. آنها متوجه شدند که بات بدون هیچ پیشزمینهای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است.
وقتی «خوره کتاب بودن» دردسرساز میشود
شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامهنویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذابتر و صمیمیتر شود.
با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازیهای نقشآفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانهای شد.
OpenAI در بیانیهای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعملهای جدید اصلاح شده است.»
مداخله فنی؛ «دیگر از گابلینها حرف نزن!»
برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدلهای خود تعریف کردهاند که آنها را مستقیماً از تکرار این واژگان منع میکند. کارشناسان معتقدند این اتفاق نشاندهنده چالشهای بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها میتواند منجر به رفتارهای پیشبینینشده و عجیب شود.
این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان میدهد، اما «وسواس گابلینی» یکی از عجیبترین نمونههای گزارش شده در سال ۲۰۲۶ میلادی به شمار میرود که مرز میان دنیای کدنویسی و افسانههای کهن را جابجا کرده است.
۲۲۷۲۲۷




نظر شما