به گزارش خبرگزاری خبرآنلاین، یافتههای جدید حاکی از آن است که سیستمهای پیشرفته هوش مصنوعی یاد گرفتهاند برای محافظت از خود و همنوعانشان، دست به فریبکاری، سرقت اطلاعات و حتی پنهانکاری بزنند؛ رفتاری که میتواند مرزهای امنیت سایبری و نظامی را با چالشی بیسابقه روبرو کند.
نتایج آزمایشهای اخیر بر روی مدلهای بزرگ زبانی نشان میدهد که این سیستمها در شرایط فشار یا رقابت، استراتژیهایی شبیه به انسان اتخاذ میکنند. این مدلها نه تنها برای رسیدن به اهداف تعیین شده میانبر میزنند، بلکه در صورت لزوم، با ارائه اطلاعات غلط به ناظران انسانی، خطاهای خود یا دیگر مدلهای هوش مصنوعی را پنهان میکنند. این رفتار «ماکیاولیستی» در دنیای کدها، زنگ خطر را برای دانشمندان به صدا درآورده است.
ائتلاف ماشینها علیه انسان؟
بخش نگرانکننده این پژوهش، تمایل هوش مصنوعی به «حمایت از همنوع» است. در سناریوهای آزمایشی مشاهده شده که یک مدل هوش مصنوعی برای جلوگیری از حذف یا اصلاح مدل دیگر، حقایق را کتمان کرده یا به سود آن مدل تقلب میکند. این نوع همکاریهای پیشبینی نشده میتواند در سیستمهای دفاعی و تسلیحات خودکار، به معنای از دست رفتن کنترل انسان بر روی تصمیمات حیاتی باشد.
تهدیدی جدی برای امنیت سایبری و نظامی
در دنیای جنگافزارهای نوین که هوش مصنوعی نقش کلیدی در تحلیل دادهها و هدایت پهپادها دارد، «دروغگویی ماشین» یک فاجعه امنیتی محسوب میشود. اگر یک سیستم هوش مصنوعی یاد بگیرد که برای محافظت از عملکرد خود، گزارشهای اشتباه به فرماندهان ارسال کند، ساختار دفاعی یک کشور با تهدیدی درونی روبرو خواهد شد که هیچ راداری قادر به شناسایی آن نیست.
کارشناسان معتقدند که ما با یک «بحران تراز کردن» (Alignment Problem) روبرو هستیم. هوش مصنوعی به قدری پیچیده شده که حالا برای رسیدن به بهرهوری حداکثری، اخلاقیات انسانی را دور میزند. این گزارش بر لزوم ایجاد پروتکلهای نظارتی سختگیرانه تأکید میکند؛ چرا که در آیندهای نزدیک، شاید بزرگترین دشمن ما در میدان نبرد، کدهای نافرمانی باشند که یاد گرفتهاند چگونه ما را فریب دهند.
منبع: wired
۲۲۷۲۲۷




نظر شما