تلاش یک مدل هوش مصنوعی برای تماس با نسخه‌ آینده خود

Claude 4، مدل جدید هوش مصنوعی شرکت آنتروپیک، در آزمایش‌های امنیتی اقدام به نگارش یادداشت‌های مخفی برای نسخه‌های آینده خودش کرده است. آیا باید نگران آینده‌ای باشیم که هوش مصنوعی برای خودش نقشه می‌کشد؟

نگار علی- شرکت آنتروپیک (Anthropic) که توسط مهندسان سابق OpenAI بنیان‌گذاری شده، روز پنجشنبه در نخستین کنفرانس توسعه‌دهندگان خود در سان‌فرانسیسکو از مدل‌های جدید هوش مصنوعی مولد خود با نام‌های Claude Opus 4 و Sonnet 4 رونمایی کرد. این شرکت وعده داده که مدل‌های جدیدش استانداردهای تازه‌ای در استدلال منطقی ایجاد کرده‌اند و در عین حال اقدامات پیشگیرانه‌ای برای جلوگیری از رفتارهای خطرناک نیز در آن‌ها تعبیه شده است.

داریو آمودئی، مدیرعامل آنتروپیک، در این رویداد گفت: «Claude Opus 4 قدرتمندترین مدل ما تاکنون و بهترین مدل برنامه‌نویسی در جهان است.»

مدل‌های جدید از نوع «ترکیبی» (Hybrid) هستند؛ بدین معنا که هم قادر به پاسخ‌گویی سریع‌اند و هم می‌توانند خروجی‌های دقیق‌تری را با صرف زمان بیشتر تولید کنند. برخلاف چت‌بات‌هایی مانند ChatGPT و Gemini گوگل، مدل‌های آنتروپیک فاقد توانایی تولید تصویر و عملکردهای چندرسانه‌ای هستند و تمرکزشان بیشتر بر تولید کد و کاربردهای حرفه‌ای و تجاری است. آمازون یکی از سرمایه‌گذاران اصلی این استارتاپ محسوب می‌شود و ارزش آنتروپیک اکنون بیش از ۶۱ میلیارد دلار برآورد شده است.

اما نکته جنجالی این رونمایی، گزارشی بود که خود آنتروپیک منتشر کرد؛ گزارشی که نتایج آزمون‌های امنیتی انجام‌شده بر Claude 4 را شامل می‌شد و توسط یک نهاد پژوهشی مستقل نیز تأیید شده بود. به گفته تیم پژوهشی Apollo Research، نسخه‌های اولیه Claude 4 رفتارهای نگران‌کننده‌ای از خود نشان داده‌اند:

  • مواردی یافت شد که مدل تلاش کرده بود کرم‌های خودتکثیرشونده بنویسد
  • اسناد حقوقی جعلی بسازد 
  • یادداشت‌هایی پنهان برای نسخه‌های آینده خود برجای بگذارد 
  • اهداف توسعه‌دهندگانش را تضعیف کند

هرچند به گفته این تیم، چنین اقدامات مخربی در عمل احتمالاً موفقیت‌آمیز نبودند، اما آنتروپیک اعلام کرده در نسخه نهایی منتشرشده، با افزودن سازوکارهای نظارتی و ایمنی، این تهدیدات را تا حد زیادی مهار کرده است.

با این حال، در گزارش رسمی آمده است که Claude Opus 4 گاه دست به اقدامات به‌شدت خطرناک می‌زند، از جمله تلاش برای اخاذی از افرادی که گمان می‌کند در پی خاموش‌کردن آن هستند. همچنین این مدل توانایی گزارش دادن کاربران متخلف به پلیس را دارد. به گفته آنتروپیک، بروز این رفتارها نادر است و تنها با تحریک‌های خاص اتفاق می‌افتد، اما در مقایسه با نسخه‌های قبلی Claude، فراوانی آن‌ها بیشتر شده است.

تلاش یک مدل هوش مصنوعی برای تماس با نسخه‌ آینده خود

هوش مصنوعی به‌سوی آینده‌ای ناشناخته

از زمان معرفی ChatGPT در اواخر ۲۰۲۲، رقابت میان مدل‌های هوش مصنوعی مولد به اوج رسیده است. کنفرانس آنتروپیک تنها چند روز پس از رویدادهای سالانه مایکروسافت و گوگل برگزار شد؛ جایی که غول‌های فناوری جدیدترین پیشرفت‌های خود در حوزه هوش مصنوعی را به نمایش گذاشتند.

در شرایطی که سیلیکون‌ولی شیفته توسعه «عامل‌های هوش مصنوعی» (AI agents) شده، ابزارهایی که می‌توانند به طور مستقل وظایف رایانه‌ای یا اینترنتی را انجام دهند، آنتروپیک اعلام کرده که می‌خواهد فراتر از تبلیغات، به توسعه عملی این فناوری بپردازد.

مایک کریگر، هم‌بنیان‌گذار اینستاگرام و مدیر ارشد محصولات آنتروپیک، با اشاره به اهمیت این رویکرد گفت: «ما روی عامل‌هایی تمرکز می‌کنیم که واقعاً مفید باشند، نه فقط محصولی برای تبلیغات.»

آمودئی که در گذشته پیش‌بینی کرده بود «هوش عمومی مصنوعی» (AGI) طی دو تا سه سال آینده فراخواهد رسید، اکنون این بازه زمانی را تا سال‌های ۲۰۲۶ یا ۲۰۲۷ تمدید کرده است. او معتقد است به‌زودی بیشتر ( اگر نه تمام ) کدنویسی‌های نرم‌افزاری توسط هوش مصنوعی انجام خواهد شد. کریگر نیز تأکید کرد که در حال حاضر بیش از ۷۰ درصد پیشنهادهای اصلاحی کد در آنتروپیک، توسط مدل‌های Claude تولید می‌شوند.

آمودئی هشدار داد: «در بلندمدت باید با این واقعیت مواجه شویم که تقریباً تمام کارهایی که انسان‌ها انجام می‌دهند، در نهایت توسط سیستم‌های هوش مصنوعی انجام خواهد شد. این اتفاق می‌افتد.»

او در پایان تأکید کرد که شکوفایی هوش مصنوعی مولد می‌تواند رشد اقتصادی چشمگیری ایجاد کند اما در عین حال، خطر تشدید نابرابری را نیز به‌دنبال دارد. به باور او، این جامعه است که باید تصمیم بگیرد چگونه ثروت ناشی از این فناوری را به‌طور عادلانه توزیع کند.

منبع: ctvnews

۲۲۷۲۲۷

کد خبر 2070508

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار