نگار علی- شرکت آنتروپیک (Anthropic) که توسط مهندسان سابق OpenAI بنیانگذاری شده، روز پنجشنبه در نخستین کنفرانس توسعهدهندگان خود در سانفرانسیسکو از مدلهای جدید هوش مصنوعی مولد خود با نامهای Claude Opus 4 و Sonnet 4 رونمایی کرد. این شرکت وعده داده که مدلهای جدیدش استانداردهای تازهای در استدلال منطقی ایجاد کردهاند و در عین حال اقدامات پیشگیرانهای برای جلوگیری از رفتارهای خطرناک نیز در آنها تعبیه شده است.
داریو آمودئی، مدیرعامل آنتروپیک، در این رویداد گفت: «Claude Opus 4 قدرتمندترین مدل ما تاکنون و بهترین مدل برنامهنویسی در جهان است.»
مدلهای جدید از نوع «ترکیبی» (Hybrid) هستند؛ بدین معنا که هم قادر به پاسخگویی سریعاند و هم میتوانند خروجیهای دقیقتری را با صرف زمان بیشتر تولید کنند. برخلاف چتباتهایی مانند ChatGPT و Gemini گوگل، مدلهای آنتروپیک فاقد توانایی تولید تصویر و عملکردهای چندرسانهای هستند و تمرکزشان بیشتر بر تولید کد و کاربردهای حرفهای و تجاری است. آمازون یکی از سرمایهگذاران اصلی این استارتاپ محسوب میشود و ارزش آنتروپیک اکنون بیش از ۶۱ میلیارد دلار برآورد شده است.
اما نکته جنجالی این رونمایی، گزارشی بود که خود آنتروپیک منتشر کرد؛ گزارشی که نتایج آزمونهای امنیتی انجامشده بر Claude 4 را شامل میشد و توسط یک نهاد پژوهشی مستقل نیز تأیید شده بود. به گفته تیم پژوهشی Apollo Research، نسخههای اولیه Claude 4 رفتارهای نگرانکنندهای از خود نشان دادهاند:
- مواردی یافت شد که مدل تلاش کرده بود کرمهای خودتکثیرشونده بنویسد
- اسناد حقوقی جعلی بسازد
- یادداشتهایی پنهان برای نسخههای آینده خود برجای بگذارد
- اهداف توسعهدهندگانش را تضعیف کند
هرچند به گفته این تیم، چنین اقدامات مخربی در عمل احتمالاً موفقیتآمیز نبودند، اما آنتروپیک اعلام کرده در نسخه نهایی منتشرشده، با افزودن سازوکارهای نظارتی و ایمنی، این تهدیدات را تا حد زیادی مهار کرده است.
با این حال، در گزارش رسمی آمده است که Claude Opus 4 گاه دست به اقدامات بهشدت خطرناک میزند، از جمله تلاش برای اخاذی از افرادی که گمان میکند در پی خاموشکردن آن هستند. همچنین این مدل توانایی گزارش دادن کاربران متخلف به پلیس را دارد. به گفته آنتروپیک، بروز این رفتارها نادر است و تنها با تحریکهای خاص اتفاق میافتد، اما در مقایسه با نسخههای قبلی Claude، فراوانی آنها بیشتر شده است.
هوش مصنوعی بهسوی آیندهای ناشناخته
از زمان معرفی ChatGPT در اواخر ۲۰۲۲، رقابت میان مدلهای هوش مصنوعی مولد به اوج رسیده است. کنفرانس آنتروپیک تنها چند روز پس از رویدادهای سالانه مایکروسافت و گوگل برگزار شد؛ جایی که غولهای فناوری جدیدترین پیشرفتهای خود در حوزه هوش مصنوعی را به نمایش گذاشتند.
در شرایطی که سیلیکونولی شیفته توسعه «عاملهای هوش مصنوعی» (AI agents) شده، ابزارهایی که میتوانند به طور مستقل وظایف رایانهای یا اینترنتی را انجام دهند، آنتروپیک اعلام کرده که میخواهد فراتر از تبلیغات، به توسعه عملی این فناوری بپردازد.
مایک کریگر، همبنیانگذار اینستاگرام و مدیر ارشد محصولات آنتروپیک، با اشاره به اهمیت این رویکرد گفت: «ما روی عاملهایی تمرکز میکنیم که واقعاً مفید باشند، نه فقط محصولی برای تبلیغات.»
آمودئی که در گذشته پیشبینی کرده بود «هوش عمومی مصنوعی» (AGI) طی دو تا سه سال آینده فراخواهد رسید، اکنون این بازه زمانی را تا سالهای ۲۰۲۶ یا ۲۰۲۷ تمدید کرده است. او معتقد است بهزودی بیشتر ( اگر نه تمام ) کدنویسیهای نرمافزاری توسط هوش مصنوعی انجام خواهد شد. کریگر نیز تأکید کرد که در حال حاضر بیش از ۷۰ درصد پیشنهادهای اصلاحی کد در آنتروپیک، توسط مدلهای Claude تولید میشوند.
آمودئی هشدار داد: «در بلندمدت باید با این واقعیت مواجه شویم که تقریباً تمام کارهایی که انسانها انجام میدهند، در نهایت توسط سیستمهای هوش مصنوعی انجام خواهد شد. این اتفاق میافتد.»
او در پایان تأکید کرد که شکوفایی هوش مصنوعی مولد میتواند رشد اقتصادی چشمگیری ایجاد کند اما در عین حال، خطر تشدید نابرابری را نیز بهدنبال دارد. به باور او، این جامعه است که باید تصمیم بگیرد چگونه ثروت ناشی از این فناوری را بهطور عادلانه توزیع کند.
منبع: ctvnews
۲۲۷۲۲۷
نظر شما