نگار علی- شرکت چینی علیبابا با انتشار مدل متنباز «Qwen3-Coder» بار دیگر نشان داد که نباید قدرت روزافزون چین در حوزه هوش مصنوعی را نادیده گرفت. این مدل، که با ۴۸۰ میلیارد پارامتر و معماری Mixture-of-Experts توسعه یافته، بهطور خاص برای انجام وظایف پیچیده کدنویسی، استفاده از ابزارها و اتوماسیون مرورگر طراحی شده است.
در آزمونهای مختلف، Qwen3-Coder موفق شده است با مدلهای بستهای چون Claude 4 Sonnet رقابت کند و حتی عملکرد بهتری نسبت به GPT-4.1 و Gemini 2.5 Pro از خود نشان دهد. دقت این مدل در نسخه چندمرحلهای به ۶۹.۶٪ رسیده است؛ رقمی بسیار نزدیک به بهترین مدلهای اختصاصی جهان.
کدنویسی در سطح حرفهای و پشتیبانی از ۳۵۸ زبان برنامهنویسی
به گفته کارشناسان، Qwen3-Coder نهتنها در تولید کد عملکرد چشمگیری دارد، بلکه میتواند پروژههای بزرگ را بهخوبی درک و تحلیل کند. این مدل همچنین از پنجره متنی فوقطولانی تا یک میلیون توکن پشتیبانی میکند که برای وظایف پیچیده و پیوسته، یک مزیت کلیدی است.
رقابت داغ بر سر متنبازها
انتشار این مدل، درحالیکه OpenAI هنوز مدل متنباز خود را منتشر نکرده، باعث تحسین جامعه توسعهدهندگان شده است. بسیاری Qwen3-Coder را نشانهای از «فرار سرعتی» مدلهای متنباز از انحصار شرکتهای بزرگ غربی میدانند.
یکی از اساتید اقتصاد در ورشو گفته است: «این مدل بهتر از بسیاری از برنامهنویسان کد مینویسد و رایگان است. این دقیقاً همان چیزی است که توسعهدهندگان جهانی انتظارش را داشتند.»
همزمان با انتشار این مدل توسط علیبابا، کاخ سفید در سند جدیدی از لزوم حمایت از مدلهای متنباز برای استفادههای تجاری و دولتی صحبت کرده است. در این سند آمده است که دسترسی آزاد به مدلها برای تحقیقات دانشگاهی، امنیت داده و نوآوری حیاتی است.
با اینکه هنوز بسیاری از مدلهای غربی مانند Claude و GPT-4 بهصورت بسته باقی ماندهاند، Qwen3-Coder در حال تبدیل شدن به یک الگوی موفق برای جامعه جهانی متنباز است.
۲۲۷۲۲۷
نظر شما