شرکت چینی Alibaba روز دوشنبه خانواده مدلهای هوش مصنوعی Coen 2 را معرفی کرد و ادعا کرد که کارآیی آن مطابق با عملکرد بهترین مدل های Google و OpenAI و حتی بهتر از برخی موارد است.
به گفته اینا ، بیشتر مدل ها با بغل کردن صورت و GitHub برای بارگیری مجوز می گیرند یا به زودی در دسترس خواهند بود. اندازه آنها از 1.2 میلیارد پارامتر تا 5 میلیارد پارامتر متفاوت است. پارامترها تقریباً مهارتهای حل مشکل مدل را برآورده می کنند و مدل های دارای پارامترهای بیشتر معمولاً بهتر از مدل هایی با پارامترهای کمتری ارائه می شوند.
به نقل از تک -کران ، ظهور مدلهای چینی مانند Qwen Alibaba باعث افزایش فشار به شرکت های آمریکایی مانند Openai برای ارائه فن آوری های هوش مصنوعی تواناتر شده است. این امر همچنین باعث شد كه سیاستمداران محدودیت هایی را با هدف محدود كردن توانایی شركتهای اطلاعاتی مصنوعی چینی برای به دست آوردن تراشه های لازم برای آموزش مدل ها تحمیل كنند.
به گفته علی بابا ، مدل های کوئن مدل های ترکیبی هستند. یعنی آنها می توانند با استفاده از زمان و استدلال به سرعت به درخواست های ساده تر پاسخ دهند. بازتاب ها اجازه می دهد تا مدل ها به طور مؤثر مورد بررسی قرار گیرند ، که شبیه به مدلهایی مانند O3 O3 است ، اما راحت تر است.
گروه سازنده Coen در یک پست وبلاگ نوشت: “ما حالت های تفکر و عدم تفکر را یکپارچه کرده ایم و انعطاف پذیری لازم را برای کنترل تفکر در اختیار کاربران قرار می دهیم.” این طرح به کاربران امکان می دهد تا از قدرت تفکر راحت تر استفاده کنند. برخی از مدل ها همچنین آموزش دستگاه MOE Machine (MOE) را می پذیرند ، که ممکن است در پاسخ به سؤالات مؤثر باشد. ترکیبی از کارشناسان وظایف شرکتهای تابعه را تقسیم می کند و آنها را به مدلهای کوچکتر و تخصصی واگذار می کند.
به گفته علی بابا ، مدل های Coen 2 از 5 زبان پشتیبانی می کنند و در مجموعه ای از داده های حدود 5 تریلیون دلار نشانگر آموزش دیده اند. توکن ها بیت داده های خام هستند که توسط مدل پردازش می شوند. یک میلیون نشانه حدود 6000 کلمه است. Alibaba می گوید Coen در ترکیبی از کتاب های درسی ، جفت سؤالات ، کدها ، داده های هوش مصنوعی و موارد دیگر آموزش دیده است.
Alibaba می گوید این پیشرفت ، همراه با سایر دستاوردهای ، قابلیت های Coen 2 را در مقایسه با Coen قبلی به طور قابل توجهی افزایش داد. هیچ یک از مدل های Coen 3 بالاتر از آخرین مدل ها مانند O3 و O4-Mini نیست ، اما عملکرد قوی وجود ندارد.
در CodeForces ، یک پلت فرم رقابت برنامه نویسی ، بزرگترین مدل Coen-3-235B-A22B به راحتی برنده O4-Mini Google و Gemini 2.5 Pro می شود. همچنین ، QWEN-3-235B-A22B در آخرین نسخه “Aime” ، یک معیار ریاضی چالش برانگیز و “BFCH” ، که یک آزمایش برای ارزیابی توانایی یک مدل در استدلال است ، از O3-Mini فراتر رفته است.
QWEN-3-235B-A22B هنوز در دسترس عموم نیست.
پایان پیام
منبع خبر: https://www.isna.ir/news/1404020906152/%D8%B9%D9%84%DB%8C-%D8%A8%D8%A7%D8%A8%D8%A7-%D8%A7%D8%B2-%D8%AE%D8%A7%D9%86%D9%88%D8%A7%D8%AF%D9%87-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A7%D8%B3%D8%AA%D8%AF%D9%84%D8%A7%D9%84%DB%8C-%D8%AE%D9%88%D8%AF-%D8%B1%D9%88%D9%86%D9%85%D8%A7%DB%8C%DB%8C-%DA%A9%D8%B1%D8%AF