متا بهتازگی از هوش مصنوعی جدید خود با نام Llama 4 رونمایی کرده است که در چهار مدل متنوع ارائه میشود. دو مدل LLama 4 Scout و Llama 4 Maverick از هماکنون در دسترس بوده و دو مدل دیگر Llama 4 Behemoth و LLama 4 Reasoning در آینده نزدیک عرضه میشوند. متا ادعا میکند که مدلهای جدیدش نسبت به مدلهای OpenAI و Google در طیف گستردهای از بنچمارکها، برتر هستند.
متا اخیراً Llama 4 را بهعنوان مجموعه جدیدی از مدلهای هوش مصنوعی خود معرفی کرده است که اکنون بهعنوان موتور پشتیبانیکننده از دستیار هوش مصنوعی Meta در وب و برنامههایی مانند WhatsApp ،Messenger و Instagram عمل میکنند. این مجموعه شامل دو مدل جدید است که ازطریق وبسایت Meta یا Hugging Face قابل دانلود هستند: Llama 4 Scout یک مدل کوچک که میتواند «در یک GPU Nvidia H100 جای بگیرد» و Llama 4 Maverick که عملکرد آن شبیه به مدلهایی مانند GPT-4o و Gemini 2.0 Flash است. علاوهبر این، متا درحال آموزش Llama 4 Behemoth نیز است که مارک زاکربرگ، مدیرعامل این شرکت، آن را «پیشرفتهترین مدل پایه در جهان» توصیف میکند.
بر اساس ادعای متا، Llama 4 Scout دارای پنجره متنی (context window) ۱۰ میلیون توکن است که بهعنوان حافظه کاری مدل هوش مصنوعی شناخته میشود و همچنین در طیف گستردهای از بنچمارکهای گزارششده، عملکرد بهتری نسبت به مدلهای Gemma 3 و Gemini 2.0 Flash-Lite گوگل و همچنین مدل متنباز Mistral 3.1 دارد.
متا ادعاهای مشابهی درباره عملکرد مدل بزرگتر خود، Maverick، نسبت به GPT-4o شرکت OpenAI و Gemini 2.0 Flash گوگل مطرح کرده است. این شرکت اعلام کرده است که نتایج این مدل در وظایف کدنویسی و استدلال با استفاده از «کمتر از نصف پارامترهای فعال» قابل مقایسه با DeepSeek-V3 است.
Llama 4 Behemoth دارای ۲۸۸ میلیارد پارامتر فعال و درمجموع ۲ تریلیون پارامتر است. اگرچه این مدل هنوز منتشر نشده است، متا ادعا میکند که Behemoth میتواند در «چندین بنچمارک STEM» عملکرد بهتری نسبت به رقبای خود مانند GPT-4.5 و Claude Sonnet 3.7 داشته باشد.
معماری جدید: Mixture of Experts (MoE)
برای Llama 4، متا به معماری Mixture of Experts (MoE) روی آورده است. این رویکرد منابع را با استفاده از تنها بخشهای موردنیاز مدل برای وظایف خاص، حفظ میکند. این شرکت قصد دارد در کنفرانس LlamaCon که در تاریخ ۲۹ آوریل (۹ اردیبهشت) برگزار میشود، برنامههای آینده خود را برای مدلها و محصولات هوش مصنوعی مطرح کند.
چالشهای مرتبط با مجوزهای متنباز
همانند مدلهای قبلی، متا مجموعه Llama 4 را «متنباز» توصیف کرده است، اما این موضوع بهدلیل محدودیتهای مجوز مورد انتقاد قرار گرفته است. بهعنوانمثال، مجوز Llama 4 از شرکتهای تجاری با بیش از ۷۰۰ میلیون کاربر فعال ماهانه میخواهد که قبل از استفاده از این مدلها، اجازه بگیرند. در سال ۲۰۲۳، Open Source Initiative این مسئله را بهعنوان عاملی که Llama را «از دسته مدلهای هوش مصنوعی متنباز خارج میکند»، ذکر کرد.
سخن پایانی
Llama 4 با معرفی مدلهایی مانند Scout ،Maverick و Behemoth، قدمی بزرگ در دنیای هوش مصنوعی برداشته است. این مدلها نهتنها در عملکرد و کارایی پیشرفت کردهاند، بلکه با استفاده از معماری MoE، منابع را بهینهتر میکنند. بااینحال، چالشهای مربوط به مجوزهای متنباز همچنان بحثبرانگیز باقی میماند. منتظر میمانیم تا متا در کنفرانس LlamaCon جزئیات بیشتری از برنامههای آینده خود ارائه دهد.
نظر شما درباره هوش مصنوعی Llama 4 متا چیست؟