حساب کاربری ندارید؟ ثبت نام کنید

متا هوش مصنوعی Llama 4 را با مدل‌های جدید رسماً معرفی کرد

نوشته

15 ساعت قبل | بدون دیدگاه | برترین‌های ترنجی، متا، هوش مصنوعی

متا به‌تازگی از هوش مصنوعی جدید خود با نام Llama 4 رونمایی کرده است که در چهار مدل متنوع ارائه می‌شود. دو مدل LLama 4 Scout و Llama 4 Maverick از هم‌اکنون در دسترس بوده و دو مدل دیگر Llama 4 Behemoth و LLama 4 Reasoning در آینده نزدیک عرضه می‌شوند. متا ادعا می‌کند که مدل‌های جدیدش نسبت به مدل‌های OpenAI و Google در طیف گسترده‌ای از بنچمارک‌ها، برتر هستند.

هوش مصنوعی Llama 4 متا

متا اخیراً Llama 4 را به‌عنوان مجموعه جدیدی از مدل‌های هوش مصنوعی خود معرفی کرده است که اکنون به‌عنوان موتور پشتیبانی‌کننده از دستیار هوش مصنوعی Meta در وب و برنامه‌هایی مانند WhatsApp ،Messenger و Instagram عمل می‌کنند. این مجموعه شامل دو مدل جدید است که ازطریق وب‌سایت Meta یا Hugging Face قابل دانلود هستند: Llama 4 Scout یک مدل کوچک که می‌تواند «در یک GPU Nvidia H100 جای بگیرد» و Llama 4 Maverick که عملکرد آن شبیه به مدل‌هایی مانند GPT-4o و Gemini 2.0 Flash است. علاوه‌بر این، متا درحال آموزش Llama 4 Behemoth نیز است که مارک زاکربرگ، مدیرعامل این شرکت، آن را «پیشرفته‌ترین مدل پایه در جهان» توصیف می‌کند.

بر اساس ادعای متا، Llama 4 Scout دارای پنجره متنی (context window) ۱۰ میلیون توکن است که به‌عنوان حافظه کاری مدل هوش مصنوعی شناخته می‌شود و همچنین در طیف گسترده‌ای از بنچمارک‌های گزارش‌شده، عملکرد بهتری نسبت به مدل‌های Gemma 3 و Gemini 2.0 Flash-Lite گوگل و همچنین مدل متن‌باز Mistral 3.1 دارد.

متا ادعاهای مشابهی درباره عملکرد مدل بزرگ‌تر خود، Maverick، نسبت به GPT-4o شرکت OpenAI و Gemini 2.0 Flash گوگل مطرح کرده است. این شرکت اعلام کرده است که نتایج این مدل در وظایف کدنویسی و استدلال با استفاده از «کمتر از نصف پارامترهای فعال» قابل مقایسه با DeepSeek-V3 است.

هوش مصنوعی Llama 4 متا

هوش مصنوعی Llama 4 متا

Llama 4 Behemoth: غول آینده هوش مصنوعی

Llama 4 Behemoth دارای ۲۸۸ میلیارد پارامتر فعال و درمجموع ۲ تریلیون پارامتر است. اگرچه این مدل هنوز منتشر نشده است، متا ادعا می‌کند که Behemoth می‌تواند در «چندین بنچمارک STEM» عملکرد بهتری نسبت به رقبای خود مانند GPT-4.5 و Claude Sonnet 3.7 داشته باشد.

معماری جدید: Mixture of Experts (MoE)

برای Llama 4، متا به معماری Mixture of Experts (MoE) روی آورده است. این رویکرد منابع را با استفاده از تنها بخش‌های موردنیاز مدل برای وظایف خاص، حفظ می‌کند. این شرکت قصد دارد در کنفرانس LlamaCon که در تاریخ ۲۹ آوریل (۹ اردیبهشت) برگزار می‌شود، برنامه‌های آینده خود را برای مدل‌ها و محصولات هوش مصنوعی مطرح کند.

چالش‌های مرتبط با مجوزهای متن‌باز

همانند مدل‌های قبلی، متا مجموعه Llama 4 را «متن‌باز» توصیف کرده است، اما این موضوع به‌دلیل محدودیت‌های مجوز مورد انتقاد قرار گرفته است. به‌عنوان‌مثال، مجوز Llama 4 از شرکت‌های تجاری با بیش از ۷۰۰ میلیون کاربر فعال ماهانه می‌خواهد که قبل از استفاده از این مدل‌ها، اجازه بگیرند. در سال ۲۰۲۳، Open Source Initiative این مسئله را به‌عنوان عاملی که Llama را «از دسته مدل‌های هوش مصنوعی متن‌باز خارج می‌کند»، ذکر کرد.

سخن پایانی

Llama 4 با معرفی مدل‌هایی مانند Scout ،Maverick و Behemoth، قدمی بزرگ در دنیای هوش مصنوعی برداشته است. این مدل‌ها نه‌تنها در عملکرد و کارایی پیشرفت کرده‌اند، بلکه با استفاده از معماری MoE، منابع را بهینه‌تر می‌کنند. بااین‌حال، چالش‌های مربوط به مجوزهای متن‌باز همچنان بحث‌برانگیز باقی می‌ماند. منتظر می‌مانیم تا متا در کنفرانس LlamaCon جزئیات بیشتری از برنامه‌های آینده خود ارائه دهد.

نظر شما درباره هوش مصنوعی Llama 4 متا چیست؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی