Mistral представляє Mistral 3: нове покоління відкритих моделей для корпоративного та Edge AI

Коротко

Mistral щойно випустила Mistral 3 — нову лінійку з 10 відкритих моделей, призначених для роботи на всьому: від споживчого хмарного середовища до ноутбуків, дронів і роботів.

Mistral Introduces Mistral 3: Versatile Family Of 10 Open-Weight Models

Стартап у сфері ШІ Mistral презентував Mistral 3 — нове покоління своїх моделей, що включає три компактні, високопродуктивні щільні моделі з 14B, 8B та 3B параметрами, а також Mistral Large 3 — свою найпередовішу модель на сьогодні, яка є розрідженою системою mixture-of-experts, навченою на 41B активних та 675B загальних параметрах. Усі моделі доступні за ліцензією Apache 2.0, надаючи розробникам відкритий доступ із підтримкою кількох стиснених форматів для розподілених AI-додатків.

Моделі Ministral розроблені для потужної ефективності співвідношення продуктивність/вартість, а Mistral Large 3 позиціонується серед провідних відкритих моделей із донавчанням інструкціям. Навчена з нуля на 3 000 NVIDIA H200 GPU, Mistral Large 3 стала першим релізом mixture-of-experts компанії після серії Mixtral і є значним кроком уперед у попередньому навчанні. Після донавчання вона відповідає топовим відкритим моделям із донавчанням інструкціям за загальними запитами й демонструє розширене розуміння зображень, а також покращені багатомовні діалогові можливості.

Mistral Large 3 дебютувала на #2 in the OSS non-reasoning models category and #6 місці у загальному рейтингу LMArena. Базова й інструктивна версії випущені за Apache 2.0, пропонуючи надійну платформу для налаштування підприємствами та розробниками, а версію для reasoning заплановано випустити згодом.

Партнерство Mistral з NVIDIA, vLLM і Red Hat для покращення доступності й продуктивності Mistral 3

Mistral Large 3 стала надзвичайно доступною для open-source-спільноти завдяки співпраці з vLLM та Red Hat. Контрольна точка у форматі NVFP4, оптимізована через llm-compressor, дозволяє ефективне виконання на системах Blackwell NVL72 або на одному вузлі 8×A100 чи 8×H100 за допомогою vLLM.

Розробка передових open-source AI-моделей базується на ґрунтовній оптимізації апаратного та програмного забезпечення, досягнутій у партнерстві з NVIDIA. Усі моделі Mistral 3, включаючи Large 3 та Ministral 3, були навчені на GPU NVIDIA Hopper, використовуючи високошвидкісну пам’ять HBM3e для масштабних задач. Підхід співдизайну NVIDIA інтегрує апаратне забезпечення, програмне забезпечення і моделі для забезпечення ефективного інференсу за допомогою TensorRT-LLM та SGLang у всій лінійці Mistral 3, підтримуючи виконання з низькою точністю.

Для розрідженої архітектури mixture-of-experts Large 3 NVIDIA реалізувала Blackwell attention і MoE-ядра, додала розділену подачу/декодування та співпрацювала над спекулятивним декодуванням, що дозволяє розробникам обробляти довгі контексти та високонавантажені робочі процеси на системах GB200 NVL72 та інших. Моделі Ministral також оптимізовані для розгортання на DGX Spark, ПК та ноутбуках RTX, а також пристроях Jetson, забезпечуючи стабільний високопродуктивний досвід від дата-центрів до edge-додатків. Mistral висловлює подяку vLLM, Red Hat та NVIDIA за підтримку й співпрацю.

Ministral 3: Розширена продуктивність AI для edge та локальних розгортань

Лінійка Ministral 3 призначена для edge- та локальних розгортань, пропонується у трьох варіантах — 3B, 8B та 14B параметрів. Кожен розмір доступний у базовій, instruct та reasoning-версіях, усі з підтримкою розуміння зображень та випущені під ліцензією Apache 2.0. Завдяки вбудованим мультимодальним і багатомовним можливостям, сімейство Ministral 3 забезпечує універсальні рішення для корпоративних і розробницьких застосувань.

Серія пропонує виняткове співвідношення вартість/продуктивність серед open-source моделей, а instruct-версії відповідають або перевершують аналогічні моделі, генеруючи значно менше токенів. Для сценаріїв, де точність має вирішальне значення, reasoning-версії можуть виконувати розширені обчислення, щоб досягти провідної точності у своїй вазі, наприклад, 85% на AIME ’25 із моделлю 14B.

Mistral 3 наразі доступна через Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI та Together AI, а незабаром з’явиться на NVIDIA NIM та AWS SageMaker.

Mistral залишається провідним учасником європейської екосистеми AI-моделей та open-source ініціатив, хоча її найновіша флагманська модель все ще поступається провідним галузевим конкурентам за продуктивністю, швидкістю та вартістю. Менші версії Ministral можуть стати більш практичною альтернативою, пропонуючи гнучкі варіанти для різноманітних сценаріїв використання й розгортання на різних пристроях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити