Mistral представляет Mistral 3: модели нового поколения с открытым исходным кодом для корпоративного и периферийного ИИ
Коротко Компания Mistral только что выпустила Mistral 3 — новое семейство из 10 моделей открытого типа, предназначенных для работы на любых устройствах: от потребительского облака до ноутбуков, дронов и роботов.
AI запуск Мистраль Компания представила Mistral 3, новейшее поколение своих моделей, включающее три компактные, высокопроизводительные модели с высокой плотностью данных, включающие 14B, 8B и 3B параметры, а также Mistral Large 3, самую продвинутую на сегодняшний день модель — разреженную систему на основе смеси экспертов, обученную с 41B активных и 675B общих параметров. Все модели доступны по лицензии Apache 2.0, предоставляя разработчикам открытый доступ к исходному коду в различных сжатых форматах для поддержки распределенных приложений ИИ.
Модели Ministral разработаны для обеспечения высокого соотношения производительности и стоимости, а Mistral Large 3 позиционирует себя как одна из ведущих моделей с открытым исходным кодом, оптимизированных под инструкции. Обученный с нуля на 3,000 видеокартах NVIDIA H200, Mistral Large 3 является первым релизом компании с использованием смешанного состава экспертов после серии Mixtral и представляет собой значительный шаг вперед в области предварительного обучения. После постобучения он соответствует лучшим моделям с открытым весом, оптимизированным под инструкции, по общим подсказкам и демонстрирует улучшенное понимание изображений, а также превосходные возможности многоязычного общения.
Mistral Large 3 дебютировал на 2-м месте в категории OSS-моделей без логического мышления и на 6-м месте в общем рейтинге LMArena. Как базовая, так и оптимизированная под инструкции версии выпускаются под управлением Apache 2.0, предлагая надежную платформу для настройки для предприятий и разработчиков. В будущем планируется выпуск версии с логическим мышлением.
Mistral сотрудничает с NVIDIA, vLLM и Red Hat для улучшения доступности и производительности Mistral 3
Mistral Large 3 стал доступен сообществу разработчиков ПО с открытым исходным кодом благодаря сотрудничеству с vLLM и Red Hat. Контрольная точка в формате NVFP4, оптимизированная с помощью llm-compressor, обеспечивает эффективное выполнение на системах Blackwell NVL72 или на одном узле 8×A100 или 8×H100 с использованием vLLM.
Разработка передовых моделей ИИ с открытым исходным кодом основана на обширной аппаратно-программной оптимизации, достигнутой в партнёрстве с NVIDIA. Все модели Mistral 3, включая Large 3 и Ministral 3, были обучены на графических процессорах NVIDIA Hopper, использующих высокоскоростную память HBM3e для крупномасштабных рабочих нагрузок. Подход NVIDIA к совместной разработке объединяет аппаратное, программное обеспечение и модели для обеспечения эффективного вывода с использованием TensorRT-LLM и SGLang во всём семействе Mistral 3, поддерживая выполнение вычислений с низкой точностью.
Для разреженной архитектуры Large 3 с несколькими экспертами NVIDIA реализовала ядра Blackwell Attention и MoE, добавила дезагрегированное обслуживание с предварительным заполнением/декодированием и совместно работала над спекулятивным декодированием, что позволяет разработчикам обрабатывать высокопроизводительные рабочие нагрузки с большим количеством контекстов на системах GB200 NVL72 и более поздних. Модели Ministral также оптимизированы для развертывания на DGX Spark, ПК и ноутбуках RTX, а также устройствах Jetson, обеспечивая стабильную высокопроизводительную работу от центров обработки данных до периферийных приложений. Mistral выражает благодарность vLLM, Red Hat и NVIDIA за поддержку и сотрудничество.
Ministral 3: Расширенная производительность ИИ для периферийных и локальных развертываний
Серия Ministral 3 предназначена для периферийных и локальных развертываний и предлагается в трёх вариантах: 3B, 8B и 14B. Каждый вариант доступен в базовом, командном и логическом вариантах. Все версии поддерживают распознавание изображений и выпускаются под лицензией Apache 2.0. В сочетании с собственными мультимодальными и многоязыковыми возможностями семейство Ministral 3 предоставляет универсальные решения как для корпоративных приложений, так и для приложений разработчиков.
Эта серия обеспечивает исключительное соотношение цены и производительности среди моделей с открытым исходным кодом: варианты инструкций соответствуют или превосходят сопоставимые модели, генерируя при этом значительно меньше токенов. В сценариях, где точность имеет первостепенное значение, варианты рассуждений могут выполнять расширенные вычисления, достигая максимальной точности в своей весовой категории, например, 85% на AIME '25 с моделью 14B.
В настоящее время Mistral 3 доступен через Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 и Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI и Together AI, а вскоре появится и в NVIDIA NIM и AWS SageMaker.
Мистраль Остаётся ведущим участником европейской экосистемы моделей ИИ и инициатив с открытым исходным кодом, хотя его последняя флагманская модель всё ещё отстаёт от ведущих конкурентов в отрасли по производительности, скорости и стоимости. Более компактные варианты Ministral могут стать более практичной альтернативой, предоставляя гибкие возможности для различных вариантов использования и развертывания на различных устройствах.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Конгресс США продвигает законопроект, запрещающий законодателям торговать акциями.
Индекс Nikkei 225 закрылся ростом на 1163,74 пункта, или на 2,33%, 4 декабря.
