Новая компактная модель языка с высокой точностью

NVIDIA представила новую компактную модель языка Mistral-NeMo-Minitron 8B с высокой точностью для работы в облаках и на рабочих станциях с GPU. Эффективные вычисления, уменьшение размера модели и существенное снижение затрат на вычисления делают ее идеальным решением для чат-ботов, виртуальных помощников и образовательных инструментов
Новости 2024 08 22

Новая компактная модель языка с высокой точностью

Созданная компаниями Mistral AI и NVIDIA модель Mistral-NeMo-Minitron 8B представляет собой миниатюризированную версию модели Mistral NeMo 12B, обладающую высокой точностью и эффективностью вычислений. Разработанная специально для работы на ГПУ-ускоряемых дата-центрах, облачных платформах и рабочих станциях, она обеспечивает передовую точность в компактном формате. Эта модель открывает новые возможности для разработчиков генеративного искусственного интеллекта, позволяя им достичь высокой точности при минимальных затратах вычислительных ресурсов. Благодаря оптимизации модели для запуска на рабочих станциях и ноутбуках, Mistral-NeMo-Minitron 8B становится доступной и удобной для использования в организациях с ограниченными ресурсами, обеспечивая безопасность данных и оптимизируя операционную эффективность.

Оптимизация ради точности и эффективности

Модель Mistral-NeMo-Minitron 8B представляет собой уменьшенную версию модели Mistral NeMo 12B, обеспечивающую высокую точность с одновременной вычислительной эффективностью для запуска на GPU-ускоренных центрах обработки данных, в облаке и на рабочих станциях. Разработчики генеративного ИИ обычно сталкиваются с дилеммой между размером модели и точностью. Однако новая языковая модель от NVIDIA предлагает комбинацию лучших достижений и обеспечивает современную точность в компактном форм-факторе.

Mistral-NeMo-Minitron 8B — уменьшенная версия открытой модели Mistral NeMo 12B, выпущенной Mistral AI и NVIDIA в прошлом месяце. Она достаточно компактна, чтобы запускаться на рабочих станциях с NVIDIA RTX, демонстрируя выдающиеся результаты на различных бенчмарках для AI-систем управления чатами, виртуальными ассистентами, генераторами контента и образовательными инструментами. Расстажированные модели Minitron создаются NVIDIA с использованием платформы NVIDIA NeMo, обеспечивающей конечно-конечное программное обеспечение для разработки индивидуального генерирующего ИИ.

"Мы комбинировали два различных метода оптимизации ИИ — прореживание для сокращения параметров Mistral NeMo 12 миллиардов до 8 миллиардов и дистилляцию для улучшения точности," отметил Брайан Катандзаро, вице-президент по прикладным исследованиям глубокого обучения в NVIDIA. "Таким образом, Mistral-NeMo-Minitron 8B достигает сравнимой точности с оригинальной моделью при более низких вычислительных издержках."

Маленькие языковые модели, в отличие от более крупных, могут работать в реальном времени на рабочих станциях и ноутбуках. Это облегчает внедрение генеративного ИИ для организаций с ограниченными ресурсами, оптимизируя затраты, операционную эффективность и энергопотребление. Запуск языковых моделей локально на периферийных устройствах также повышает безопасность, поскольку данные не передаются с периферийного устройства на сервер.

Доступность и производительность

Mistral-NeMo-Minitron 8B представляет собой миниатюризированную версию модели Mistral NeMo 12B, предлагающую высокую точность совместно с вычислительной эффективностью для запуска модели на ускоренных графическими процессорами центрах обработки данных, облачных сервисах и рабочих станциях. Разработчики генеративного искусственного интеллекта обычно сталкиваются с дилеммой между размером модели и точностью. Однако новая языковая модель, выпущенная компанией NVIDIA, предоставляет лучшее из обоих миров, обеспечивая передовую точность в компактном форм-факторе.

Mistral-NeMo-Minitron 8B – миниатюризированная версия открытой модели Mistral NeMo 12B, выпущенной компаниями Mistral AI и NVIDIA в прошлом месяце. Она достаточно компактна для запуска на рабочей станции, оснащенной NVIDIA RTX, и при этом превосходит большинство испытаний с использованием ИИ-чат-ботов, виртуальных помощников, генераторов контента и образовательных инструментов. Модели Minitron конденсируются NVIDIA с помощью платформы NVIDIA NeMo для разработки настраиваемого генеративного искусственного интеллекта.

Оптимизация и кастомизация

Компактная модель Mistral-NeMo-Minitron 8B от NVIDIA представляет высокую точность в сочетании с эффективностью вычислений, позволяя запускать модель на GPU-ускоренных центрах обработки данных, в облаке и на рабочих станциях. Оптимизированная для низкой задержки и высокой пропускной способности, она позволяет создавать генеративные AI-решения на практике, обеспечивая быстрый отклик пользователей и оптимальную вычислительную эффективность. Разработчики могут загрузить модель с 8 миллиардами параметров и, используя инструментарий NVIDIA AI Foundry, подготовить свой собственный оптимизированный нейронный узел для более легкого развертывания корпоративных приложений. Техника прореживания и дистилляции, примененная в создании Mistral-NeMo-Minitron 8B, позволяет сохранить точность при снижении объема модели, что выгодно как для вычислительных затрат, так и для эффективности обучения.

Поиск