Создана бюджетная альтернатива AI-модели OpenAI за $50

Альтернатива моделям OpenAI за $50
Исследователи из Стэнфорда и Вашингтонского университета представили новую AI-модель «рассуждения» под названием s1, разработанную всего за менее чем $50 на облачных вычислительных ресурсах. Эта альтернатива известным моделям, таким как o1 от OpenAI и R1 от DeepSeek, обеспечивает сопоставимые результаты в тестах на математические и программные навыки. Модель s1 доступна на GitHub вместе с данными и кодом, использованными для ее обучения.
Основной метод, использованный командой, — дистилляция, которая позволяет извлекать «рассуждающие» возможности из других моделей AI, в частности, из Google Gemini 2.0 Flash Thinking Experimental. Исследователи расценили возможность достижения высоких результатов с помощью небольшого выбранного набора данных и процесса супервайзинг-файнтюнинга, который оказывается дешевле методов, использованных конкурентами. Успех s1 подтверждает, что доступ к передовым AI-технологиям становится всё более доступным, ставя под сомнение традиционные подходы к разработке AI-моделей, требующим значительных инвестиций.
Сравнение s1 с современными моделями
Модель s1, разработанная исследователями Стэнфорда и Университета Вашингтона, демонстрирует впечатляющие результаты в сравнении с ведущими AI-моделями, такими как OpenAI’s o1 и DeepSeek’s R1. По результатам тестов, оценивающих математические и программные способности, s1 показывает сопоставимую производительность, что подчеркивает ее потенциал в области «умственного» мышления. Важным аспектом является то, что данные и код для обучения этой модели доступны на платформе GitHub, что делает ее доступной для широкой аудитории разработчиков и исследователей. Такой шаг открывает возможности для дальнейших экспериментов и улучшений в области AI, позволяя адаптировать модель для множества приложений. Исследователи утверждают, что s1 была создана с минимальными затратами, используя лишь небольшую выборку данных, что ставит вопрос о централизованном контроле и возможностях более крупных AI лабораторий в условиях нарастающей конкуренции.
Процесс дистилляции
Команда, разработавшая модель s1, применила метод дистилляции, который является важным шагом в процессе создания и улучшения AI-моделей. В сущности, дистилляция позволяет извлечь и перенести «способности рассуждения» из уже существующей модели в новую, что делает обучение более эффективным. Для этого исследователи начали с готовой базовой модели, затем обучали её, используя данные и ответы другой модели, что в данном случае было сделано на основе Google's Gemini 2.0 Flash Thinking Experimental. В результате, s1 смогла продемонстрировать аналогичную производительность в тестах, связанных с математикой и программированием, сопоставимую с моделями, разработанными большими AI-лабораториями. Такой подход не только снижает затраты на обучение новой модели, но и делает процесс более доступным для исследовательских групп с ограниченными ресурсами.
Источник информации для s1
Исследователи, разработавшие модель s1, отметили, что для ее создания использовалась дистилляция, основанная на одной из моделей Google под названием Gemini 2.0 Flash Thinking Experimental. Этот подход позволяет извлекать "рассуждающие" способности из существующей модели, обучаясь на её ответах. Одна из ключевых рекомендаций, которую представили исследователи, заключается в том, что для достижения высоких результатов в рассуждении не требуется масштабные датасеты; вместо этого можно использовать относительно небольшой набор вопросов и ответов, как это было сделано с рассчитанными 1000 парами данных для s1. Аналогичный метод dистилляции применили недавно специалисты из Беркли, однако их модель была создана с затратами около $450, что подчеркивает экономическую эффективность нового приближения, предложенного командой s1.
Вызовы для крупных лабораторий
Идея о том, что инновации в области искусственного интеллекта могут быть достигнуты без миллионов долларов на счету, весьма вдохновляет. Однако она также ставит под сомнение уникальность и защиту больших моделей AI. Если небольшая команда исследователей в состоянии воспроизвести мощную AI-модель всего за несколько десятков долларов, то где же тогда находится защищённость крупной лаборатории? Это приводит к волне вопросов о коммодитизации AI-моделей и их ценности на рынке. Крупные AI-лаборатории, такие как OpenAI, видят в этом реальную угрозу. Компания уже обвинила DeepSeek в неправомерном использовании данных своего API для дистилляции своих моделей. Эти обвинения подчеркивают опасения о том, что конкуренция в области AI может перерасти в борьбу за доступ к данным и методам, а также в необходимость разработки новых стратегий защиты интеллектуальной собственности.
Структура и цели модели s1
Команда, занимающаяся разработкой модели s1, наценилась на нахождение простых, но эффективных методов для достижения высокой производительности в области рассуждения, а также улучшения «масштабируемости во время тестирования». Это позволяет модели более тщательно обдумывать вопросы и давать более точные ответы. Подход, использованный в s1, включает дистилляцию, при которой модель обучается на уже существующих ответах другой, более сложной модели. Существующие исследования, в том числе работа OpenAI над o1, показали, что такие аспекты, как кардинальное улучшение времени размышления, могут значительно повысить качество ответов. Команда стремилась выделить ключевые элементы, которые позволят оптимизировать процесс обучения и адаптации модели, что может облегчить разработку аналогичных решений для последующих исследований и разработок в области искусственного интеллекта. В итоге, несмотря на ресурсные ограничения, такие простые методы могут открывать новые возможности для более широкого круга исследователей.
Экономичность методики
В статье о модели s1 подчеркивается экономичность методики, используемой для дистилляции моделей рассуждения. Исследователи утверждают, что для достижения высокой производительности не требуется огромных объемов данных или ресурсов, а достаточно относительно небольшого набора данных и применения процесса контролируемой тонкой настройки (SFT). Этот подход позволяет модели обучаться, имитируя определенные поведения на основе заранее подготовленного датасета. В отличие от масштабируемого обучения с подкреплением, которое использовалось в модели R1 от DeepSeek, SFT оказывается более доступным вариантом, что значительно снижает затраты на обучение и ресурсы. Исследование показывает, что такое дистиллирование может быть успешным даже с ограниченным бюджетом, что открывает новые возможности для небольших команд разработчиков в области ИИ.
Доступ к инструментам для дистилляции
Google предоставляет исследователям бесплатный доступ к своей модели Gemini 2.0 Flash Thinking Experimental через платформу Google AI Studio, однако с установленными дневными ограничениями. Этот доступ позволяет пользователям изучать и использовать возможности AI для создания и настройки своих моделей. Тем не менее, условия использования четко запрещают обратную разработку данных моделей для создания конкурентных сервисов. Это ограничение вызывает обсуждения в среде исследователей, так как многие стремятся использовать дистилляцию возможностей AI для конструирования собственных моделей. Запрет на обратное проектирование ставит под сомнение возможности коммерческого применения таких разработок без риска нарушения прав Google. Мы отправили запрос в компанию для получения комментариев по этому вопросу, чтобы прояснить, как они планируют регулировать использование их технологий.
Технические детали
Модель s1 была разработана на основе небольшой, готовой AI-модели, доступной для скачивания от китайской лаборатории Qwen, которая принадлежит Alibaba. Исследователи для ее обучения собрали уникальный набор из 1,000 тщательно отобранных вопросов и ответов, вместе с описанием «процесса мышления», использованного для формирования ответов. Этот процесс был заимствован из модели Gemini 2.0 Flash Thinking Experimental, разработанной Google. Использование этого базового набора данных стало критически важным для оптимизации модели s1 и обеспечения ее конкурентоспособности. В результате, такая сосредоточенность на качественном наборе данных позволяет s1 демонстрировать высокую эффективность на ряде AI-бенчмарков, при этом затраты на обучение модели остались минимальными, что подчеркивает эффективность методологии, использованной исследователями.
Производительность и будущее AI
После ускоренного обучения, которое заняло менее 30 минут на 16 GPU Nvidia H100, модель s1 продемонстрировала впечатляющие результаты в ряде тестов искусственного интеллекта. Никлас Мюеннигхофф, один из исследователей из Стэнфорда, отметил, что аренда необходимых вычислительных ресурсов для обучения модели обошлась бы ему всего в около $20. Это подчеркивает доступность технологий для исследований и инноваций в области AI.
Кроме того, команда исследователей применила интересный прием, чтобы s1 могла проверять свои ответы и увеличивать время на размышление перед тем, как ответить на вопрос. Они просто добавили слово «ждать» в процесс рассуждения модели, что способствовало более точным ответам. Этот подход открывает новые горизонты в оптимизации работы ИИ и позволяет значительно улучшить его производительность при минимальных затратах.
Инвестиции в AI к 2025 году
К 2025 году ожидается, что компании Meta, Google и Microsoft вложат сотни миллиардов долларов в развитие AI-инфраструктуры, акцентируя внимание на обучении новых поколений AI-моделей. Эти инвестиции подчеркивают необходимость продолжать инновации в области искусственного интеллекта, так как дистилляция, несмотря на её эффективность в воспроизводстве возможностей существующих моделей, не позволяет создавать принципиально новые решения. Дистилированные модели могут обеспечить сопоставимые результаты с дорогими моделями, такими как OpenAI и DeepSeek, однако для достижения значительного прорыва в AI-технологиях требуются более обширные и капиталоемкие исследования. Инвестиции в AI-инфраструктуру помогут не только улучшить качество существующих моделей, но и проложить путь для создания новых, более конкурентоспособных AI-систем в будущем.