OpenAI запускает Gpt-oss-120b и Gpt-oss-20b, предоставляя современные модели для локальных устройств

Кратко

OpenAI выпустила две мощные модели с открытыми весами, gpt-oss-120b и gpt-oss-20b, обеспечивающие продвинутую локальную производительность ИИ без доступа в интернет, что является важным шагом к доступности для разработчиков.

OpenAI запускает Gpt-oss-120b и Gpt-oss-20b, предлагая современные модели для локальных устройств

Организация по исследованию искусственного интеллекта OpenAI объявила о выпуске двух продвинутых моделей языка с открытым весом под названиями gpt-oss-120b и gpt-oss-20b. Эти модели демонстрируют высокую производительность в практических приложениях при низких операционных затратах. Выпущенные под гибкой лицензией Apache 2.0, они превосходят другие открытые модели аналогичного размера в задачах рассуждения, обладают надежными возможностями использования инструментов и оптимизированы для эффективной работы на аппаратном обеспечении потребительского класса. Процесс обучения включал техники обучения с подкреплением, сочетанные с идеями, полученными из самых передовых внутренних моделей OpenAI, включая o3 и другие современные системы.

Модель gpt-oss-120b показывает почти такие же результаты, как модель o4-mini от OpenAI, по основным тестам на рассуждение и эффективно работает на одном 80-гигабайтном графическом процессоре. Тем временем модель gpt-oss-20b достигает результатов, сопоставимых с моделью o3-mini от OpenAI, по общим тестам и способна работать на крайних устройствах с всего лишь 16 ГБ памяти, что делает её подходящей для приложений на устройствах, локального вывода или быстрого тестирования без необходимости в дорогостоящей инфраструктуре. Обе модели демонстрируют сильные способности в использовании инструментов, вызове функций с минимальным количеством примеров, цепочках рассуждений (CoT), как показано в оценке Tau-Bench agentic и HealthBench, иногда превосходя проприетарные модели, такие как OpenAI o1 и GPT-4o.

Эти модели совместимы с API Responses и предназначены для интеграции в агентские рабочие процессы, предлагая продвинутые возможности выполнения инструкций, использование инструментов, включая веб-поиск и выполнение кода на Python, а также способности к рассуждению. Это включает в себя регулируемые усилия рассуждения для оптимизации задач, которые не требуют сложного рассуждения или придают приоритет низкой задержке в конечных выводах. Обе модели полностью настраиваемы, поддерживают полное рассуждение цепочкой мыслей и допускают структурированные форматы вывода.

Соображения безопасности являются центральными для выпуска этих моделей, особенно учитывая их открытый характер. Наряду с комплексным обучением по безопасности и оценками, дополнительный уровень тестирования был применен с помощью адаптированной версии gpt-oss-120b в рамках Подхода готовности OpenAI. Модели gpt-oss достигают производительности по безопасности, сопоставимой с последними закрытыми моделями OpenAI, предоставляя разработчикам аналогичные гарантии безопасности. Подробные результаты и дополнительная информация доступны в исследовательской статье и карточке модели, методология которых была рассмотрена внешними экспертами, что представляет собой прогресс в установлении новых стандартов безопасности для моделей с открытым весом.

OpenAI сотрудничала с ранними партнерами, такими как AI Sweden, Orange и Snowflake, чтобы исследовать реальные примеры использования этих открытых моделей, включая локальный хостинг для обеспечения безопасности данных и дообучение на специализированных наборах данных. Доступность этих открытых моделей направлена на то, чтобы предоставить возможность широкому кругу пользователей — от индивидуальных разработчиков до крупных предприятий и государственных организаций — запускать и настраивать ИИ на своей собственной инфраструктуре. В сочетании с другими моделями, доступными через API OpenAI, разработчики могут выбирать из различных вариантов, балансирующих производительность, стоимость и задержку, чтобы поддерживать разнообразные рабочие процессы ИИ.

Gpt-oss-120b и Gpt-oss-20b теперь доступны бесплатно с обширной поддержкой платформы и оборудования

Весы для gpt-oss-120b и gpt-oss-20b доступны для загрузки на Hugging Face и предоставляются с нативной квантизацией в формате MXFP4. Это позволяет модели gpt-oss-120b работать в пределах 80 ГБ памяти, в то время как модели gpt-oss-20b требуется всего 16 ГБ. Обе модели прошли постобучение с использованием формата запроса harmony, и доступен открытый рендерер harmony на Python и Rust для содействия внедрению. Кроме того, предоставляются эталонные реализации для выполнения вывода с использованием PyTorch и платформы Metal от Apple, а также набор примеров инструментов для практического применения.

Эти модели разработаны для гибкости и удобства использования, поддерживая развертывание локально, на устройствах или через сторонних поставщиков вывода. Для повышения доступности до запуска были установлены партнерства с основными платформами развертывания, включая Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare и OpenRouter. Также было проведено сотрудничество с производителями оборудования, такими как NVIDIA, AMD, Cerebras и Groq, чтобы обеспечить оптимальную производительность на различных системах.

В связи с этим релизом, Microsoft выпускает оптимизированные для GPU версии модели gpt-oss-20b для устройств Windows. Работая на базе ONNX Runtime, эти версии поддерживают локальный вывод и доступны через Foundry Local и AI Toolkit для VS Code, упрощая процесс интеграции для разработчиков на платформах Windows.

Для разработчиков, стремящихся к полностью настраиваемым моделям, способным к тонкой настройке и развертыванию в их собственных средах, модели gpt-oss предоставляют подходящее решение. Напротив, для тех, кто требует мультимодальных возможностей, встроенных инструментов и бесшовной интеграции с платформой, модели, предлагаемые через платформу API, остаются предпочтительным выбором. Обратная связь от разработчиков продолжает отслеживаться, с возможным учетом будущей поддержки API моделей gpt-oss.

Введение gpt-oss-120b и gpt-oss-20b представляет собой значительный шаг вперед в области моделей с открытыми весами, обеспечивая значительные улучшения в способностях к рассуждению и безопасности на их уровне. Эти открытые модели дополняют проприетарные хостинговые модели, предоставляя разработчикам более широкий выбор инструментов для содействия передовым исследованиям, стимулирования инноваций и содействия более безопасной и прозрачной разработке ИИ в различных приложениях.

Кроме того, эти открытые модели помогают снизить барьеры входа для развивающихся рынков, секторов с ограниченными ресурсами и небольших организаций, которые могут столкнуться с трудностями при внедрении проприетарных решений. Обеспечивая доступные и мощные инструменты, пользователи по всему миру получают возможность развивать, инновацировать и создавать новые возможности. Широкая доступность этих мощных открытых моделей, созданных в Соединенных Штатах, способствует расширению справедливого доступа к ИИ.

Надежная экосистема открытых моделей является важным компонентом для содействия широкому и инклюзивному доступу к ИИ. Разработчиков и исследователей поощряют использовать эти модели для экспериментов, сотрудничества и расширения границ того, что возможно. Текущий прогресс в этой области ожидается с интересом.

GPT-0.8%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить