OpenAI lanza Gpt-oss-120b y Gpt-oss-20b, trayendo modelos de última generación a dispositivos locales

En breve

OpenAI ha lanzado dos potentes modelos de peso abierto, gpt-oss-120b y gpt-oss-20b, que permiten un rendimiento avanzado de IA local sin acceso a internet, marcando un gran paso en la accesibilidad para desarrolladores.

OpenAI Lanza Gpt-oss-120b Y Gpt-oss-20b, Trayendo Modelos De Última Generación A Dispositivos Locales

La organización de investigación en inteligencia artificial OpenAI anunció el lanzamiento de dos avanzados modelos de lenguaje de peso abierto llamados gpt-oss-120b y gpt-oss-20b. Estos modelos ofrecen un sólido rendimiento en aplicaciones prácticas mientras mantienen bajos costos operativos. Lanzados bajo la flexible licencia Apache 2.0, superan a otros modelos abiertos de tamaño similar en tareas de razonamiento, exhiben robustas capacidades de uso de herramientas y están optimizados para una operación eficiente en hardware de grado de consumo. El proceso de entrenamiento involucró técnicas de aprendizaje por refuerzo combinadas con conocimientos derivados de los modelos internos más avanzados de OpenAI, incluidos o3 y otros sistemas de vanguardia.

El modelo gpt-oss-120b rinde casi al mismo nivel que el modelo o4-mini de OpenAI en benchmarks de razonamiento fundamental y funciona de manera eficiente en una sola GPU de 80 GB. Mientras tanto, el modelo gpt-oss-20b logra resultados comparables al o3-mini de OpenAI en benchmarks comunes y es capaz de operar en dispositivos de borde con solo 16 GB de memoria, lo que lo hace adecuado para aplicaciones en el dispositivo, inferencia local o pruebas rápidas sin requerir una infraestructura costosa. Ambos modelos demuestran fuertes habilidades en el uso de herramientas, llamadas a funciones de pocos disparos, razonamiento de cadena de pensamiento (CoT) como se demostró en la evaluación agentic de Tau-Bench y HealthBench, superando en ocasiones a modelos propietarios como OpenAI o1 y GPT-4o.

Estos modelos son compatibles con la API de Respuestas y están diseñados para integrarse dentro de flujos de trabajo agénticos, ofreciendo seguimiento avanzado de instrucciones, uso de herramientas incluyendo búsqueda en la web y ejecución de código Python, y capacidades de razonamiento. Esto incluye un esfuerzo de razonamiento ajustable para optimizar tareas que no requieren razonamiento complejo o que priorizan una baja latencia en las salidas finales. Ambos modelos son completamente personalizables, soportan razonamiento completo en cadena de pensamientos y acomodan formatos de salida estructurados.

Las consideraciones de seguridad son centrales para el lanzamiento de estos modelos, especialmente dada su naturaleza abierta. Junto con una capacitación y evaluaciones de seguridad completas, se aplicó una capa adicional de pruebas a través de una versión ajustada adversarialmente de gpt-oss-120b bajo el Marco de Preparación de OpenAI. Los modelos gpt-oss logran un rendimiento de referencia en seguridad comparable a los últimos modelos patentados de OpenAI, proporcionando a los desarrolladores garantías de seguridad similares. Los resultados detallados y más información están disponibles en un artículo de investigación y una tarjeta de modelo, con la metodología revisada por expertos externos, representando un avance en el establecimiento de nuevos estándares de seguridad para modelos de peso abierto.

OpenAI ha colaborado con socios iniciales como AI Sweden, Orange y Snowflake para explorar usos del mundo real de estos modelos abiertos, incluyendo el alojamiento local para la seguridad de los datos y el ajuste fino en conjuntos de datos especializados. La disponibilidad de estos modelos abiertos tiene como objetivo empoderar a una amplia gama de usuarios, desde desarrolladores individuales hasta grandes empresas y entidades gubernamentales, para ejecutar y personalizar IA en su propia infraestructura. Cuando se combinan con otros modelos accesibles a través de la API de OpenAI, los desarrolladores pueden seleccionar entre una variedad de opciones que equilibran rendimiento, costo y latencia para soportar diversos flujos de trabajo de IA.

Gpt-oss-120b y Gpt-oss-20b ahora disponibles de forma gratuita con un amplio soporte de plataforma y hardware

Los pesos tanto para gpt-oss-120b como para gpt-oss-20b están accesibles abiertamente para su descarga en Hugging Face y se proporcionan con cuantización nativa en formato MXFP4. Esto permite que el modelo gpt-oss-120b funcione dentro de una capacidad de memoria de 80GB, mientras que el modelo gpt-oss-20b solo requiere 16GB. Ambos modelos han sido sometidos a un entrenamiento posterior utilizando el formato de aviso de armonía, y se dispone de un renderizador de armonía de código abierto en Python y Rust para facilitar su adopción. Además, se proporcionan implementaciones de referencia para ejecutar inferencias utilizando PyTorch y la plataforma Metal de Apple, junto con un conjunto de herramientas de ejemplo para su aplicación práctica.

Estos modelos están diseñados para la flexibilidad y facilidad de uso, apoyando el despliegue localmente, en el dispositivo o a través de proveedores de inferencia de terceros. Para mejorar la accesibilidad, se establecieron asociaciones antes del lanzamiento con las principales plataformas de despliegue, incluyendo Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare y OpenRouter. También se colaboró con fabricantes de hardware como NVIDIA, AMD, Cerebras y Groq para asegurar un rendimiento óptimo en varios sistemas.

Junto con este lanzamiento, Microsoft está entregando versiones optimizadas para GPU del modelo gpt-oss-20b para dispositivos Windows. Impulsadas por ONNX Runtime, estas versiones soportan inferencia local y son accesibles a través de Foundry Local y el AI Toolkit para VS Code, simplificando el proceso de integración para los desarrolladores en plataformas Windows.

Para los desarrolladores que buscan modelos completamente personalizables capaces de ajuste fino y despliegue dentro de sus propios entornos, los modelos gpt-oss ofrecen una solución adecuada. Por el contrario, para aquellos que requieren capacidades multimodales, herramientas integradas y una integración fluida en la plataforma, los modelos ofrecidos a través de la plataforma API siguen siendo la opción preferida. Se sigue monitoreando la retroalimentación de los desarrolladores, con la posible consideración para el futuro soporte de API de los modelos gpt-oss.

La introducción de gpt-oss-120b y gpt-oss-20b representa un avance notable en el ámbito de los modelos de peso abierto, proporcionando mejoras significativas en las habilidades de razonamiento y seguridad a su escala. Estos modelos abiertos complementan los modelos alojados propietarios al ofrecer a los desarrolladores una selección más amplia de herramientas para facilitar la investigación de vanguardia, estimular la innovación y promover un desarrollo de IA más seguro y transparente en diversas aplicaciones.

Además, estos modelos abiertos ayudan a reducir las barreras de entrada para los mercados emergentes, sectores con recursos limitados y organizaciones más pequeñas que pueden enfrentar limitaciones para adoptar soluciones propietarias. Al proporcionar herramientas accesibles y potentes, se empodera a los usuarios de todo el mundo para desarrollar, innovar y crear nuevas oportunidades. La disponibilidad generalizada de estos modelos de peso abierto capaces producidos en los Estados Unidos contribuye a la expansión del acceso equitativo a la IA.

Un ecosistema confiable de modelos abiertos es un componente esencial para promover un acceso amplio e inclusivo a la IA. Se alienta a los desarrolladores e investigadores a utilizar estos modelos para la experimentación, la colaboración y para ampliar los límites de lo que es alcanzable. Se anticipa con interés el progreso continuo en este campo.

GPT-1.42%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)