Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Nemotron 3 de Nvidia afirma avances en precisión y rentabilidad.
- Los informes sugieren que Meta se está alejando de la tecnología de código abierto.
- Nvidia sostiene que es más abierta que Meta en cuanto a transparencia de datos.
Aprovechando un cambio en el campo de la inteligencia artificial de código abierto, el gigante de los chips Nvidia, cuyos procesadores dominan la IA, ha presentado la tercera generación de su familia Nemotron de grandes modelos de lenguajes de código abierto.
La nueva familia Nemotron 3 amplía la tecnología desde lo que habían sido modelos de mil millones de parámetros y 340 mil millones de parámetros, el número de pesos neuronales, a tres nuevos modelos, que van desde 30 mil millones para Nano, 100 mil millones para Super y 500 mil millones para Ultra.
El modelo Nano, disponible ahora en la plataforma de alojamiento de código HuggingFace, aumenta cuatro veces el rendimiento en tokens por segundo y extiende la ventana de contexto (la cantidad de datos que se pueden manipular en la memoria del modelo) a un millón de tokens, siete veces más grande que su predecesor.
Nvidia enfatizó que los modelos tienen como objetivo abordar varias preocupaciones de los usuarios empresariales de IA generativa, a quienes les preocupa la precisión, así como el costo creciente de procesar una cantidad cada vez mayor de tokens cada vez que la IA hace una predicción.
«Con Nemotron 3, nuestro objetivo es resolver esos problemas de apertura, eficiencia e inteligencia», dijo Kari Briski, vicepresidente de software de IA generativa de Nvidia, en una entrevista con ZDNET antes del lanzamiento.
Se espera que la versión Super del modelo llegue en enero y la Ultra en marzo o abril.
La influencia menguante de la llama
Nvidia, enfatizó Briski, tiene una importancia cada vez mayor en el código abierto. «Solo este año, tuvimos la mayor cantidad de contribuciones y repositorios en HuggingFace», me dijo.
De nuestra conversación me quedó claro que Nvidia ve una oportunidad no sólo de impulsar el uso empresarial, impulsando así las ventas de chips, sino también de tomar el liderazgo en el desarrollo de IA de código abierto.
Después de todo, este campo parece que podría perder a una de sus mayores estrellas de los últimos años, Meta Platforms.
Cuando Meta, propietario de Facebook, Instagram y WhatsApp, presentó por primera vez su tecnología de inteligencia artificial Llama gen de código abierto en febrero de 2023, fue un evento histórico: un modelo rápido y capaz con algo de código disponible para los investigadores, frente a los modelos propietarios de «código cerrado» de OpenAI, Google y otros.
Llama rápidamente llegó a dominar la atención de los desarrolladores en tecnología de código abierto cuando Meta presentó nuevas innovaciones en 2024 y amplió la tecnología para competir con los mejores modelos de frontera patentados de OpenAI y el resto.
Pero 2025 ha sido diferente. El lanzamiento de la cuarta generación de Llama por parte de la compañía, en abril, fue recibido con críticas mediocres e incluso una controversia sobre cómo Meta desarrolló el programa.
En estos días, los modelos Llama no aparecen entre los 100 mejores modelos en la popular tabla de clasificación LMArena de LMSYS, que está dominada por los modelos propietarios Gemini de Google, Grok de xAI, Claude de Anthropic, GPT-5.2 de OpenAI y por modelos de código abierto como DeepSeek AI, los modelos Qwen de Alibaba y el modelo Kimi K2 desarrollado por Moonshot AI, con sede en Singapur.
Los gráficos de la empresa independiente Artificial Analysis muestran una clasificación similar. Mientras tanto, el reciente informe «Estado de la IA generativa» de los capitalistas de riesgo Menlo Ventures culpó a Llama por ayudar a reducir el uso de código abierto en la empresa.
«El estancamiento del modelo, que incluye no nuevos lanzamientos importantes desde el lanzamiento de Llama 4 en abril, ha contribuido a una disminución en la participación empresarial general de código abierto del 19% el año pasado al 11% actual», escribieron.
¿Se está cerrando Meta?
Los puntajes de las tablas de clasificación pueden ir y venir, pero después de una amplia reorganización de su equipo de inteligencia artificial este año, Meta parece dispuesto a poner menos énfasis en el código abierto.
Un próximo proyecto Meta cuyo nombre en código será Avocado, escribió Bloomberg Según los reporteros Kurt Wagner y Riley Griffin la semana pasada, «podría lanzarse como un modelo ‘cerrado’, uno que puede controlarse estrechamente y al que Meta puede vender acceso», según sus fuentes anónimas.
El paso a modelos cerrados «marcaría la mayor desviación hasta la fecha de la estrategia de código abierto que Meta ha promocionado durante años», escribieron.
El director de IA de Meta, Alexandr Wang, instalado este año después de que Meta invirtiera en su empresa anterior, Scale AI, «es un defensor de los modelos cerrados», señalaron Wagner y Griffin. (Un artículo del fin de semana escrito por Eli Tan de Los New York Times sugirió que ha habido tensiones entre Wang y varios líderes de productos para Instagram y publicidad dentro de Meta).
Cuando le pregunté a Briski sobre la afirmación de Menlo Ventures de que el código abierto está pasando apuros, respondió: «Estoy de acuerdo con el declive de Llama, pero no estoy de acuerdo con el declive del código abierto».
Briski agregó: «Los modelos Qwen de Alibaba son súper populares, DeepSeek es realmente popular. Conozco muchas, muchas empresas que están ajustando e implementando DeepSeek».
Centrándose en los desafíos empresariales
Si bien es posible que Llama se haya desvanecido, también es cierto que la propia familia Nemotron de Nvidia aún no ha alcanzado la cima de las tablas de clasificación. De hecho, la familia de modelos va por detrás de DeepSeek, Kimi y Qwen, y otras ofertas cada vez más populares.
Pero Nvidia cree que está abordando muchos de los puntos débiles que afectan específicamente la implementación empresarial.
Uno de los objetivos de las empresas es «optimizar los costos», con una combinación de modelos de código cerrado y de código abierto, dijo Briski. «Un modelo no crea una aplicación de IA, por lo que existe esta combinación de modelos de frontera y luego la posibilidad de optimizar costos con modelos abiertos, y cómo puedo encaminarme hacia el modelo correcto».
Se espera que el enfoque en una selección de modelos, desde Nano hasta Ultra, aborde la necesidad de una amplia cobertura de los requisitos de las tareas.
El segundo desafío es «especializar» los modelos de IA para una combinación de tareas en la empresa, que van desde la ciberseguridad hasta la automatización del diseño electrónico y la atención médica, dijo Briski.
«Cuando cruzamos todas estas verticales, los modelos de frontera son realmente fantásticos y puedes enviarles algunos datos, pero no quieres enviarles todos los datos», observó. Por lo tanto, la tecnología de código abierto, que se ejecuta «en las instalaciones», es crucial, dijo, «para realmente ayudar a los expertos en el campo a especializarse en ese último kilómetro».
El tercer desafío es el costo explosivo de los tokens, la producción de texto, imágenes, sonido y otras formas de datos, generados pieza por pieza cuando un modelo en vivo hace predicciones.
«La demanda de tokens de todos estos modelos que se utilizan simplemente está aumentando», dijo Briski, especialmente con modelos de «pensamiento prolongado» o «razonamiento» que generan resultados detallados.
«El año pasado por estas fechas, cada consulta requeriría quizás 10 llamadas de LLM», señaló Briski. «En enero, vimos que cada consulta realizaba alrededor de 50 llamadas de LLM y ahora, a medida que la gente hace preguntas más complejas, hay 100 llamadas de LLM por cada consulta».
La ventaja ‘latente’
Para equilibrar las demandas, como la precisión, la eficiencia y el costo, los modelos Nemotron 3 mejoran un enfoque popular utilizado para controlar los costos del modelo llamado «mezcla de expertos (MOE)», donde el modelo puede activar y desactivar grupos de pesos de la red neuronal para ejecutarlos con menos esfuerzo informático.
El nuevo enfoque, llamado «mezcla latente de expertos», utilizado en los modelos Super y Ultra, comprime la memoria utilizada para almacenar datos en los pesos del modelo, mientras que múltiples redes neuronales «expertas» utilizan los datos.
«Estamos obteniendo un uso de memoria cuatro veces mejor al reducir el caché KV», en comparación con el Nemotron anterior, dijo Briski, refiriéndose a la parte de un modelo de lenguaje grande que almacena los resultados de búsqueda recientes más relevantes en respuesta a una consulta.
El MOE latente más eficiente debería ofrecer una mayor precisión a un costo menor y al mismo tiempo preservar la latencia (la rapidez con la que el primer token regresa al usuario) y el ancho de banda (la cantidad de tokens transmitidos por segundo).
Según los datos proporcionados por Artificial Analysis, dijo Briski, Nemotron 3 Nano supera a un modelo superior, el GPT-OSS de OpenAI, en términos de precisión de salida y número de tokens generados por segundo.
Abrir los datos
Otra gran preocupación para las empresas son los datos que se incluyen en los modelos, y Briski dijo que la empresa pretende ser mucho más transparente con su enfoque de código abierto.
«Muchos de nuestros clientes empresariales no pueden implementar algunos modelos, o no pueden construir su negocio en un modelo del que no saben cuál es el código fuente», dijo, incluidos los datos de capacitación.
El lanzamiento de Nemotron 3 en HuggingFace incluye no solo los pesos del modelo, sino también billones de tokens de datos de entrenamiento utilizados por Nvidia para el aprendizaje previo, posterior y de refuerzo. Existe un conjunto de datos separado para la «seguridad de los agentes», que según la compañía proporcionará «telemetría del mundo real para ayudar a los equipos a evaluar y fortalecer la seguridad de los sistemas de agentes complejos».
«Si consideramos los conjuntos de datos, el código fuente, todo lo que utilizamos para entrenar está abierto», dijo Briski. «Literalmente, cada dato con el que entrenamos el modelo, lo estamos publicando».
El equipo de Meta no ha sido tan abierto, dijo. «Llama no publicó sus conjuntos de datos en absoluto; publicaron los pesos», me dijo Briski. Cuando Nvidia se asoció con Meta el año pasado, dijo, para convertir los modelos Llama 3.1 en modelos Nemotron más pequeños, mediante un enfoque popular conocido como «destilación», Meta retuvo recursos de Nvidia.
«Incluso con nosotros como un gran socio, ni siquiera publicarían una pequeña parte del conjunto de datos para ayudar a destilar el modelo», dijo. «Esa fue una receta que tuvimos que idear por nuestra cuenta».
El énfasis de Nvidia en la transparencia de los datos puede ayudar a revertir una preocupante tendencia hacia una menor transparencia. Los académicos del MIT realizaron recientemente un amplio estudio de los repositorios de código en HuggingFace. Relataron que las publicaciones verdaderamente de código abierto están en declive, citando «una clara disminución tanto en la disponibilidad como en la divulgación de los datos de entrenamiento de los modelos».
Como señalaron el autor principal Shayne Longpr y su equipo, «La Iniciativa de Código Abierto define los modelos de IA de código abierto como aquellos que tienen pesos de modelo abiertos, pero también ‘información suficientemente detallada sobre sus datos (de entrenamiento)'», y agrega: «Sin la divulgación de datos de entrenamiento, un modelo lanzado se considera ‘peso abierto’ en lugar de ‘código abierto'».
¿Qué está en juego para Nvidia y Meta?
Está claro que Nvidia y Meta tienen prioridades diferentes. Meta necesita obtener ganancias de la IA para tranquilizar a Wall Street sobre su gasto planificado de cientos de miles de millones de dólares para construir centros de datos de IA.
Nvidia, la empresa más grande del mundo, necesita asegurarse de mantener a los desarrolladores enganchados a su plataforma de chips, que genera la mayor parte de sus ingresos.
El director ejecutivo de Meta, Mark Zuckerberg, sugirió que Llama sigue siendo importante y dijo a los analistas de Wall Street en octubre: «A medida que mejoramos la calidad del modelo, principalmente para Llama 4 posterior al entrenamiento, en este punto, continuamos viendo mejoras en el uso».
Sin embargo, también enfatizó ir más allá de tener un LLM popular con las nuevas direcciones que tomarán sus recién formados Meta Superintelligence Labs (MSL).
«Entonces, nuestra opinión es que cuando tengamos los nuevos modelos que estamos construyendo en MSL allí, y obtengamos modelos verdaderamente de vanguardia con capacidades novedosas que no tienen en otros lugares, entonces creo que esto es simplemente una enorme oportunidad latente».
En cuanto a Nvidia, «los grandes modelos de lenguaje y la IA generativa son la forma en que se diseñará el software del futuro», me dijo Briski. «Es la nueva plataforma de desarrollo».
El apoyo es clave, dijo, y, en lo que podría tomarse como una crítica a la intransigencia de Zuckerberg, aunque no intencionada como tal, Briski invocó las palabras del fundador y CEO de Nvidia, Jensen Huang: «Como dice Jensen, lo apoyaremos mientras vivamos».



