En un movimiento estratégico que ha captado la atención de la industria, Nvidia informó en un documento financiero de 2026 que destinará 26.000 millones de dólares durante los próximos cinco años a la creación y difusión de modelos de código abierto. Ejecutivos confirmaron la información a medios especializados, y como parte de esa iniciativa la empresa ha publicado el modelo Nemotron 3 Super. Este anuncio combina la ambición de construir capacidades de investigación propias con la voluntad de facilitar que startups y equipos académicos puedan usar y adaptar modelos que funcionen de manera óptima en la pila tecnológica de Nvidia.
La apuesta implica no solo liberar pesos y recetas de entrenamiento, sino también compartir innovaciones técnicas y arquitectónicas que faciliten la modificación por terceros. En este contexto, Nemotron 3 Super aparece como un ejemplo de exportación tecnológica: según distintos informes, su tamaño se sitúa entre 120 y 128 mil millones de parámetros, y la compañía afirma que supera a alternativas como GPT-OSS en una serie de pruebas de referencia.
Además, la publicación oficial y materiales técnicos acompañantes fueron difundidos públicamente, reforzando el enfoque abierto de la iniciativa.
El alcance de la inversión y por qué importa
La cifra anunciada —26.000 millones en cinco años— persigue varios objetivos simultáneos: apoyar el desarrollo de modelos, afianzar el ecosistema en torno al hardware de Nvidia y ofrecer alternativas a los modelos cerrados que funcionan principalmente vía nube. Al publicar pesos y técnicas, Nvidia quiere que investigadores y empresas adapten esas redes para casos concretos como robótica, modelado climático o biología molecular.
A su vez, la empresa ya informó que completó el preentrenamiento de un modelo de 550.000 millones de parámetros, lo que evidencia una capacidad de escala que va más allá de un solo lanzamiento y apunta a la construcción de una plataforma de investigación al estilo de un laboratorio de frontera.
Nemotron 3 Super: arquitectura y mejoras para agentes
Nemotron 3 Super adopta una estrategia híbrida que combina ideas de state-space models, capas tipo Transformer y una variante de mixture-of-experts comprimida llamada LatentMoE.
La mezcla está pensada para conservar memoria y velocidad en contextos muy largos —hasta ventanas de contexto enormes— sin sacrificar la capacidad de recuperar hechos concretos. Además, incluye técnicas como Multi-Token Prediction para acelerar la generación y permite un flujo de trabajo más eficiente en aplicaciones agenticas que manejan grandes volúmenes de tokens.
Optimizaciones para hardware y resultados
La optimización nativa para la arquitectura Blackwell es otra pieza clave: Nvidia entrenó y afinó el modelo usando formatos de baja precisión que mejoran la velocidad en inferencia en sus GPUs, indicando aumentos de rendimiento como hasta 4x frente a arquitecturas anteriores en algunas cargas. En pruebas públicas y privadas, se reportan puntuaciones superiores en ciertas métricas comparativas —por ejemplo, una puntuación de 37 en el Artificial Intelligence Index frente a 33 de GPT-OSS según un informe— y ventajas de rendimiento en throughput de hasta 2,2x respecto a GPT-OSS-120B y 7,5x frente a otros contendientes en escenarios de alto volumen.
Licencia y condiciones de uso
La publicación de Nemotron 3 Super se acompaña de la Nvidia Open Model License, actualizada en octubre de 2026, que permite uso comercial y la creación de derivados con atribución, pero introduce clausulas de protección. Entre los puntos destacados están la terminación automática de la licencia si se eluden las guardrails (los controles de seguridad técnicos) sin reemplazos equivalentes, y la rescisión en caso de litigios por patente o derechos de autor contra Nvidia. Esa fórmula busca equilibrar apertura comercial con defensas contra abusos y demandas estratégicas.
Consecuencias para la competencia y la geopolítica tecnológica
La decisión de liberar modelos y tecnologías tiene un componente estratégico frente a la proliferación de alternativas abiertas desde China. Empresas como DeepSeek, Alibaba y otras han hecho públicos pesos que facilitan el trabajo de emprendedores y grupos de investigación; incluso en enero de 2026 se habló de un modelo entrenado en chips de un fabricante chino, lo que alimentó debates sobre dependencia de hardware. Al ofrecer una ruta abierta respaldada por tecnología estadounidense, Nvidia pretende mantener su posición como proveedor de referencia para datacenters y centros de entrenamiento, y al mismo tiempo fomentar un ecosistema internacional diverso y resistente.
En resumen, la iniciativa de Nvidia combina una inversión financiera masiva, la publicación de modelos competitivos como Nemotron 3 Super, optimizaciones para su hardware y una licencia con salvaguardas. Para startups, investigadores y grandes empresas, esto puede significar acceso a herramientas poderosas afinadas para correr de forma eficiente en infraestructuras comerciales y on-premises. Al mismo tiempo, la jugada redibuja la competencia global por la innovación abierta en inteligencia artificial y por el control de las pilas tecnológicas que la sustentan.

