El 23 de marzo de 2026 Gimlet Labs anunció una ronda de Serie A de $80 millones liderada por Menlo Ventures, un paso que confirma el interés por soluciones que atacan el cuello de botella de la inferencia en inteligencia artificial. La compañía, fundada por Zain Asgar junto a Michelle Nguyen, Omid Azizi y Natalie Serrino, ha desarrollado lo que define como la primera nube multisilicio de inferencia, un software diseñado para ejecutar cargas de agente a través de hardware heterogéneo, desde CPUs tradicionales hasta GPUs optimizadas y sistemas de alta memoria.
La propuesta de valor que presenta Gimlet Labs es clara: reducir latencia y mejorar utilización mediante una capa de orquestación que asigna cada paso de un agente al recurso más adecuado. Ese enfoque se ofrece como producto y como servicio a través de Gimlet Cloud, y pretende servir a laboratorios de modelos y grandes centros de datos que necesitan extraer más rendimiento de la infraestructura existente.
Qué es la nube multisilicio y cómo funciona
En el núcleo de la tecnología está un sistema de orquestación que divide y coordina la ejecución de aplicaciones de IA. Gimlet afirma que una misma tarea puede encadenar múltiples subprocesos: la parte de inferencia suele ser compute-bound, la decodificación resulta memory-bound y las llamadas a herramientas pueden ser network-bound. Con esa clasificación, el software mapea automáticamente cada segmento al tipo de chip que optimiza su rendimiento.
Este enfoque permite, según la compañía, fragmentar incluso un único modelo para aprovechar distintos conjuntos de instrucciones y memoria disponibles en distintas arquitecturas.
Ventajas técnicas
Gimlet Labs comunica mejoras de rendimiento de entre 3x y 10x manteniendo coste y consumo similares, gracias a la asignación fina de trabajo y a técnicas como la generación automática de kernels para GPU y la ejecución heterogénea sincronizada. Asimismo, han estrechado colaboración con fabricantes como NVIDIA, AMD, Intel, ARM, Cerebras y d-Matrix, con integración pensada para que el software pueda desplegarse tanto en centros de datos gestionados por Gimlet como en instalaciones del propio cliente.
Relevancia económica y operativa
El mercado de infraestructura para IA sigue creciendo y, según estimaciones consultadas por la compañía, el gasto en centros de datos podría alcanzar cifras astronómicas en la próxima década. Mientras tanto, Gimlet advierte que muchas aplicaciones utilizan el hardware disponible solo entre un 15 a 30 por ciento del tiempo, lo que supone, en su visión, un desperdicio masivo de capacidad. Su objetivo declarado es empujar la eficiencia hasta lograr que las cargas de IA funcionen hasta 10 veces más eficientemente que en la configuración típica actual.
Impacto para grandes operadores
La solución está dirigida a laboratorios que entrenan y sirven modelos de gran tamaño y a hyperscalers, no al desarrollador individual. Gimlet salió de sigilo con ingresos de ocho cifras y ha visto duplicar su cartera de clientes en pocos meses, incorporando un importante fabricante de modelos y un gran proveedor de nube, según declaraciones de la empresa. Esto apunta a una demanda real por capas de software que permitan exprimir infraestructuras ya desplegadas sin tener que reemplazar todo el parque de chips.
Orígenes, financiación y próximos pasos
Antes de Gimlet, los fundadores trabajaron en Pixie, una herramienta de observabilidad para Kubernetes adquirida por New Relic en 2026. Con semilla liderada por Factory, la nueva ronda eleva el total recaudado a $92 millones, con participación de inversores como Eclipse Ventures, Prosperity7, Triatomic y varios ángeles destacados, incluidos Bill Coughran, Nick McKeown, Raghu Raghuram y Lip-Bu Tan. La plantilla supera las 30 personas y la hoja de ruta prioriza ampliar equipo y escalar la infraestructura de inferencia para atender la creciente demanda.
Colaboraciones y estrategia de expansión
Además de alianzas con proveedores de chips, Gimlet combina investigación y despliegue práctico para madurar su pila: desde la generación automática de kernels hasta la orquestación para ejecuciones heterogéneas. El financiamiento se dirigirá a acelerar despliegues en centros de datos multisilicio y a robustecer la plataforma, con la meta de convertirse en una capa indispensable para quienes operan modelos a escala.

