Recientemente, la startup española Multiverse Computing ha logrado captar una impresionante ronda de financiación Serie B de 189 millones de euros (aproximadamente 215 millones de dólares) gracias a su innovadora tecnología, denominada CompactifAI. Esta tecnología, inspirada en la computación cuántica, permite reducir el tamaño de los modelos de lenguaje (LLMs) en hasta un 95%, todo sin sacrificar el rendimiento del modelo, según afirma la compañía.
¿Qué es CompactifAI?
CompactifAI es una solución que transforma la manera en que se gestionan los modelos de lenguaje. A través de técnicas avanzadas de compresión, Multiverse ofrece versiones optimizadas de modelos de código abierto reconocidos, enfocándose principalmente en modelos más pequeños como Llama 4 Scout y Mistral Small. En el futuro cercano, la compañía tiene previsto lanzar una versión de DeepSeek R1, así como otros modelos de razonamiento y código abierto. Sin embargo, es importante destacar que no hay soporte para modelos propietarios de OpenAI y otras empresas.
Beneficios de la compresión
Los modelos “delgados”, como los denomina la empresa, están disponibles en Amazon Web Services (AWS) y pueden ser licenciados para uso en instalaciones propias. Según Multiverse, estos modelos son entre 4 y 12 veces más rápidos que sus versiones no comprimidas, lo que se traduce en una reducción de costos de inferencia de entre un 50% y un 80%. Por ejemplo, el modelo Lama 4 Scout Slim tiene un costo de 10 centavos por millón de tokens en AWS, frente a los 14 centavos del modelo original.
Aplicaciones prácticas
Una de las promesas más emocionantes de CompactifAI es su capacidad para hacer que algunos modelos sean tan pequeños y eficientes en energía que puedan ejecutarse en dispositivos comunes como PCs, teléfonos, drones e incluso en la popular Raspberry Pi. Esto abre un abanico de posibilidades para aplicaciones en entornos donde se requieren soluciones de inteligencia artificial ligeras y rápidas. Imaginemos casas decoradas con luces navideñas interactivas, donde Santa Claus, alimentado por un modelo LLM, pudiera conversar con los visitantes.
El equipo detrás de Multiverse
Multiverse Computing se beneficia de un equipo técnico altamente capacitado. Co-fundada por el CTO Román Orús, profesor en el Centro Internacional de Física de Donostia, España, la empresa cuenta con una sólida base en redes tensoriales. Estas herramientas computacionales imitan a los ordenadores cuánticos, pero funcionan en sistemas clásicos. Actualmente, su uso principal se centra en la compresión de modelos de aprendizaje profundo.
Además, Enrique Lizaso Olmos, cofundador y CEO, aporta su experiencia, con múltiples títulos en matemáticas y una trayectoria en la banca. Lizaso es conocido por haber sido el exdirector general adjunto de Unnim Bank, lo que le otorga una perspectiva única en el mundo empresarial.
Inversión y futuro de la empresa
La ronda de financiación Serie B fue liderada por Bullhound Capital, que ha respaldado a empresas como Spotify y Revolut, con la participación de HP Tech Ventures y otros inversores. Hasta la fecha, Multiverse ha recaudado alrededor de 250 millones de dólares, lo que le permite fortalecer su posición en el mercado y continuar innovando en el campo de la compresión de modelos de IA. La empresa actualmente posee 160 patentes y cuenta con 100 clientes a nivel mundial, incluyendo gigantes como Iberdrola y Bosch.