En el panorama actual de la inteligencia artificial, donde muchas organizaciones miden el progreso por el tamaño del modelo y la cantidad de datos usados, surge Flapping Airplanes como un laboratorio que quiere explorar rutas distintas. Fundado por tres jóvenes investigadores —dos hermanos y un cofundador adicional— este equipo plantea que la dependencia de enormes corpus para entrenar modelos no es la única vía posible. Con una inyección de capital que les proporciona recursos significativos, su objetivo inmediato es investigar cómo alcanzar una mayor eficiencia de datos sin sacrificar capacidades.
La motivación del grupo no es competir directamente con las empresas que priorizan la escala, sino entender por qué los sistemas actuales aprenden de forma diferente a los humanos y si ese contraste puede transformarse en una ventaja. Para ello, combinan principios de neurociencia inspirada con experimentos en arquitecturas y optimizadores novedosos, con la expectativa de que esas ideas permitan saltos tanto científicos como prácticos.
Un problema claro: demasiada dependencia de datos
Los fundadores identifican una brecha entre cómo aprenden los modelos modernos y cómo aprenden los humanos. Mientras que los grandes modelos requieren cantidades ingentes de texto y ejemplos, el cerebro humano suele generalizar a partir de información mucho más escasa. Esa diferencia plantea preguntas científicas y oportunidades comerciales: si una máquina pudiera aprender con la misma parsimonia que un humano, aplicaciones como la robótica, la investigación científica o soluciones empresariales personalizadas serían mucho más accesibles.
Esta es la premisa que guía su investigación inicial.
Inspiración biológica, pero sin imitaciones literales
El equipo aclara que su enfoque es inspirado, no mimético. Ven el cerebro como una prueba de que existen algoritmos alternativos, pero también reconocen que la substrato física del silicio impone distintos límites y ventajas. Por tanto, buscan construir sistemas que combinen ideas del funcionamiento neuronal con técnicas prácticas adaptadas al hardware moderno.
La metáfora que usan sugiere que no intentan fabricar un pájaro idéntico: quieren diseñar una «aeronave que aletea», una solución intermedia que aproveche rasgos útiles del cerebro sin reproducirlo exactamente.
Tres hipótesis de trabajo
Entre las hipótesis que guían sus experimentos destacan tres posibles efectos de entrenar con menos datos: primero, la necesidad de representaciones más profundas que favorezcan el razonamiento sobre la memorización de hechos; segundo, una mejora drástica en la capacidad de adaptar modelos a dominios nuevos con muy pocos ejemplos; y tercero, la apertura de aplicaciones hoy limitadas por la escasez de datos etiquetados, como ciertos tipos de robótica y descubrimiento científico. Estas conjeturas marcan la agenda de pruebas y benchmarks del laboratorio.
Investigación enfocada y a largo plazo
Los fundadores insisten en que, por ahora, su prioridad es la investigación rigurosa más que la comercialización inmediata. Consideran que firmar contratos empresariales prematuramente podría distraerlos de la curiosidad experimental necesaria para avanzar en este terreno. Al mismo tiempo, reconocen la importancia de convertir los avances en productos útiles cuando las ideas estén maduras: la intención es eventualmente trasladar valor al mercado, pero solo después de haber descubierto principios robustos.
Economía de la innovación y escalado
Una observación clave del equipo es que explorar ideas radicales puede ser, en muchos casos, menos costoso que optimizar variaciones incrementales de arquitecturas masivas. Muchas mejoras superficiales solo se validan a gran escala, lo que exige inversiones enormes. En contraste, una innovación disruptiva suele fallar rápidamente en pruebas pequeñas si no funciona, lo que reduce el gasto inicial. No obstante, admiten que la capacidad de escalar seguirá siendo una herramienta necesaria cuando una dirección prometedora haya sido identificada.
En conjunto, la propuesta de Flapping Airplanes busca reformular parte del debate sobre el desarrollo de la IA: en lugar de perseguir únicamente más datos y más cómputo, proponen investigar algoritmos y arquitecturas que, inspirados en la biología pero adaptados al mundo del silicio, permitan entrenar modelos eficaces con órdenes de magnitud menos información. Si tienen éxito, las implicaciones abarcarían tanto la reducción de costes como la habilitación de nuevos usos de la IA en entornos con datos limitados.

