La naturaleza suele ofrecer soluciones compactas y eficaces: las retinas compuestas de insectos proporcionan amplio campo visual y una respuesta temporal muy rápida. Investigadores de la Academia China de Ciencias han replicado ese principio en un dispositivo a escala de insecto que no solo ve sino que también huele, integrando ambos sentidos en una única plataforma pensada para mejorar la navegación de robots y vehículos no tripulados. El trabajo, publicado en Nature Communications en 2026, presenta un prototipo que combina microóptica, electrónica flexible e impresión de sensores químicos.
Este enfoque biomimético propone una alternativa a las cámaras convencionales: en lugar de priorizar alta resolución espacial, apuesta por un campo de visión amplio, respuesta temporal elevada y la fusión de datos visuales y químicos para una percepción contextualizada. Esa combinación resulta especialmente útil en entornos complejos, donde la detección de movimiento rápida y el reconocimiento de vapores o gases peligrosos pueden marcar la diferencia en seguridad y autonomía.
Tecnología y diseño del ojo compuesto biónico
Los desarrolladores fabricaron una estructura curva y flexible que reproduce la disposición de los ommatidios —las unidades visuales de los ojos compuestos—. Mediante microfabricación por láser imprimieron una matriz de 1.027 lentes microscópicas, cada una alineada con su correspondiente píxel fotodetector en una membrana flexible. El sustrato incorpora capas de polímero, electrodos de oro y una matriz de fotodetectores orgánicos con quantum dots para extender la sensibilidad espectral desde el ultravioleta hasta el infrarrojo.
Paralelamente, el equipo añadió una matriz de sensores olfativos impresa por inyección de tinta sobre la misma superficie curvada. Esa matriz usa indicadores colorimétricos —incluyendo metalloporfirinas, ftalocianinas y tintes de pH— que cambian de color al exponerse a compuestos volátiles. La integración física de ambos subsistemas en un único módulo minimiza el peso y permite la adquisición sincronizada de señales visuales y químicas.
Materiales y ensamblaje
El proceso comenzó con una capa sacrificial de aluminio sobre una oblea de silicio, seguida por un recubrimiento de poliimida flexible.
Tras definir interconexiones y encapsular la electrónica con PDMS, los investigadores depositaron la mezcla fotovoltaica (P3HT:PCBM y PbS) y sobre ella imprimieron las microlentes mediante femtosegundo y polimerización multiphotón. El resultado fue un domo óptico con aislamiento natural entre unidades oculares, similar al comportamiento de los ojos biológicos.
Funcionalidad y demostraciones prácticas
El dispositivo exhibe un campo de visión cercano a 180° y una frecuencia de fusión de parpadeo de ~1 kHz, lo que le permite detectar movimientos rápidos con latencias muy bajas. Para la parte olfativa, los cambios cromáticos se registran en intervalos de 30–120 segundos y se digitalizan mediante procesamiento RGB. Un FPGA Artix-7 se encargó de la adquisición en tiempo real, el preprocesado y el control de motores en pruebas de evitación de obstáculos.
En ensayos sobre vehículo terrestre no tripulado, el conjunto permitió esquivar obstáculos aplicando algoritmos inspirados en la navegación de insectos. En pruebas aéreas, el módulo registró coordenadas GPS mientras mapeaba la concentración de gases con una precisión cercana al 93 % en la clasificación de compuestos objetivo. Es decir, la fusión de señales visuales y químicas posibilitó tanto la detección rápida de amenazas físicas como el reconocimiento de peligros ambientales.
Ventajas y limitaciones
Como toda elección de diseño, el sistema sacrifica resolución espacial en favor de velocidad, eficiencia energética y robustez ante daños parciales (similar a la redundancia de los ojos compuestos naturales). Esa decisión reduce la carga computacional y permite operaciones en plataformas con recursos limitados, aunque limita la reconstrucción de detalles finos comparada con cámaras CMOS de alta densidad.
Además, las microestructuras anti-vaho y la sensibilidad ampliada gracias a los puntos cuánticos aumentan la fiabilidad en condiciones ambientales adversas. A futuro, los investigadores plantean optimizar algoritmos de fusión multimodal y continuar la miniaturización para integrar estos ojos biónicos en enjambres de microdrones y redes distribuidas de vigilancia ambiental.
Implicaciones y próximos pasos
La combinación de visión panorámica y olfato artificial en un módulo de tamaño insecto abre nuevas rutas para sistemas autónomos que operan en entornos complejos: desde inspección industrial y respuesta ante fugas químicas hasta navegación en espacios interiores o boscosos sin GPS. La investigación, publicada en 2026, demuestra que la unión de técnicas como la impresión láser, la electrónica flexible y la impresión de sensores químicos puede producir plataformas sensoriales compactas y potentes.
El futuro del proyecto se centrará en mejorar la fusión de datos, reducir aún más el consumo energético y adaptar el diseño a distintas aplicaciones robóticas. En conjunto, este trabajo convierte en práctica una idea clásica de la biomímesis: imitar la arquitectura eficiente de los insectos para dotar a las máquinas de una percepción más completa y resiliente.

