La escena comienza con una garra mecánica que se aproxima a una bombilla sobre una mesa y, en lugar de aplastarla, afina su movimiento hasta tomarla con suavidad. Ese gesto, aparentemente sencillo, condensa la ambición: dotar a las máquinas de destreza física similar a la humana. En un pequeño laboratorio en Kendall Square, Cambridge, ingenieros y académicos trabajan con brazos, pinzas y objetos cotidianos para que los robots no solo replique movimientos, sino que entiendan el peso, la inercia y la precariedad de las piezas que manipulan.
Esa combinación de sensores, control y aprendizaje es la clave para llevar la robótica más allá de las cadenas industriales.
Lo que sorprende al observar estas pruebas no es solo la precisión, sino la capacidad de adaptación: el sistema persigue una llave que rueda, vuelve a intentarlo tras fallar y recoloca una bombilla en su casquillo. Detrás de este comportamiento hay algoritmos que combinan visión, fuerza y acción, y nuevos diseños de agarre que incorporan tacto.
Para los fundadores —Pulkit Agrawal y Tuomas Haarnoja— la tarea es clara: convertir movimientos que para nosotros son instintivos en rutinas que una máquina pueda repetir y mejorar. Si se logra, las aplicaciones irían desde empaques y logística hasta preparación de alimentos y asistencia doméstica.
Cómo aprenden los robots: simulación y tacto
Una estrategia central es entrenar a los robots primero en mundos virtuales donde pueden ensayar millones de veces sin desgaste físico.
Esa práctica se apoya en simulación avanzada que modela motores, juntas y leyes físicas para que los algoritmos exploren soluciones. A diferencia de enfoques que se limitan a imitar grabaciones humanas, estos sistemas usan reinforcement learning o aprendizaje por refuerzo para que la máquina descubra por sí misma qué maniobras funcionan. Además, se han añadido sensores táctiles al diseño de las pinzas para que el robot no dependa solo de la imagen: siente el objeto, evalúa deslizamientos y reajusta la fuerza al instante.
El desafío del sim-to-real gap
Un problema clásico en robótica es el conocido como sim-to-real gap, la diferencia entre comportamiento en simulador y en el mundo físico. Proyectos previos como Dactyl de OpenAI (creado en octubre de 2018) demostraron que un motor virtual puede aprender a manipular un cubo de Rubik, pero también pusieron en evidencia limitaciones: la solución funcionaba solo en condiciones casi perfectas y con objetos instrumentados. Más tarde, hacia finales de 2026, investigadores exploraron variantes que integran la física con mayor fidelidad y combinan aprendizaje autónomo con retroalimentación táctil para reducir esa brecha y permitir trasferencias más robustas al mundo real.
Modelos y alternativas: simulación frente a demostraciones humanas
Existen dos líneas de trabajo visibles: una insiste en recopilar millones de videos y demostraciones humanas para alimentar modelos de visión y acción, lo que conocemos como vision-language-action o VLA; la otra, la que siguen algunos laboratorios emergentes, prioriza el autoaprendizaje dentro de simulaciones ricas en física. Cada ruta tiene ventajas: las demostraciones aportan ejemplos prácticos y corregidos por humanos, mientras que la simulación permite experimentación continua y el descubrimiento de estrategias inesperadas. La propuesta que combina ambas, sin embargo, podría resultar la más efectiva a largo plazo si logra integrar la generalización de datos humanos con la creatividad del aprendizaje autónomo.
Ejemplo práctico: del juego al plato
Un ejemplo ilustrativo son las pruebas con nuggets de pollo: un robot recoge piezas de diferentes formas y las coloca en bandejas móviles, a veces ajustando la orientación, otras veces lanzándolas con precisión cuando la caja se aleja. Es una demostración de manipulación fina aplicada a una tarea real que hoy exige manos humanas. La variabilidad de alimentos, frutas o piezas pequeñas es un reto ideal para evaluar cómo el sistema gestiona fragilidad, superficies resbaladizas y posiciones cambiantes, todo ello usando retroalimentación visual y táctil para improvisar soluciones.
Implicaciones y pasos siguientes
Si la combinación de simulación avanzada y sensores táctiles continúa madurando, podríamos ver robots que integren tareas del mundo real con una flexibilidad inédita: desde montar dispositivos delicados hasta ayudar en cocinas comerciales. No obstante, quedan preguntas abiertas sobre escalabilidad, costes y cómo integrar seguridad y ética al desplegar máquinas con tanta autonomía. Los fundadores creen que lo esencial es aumentar la escala de entrenamiento y mejorar los actuadores, pero otros expertos recomiendan una mezcla prudente de aprendizaje por demostración y simulación para asegurar robustez en entornos no controlados.
En última instancia, la evolución de estos sistemas plantea un doble escenario: por un lado, la eficiencia y la ampliación de capacidades productivas; por otro, la necesidad de preservar los trabajos y las interacciones humanas que valoramos. Mientras tanto, ver una garra colocar una bombilla o acomodar una llave con delicadeza nos recuerda que la frontera entre lo posible y lo habitual en robótica se está moviendo rápido, y que la pregunta ya no es si los robots podrán manipular objetos, sino cuándo y con qué responsabilidades.

