Investigadores de Columbia Ingeniería han entrenado a un robotic con apariencia humana llamado Emo para sincronizar palabras y canciones mediante el estudio de movies en línea, mostrando cómo las máquinas ahora pueden aprender comportamientos humanos complejos simplemente observándolos.
Emo no es un cuerpo humanoide completo, sino una cara robótica muy realista construida para explorar cómo se comunican los humanos. La cara está cubierta con piel de silicona y es impulsada por 26 motores faciales controlados de forma independiente que mueven los labios, la mandíbula y las mejillas.
Estos motores le permiten a Emo formar formas de boca detalladas que cubren 24 consonantes y 16 vocales, lo cual es basic para el habla y el canto naturales. El objetivo period reducir el efecto valle inquietante, donde los robots parecen casi humanos pero aún se sienten inquietantes porque sus movimientos faciales no coinciden con su voz.
Cómo Emo aprendió a sincronizar los labios como un humano
El proceso de aprendizaje se produjo por etapas. Primero, Emo exploró su propio rostro moviendo sus motores mientras se miraba en un espejo. Esto ayudó al sistema a comprender cómo los comandos motores cambian las formas faciales.
Luego, los investigadores introdujeron un canal de aprendizaje que conecta el sonido con el movimiento. Emo vio horas de movies de YouTube de personas hablando y cantando, mientras un modelo de inteligencia synthetic analizaba la relación entre el audio y el movimiento seen de los labios.
En lugar de centrarse en el lenguaje o el significado, el sistema estudió los sonidos crudos del habla. Un transformador de acción facial convirtió esos patrones aprendidos en comandos motores en tiempo actual.
Este enfoque le permitió a Emo sincronizar los labios no solo en inglés sino también en idiomas en los que nunca había sido entrenado, incluidos francés, árabe y chino. El mismo método funcionó para cantar, que es más difícil debido a las vocales estiradas y los cambios de ritmo.
Los investigadores dicen que esto es importante porque los robots del futuro necesitarán comunicarse de forma pure si van a trabajar junto a las personas. Este avance se produjo cuando el interés por los robots para hogares y lugares de trabajo aumenta rápidamente.
En CES 2026, ese impulso estuvo a la vista, con demostraciones que van desde el humanoide Atlas de Boston Dynamics, que está listo para ingresar al lugar de trabajo, hasta el robotic enfocado en el hogar de SwitchBot que puede cocinar y lavar la ropa, y el próximo robotic asistente doméstico de LG diseñado para hacer la vida cotidiana más fácil.
Agregue avances como la piel synthetic que brinda a los robots una sensibilidad related a la humana y, junto con una sincronización de labios realista, es fácil ver cómo los robots están comenzando a sentirse menos como máquinas y más como compañeros sociales. Emo sigue siendo un proyecto de investigación, pero muestra cómo algún día los robots podrán aprender habilidades humanas de la misma manera que nosotros, observando y escuchando.












