martes, 29 de abril de 2014

Comunicación robótica - el lenguaje corporal

Para conocer sobre qué o quién se está hablando, (ego o empatía), si un robot se planta frente a otro y le pide que realice la acción Motake (levantar el brazo que marca el primero), puede imitarle y levantar el mismo brazo o puede "reflejarlo" empatizando la acción y sería esta una forma más personalizada para entender qué es lo que quieren o desean los robots. El robot que enseña dice Motake y tienes que acertar la acción que te pide, lo que tendrías que responder para entender lo que es Motake. [ejemplo sacado de Are the robots the future of human evolution?  -  Los secretos del universo con Morgan Freeman/ Through the wormhole]
Otro ejemplo sería señalar hacia adelante, para entender lanzar o estirar, sumado a las diferentes direcciones que podrían significar una cosa u otra ya que un robot desconoce el funcionamiento de una cuerda o el de un palo ya que no los reconoce.

¿Somos más listos que los robots? Pues de momento sí, por mucho que repliquen cerebros humanos de forma electrónica, no veríamos activos esos robots por la calle -ni otros más simples- a día de hoy, y eso que ya sería una realidad, pero mejor que no nos quiten trabajo.

Pero, ¿les interesaría una generación de robos que no pudieran llegar a poder entender y sentir varias cosas entre sí a la vez (como si se tiene apetito, sed, sueño, hambre...) en un mundo capialista?

Les dejo con la pregunta en el aire, aunque claramente la respuesta hoy por hoy, salvo en Japón, sea NO.