Eyeware: Patrocinador y expositor en Human-Robot Interaction (HRI) 2019, Daegu, Corea del Sur
La Conferencia Internacional Hombre-Robot pretende reunir a los mejores investigadores de todo el mundo y darles la oportunidad de presentar sus proyectos innovadores. La Conferencia se centra en el intercambio de ideas sobre los últimos avances tecnológicos en materia de HRI. En una época regida por las mejoras tecnológicas, este encuentro anual representa una oportunidad inestimable para estar al día de los últimos descubrimientos en el campo de la HRI. Y lo que es más importante, inspira y apoya la investigación multidisciplinar.
# Enfoque del HRI en 2019: El HRI colaborativo
Si la convención del año pasado desde Chicago centrado en "Robots para el bien social". El tema de este año fue "La colaboración en el HRI."
Jung Kim, presidente general de HRI 2019, pronunciando un discurso en la cena
Entre los oradores principales del HRI, destacamos:
Kyu Jin Cho - Profesor distinguido de la Universidad Nacional de Seúl. Ha explorado novedosos diseños de robots blandos, como un robot que salta sobre el agua, robots de origami y un robot blando para llevar en la mano, llamado Exo-Glove Poly, que recibió la cobertura de más de 300 medios de comunicación.
janet vertesi - Becaria postdoctoral en la Sociedad de Becarios de Artes Liberales de la Universidad de Princeton; profesora de Sociología. La mayor parte de su investigación se centra en los equipos de naves espaciales robóticas de la NASA y en cómo los factores organizativos afectan y reflejan las actividades y los resultados científicos de los científicos planetarios.
Jangwon Lee – Candidato a doctor en música por ordenador en el Music and Audio Computing Lab. Es un investigador musical centrado en la interacción con la música móvil, concretamente en cómo los nuevos métodos de interacción y las limitaciones de los dispositivos móviles pueden utilizarse en la música por ordenador expresiva. También forma parte del grupo coreano tonos de pimienta, animador de televisión activo e investigador de música por computadora.
Gil Weinberg – Doctor en Artes y Ciencias de la Comunicación por el MIT. Su investigación se centra en el desarrollo de la creatividad artificial y la expresión musical para robots y humanos aumentados. La interacción humano-robot y la tecnología musical son sus principales objetivos de análisis y aplicaciones.
Interacción entre humanos y peluches en la Conferencia HRI2019, stand de Eyeware
En la Conferencia Internacional sobre Interacción Humano-Robot 2019, Eyeware mostró GazeSense, su software de seguimiento ocular 3D, para permitir la interacción entre humanos y objetos inanimados. Con el simple uso del seguimiento de la mirada, los visitantes interactuaron con Extremely Rabbit y Grizzly Bear en el stand de Eyeware.
Jung Kim (presidente de HRI 2019) interactuando con Grizzly Bear
Como patrocinador de plata de la Conferencia HRI 2019, Corea del Sur, Eyeware participó activamente en el evento. La imagen de abajo muestra a nuestro colega, Bastjan Prenaj, el CDBO de la compañía, entregando una demo en el Sentido de la mirada 3D software. Cuando Bastjan dirige su atención hacia Extremely Rabbit, éste empieza a interactuar con él y solicita toda la atención de Bastjan. Por otro lado, Grizzly Bear se sentía coqueto en esta Conferencia, y cada vez que alguien dirigía su atención hacia él, probaba con ellos la famosa frase para ligar de Joey Tribbiany: #HowYOdooin? Si te preguntas cómo es posible esta interacción entre los peluches y el público, lee a continuación la funcionalidad de Gaze Sense 3D, que hizo posible este escenario.
La configuración de demostración de Gaze Sense 3D de Eyeware con Extremely Rabbit y Grizzly Bear
¿Cómo funciona el Gaze Sense 3D?
Gaze Sense 3D es un software de seguimiento ocular para cámaras con sensor de profundidad. El programa puede seguir la atención hacia objetos de interés en un espacio abierto. En el escenario de demostración anterior, presentado en la conferencia HRI, el software captó la mirada y la atención del visitante y las utilizó para desencadenar un comportamiento interactivo de los juguetes de peluche. El conejo y el oso Grizzly "hablaban" cuando el usuario los miraba. Si los juguetes se hubieran sustituido por otros objetos, el resultado de la interacción habría sido el mismo.
Pantalla izquierda: Bastjan, mientras se utiliza la función de seguimiento de la mirada en 3D del GazeSense
Pantalla derecha: Visualización 3D de Bastjan observando los objetos identificados
Díganos qué otras perspectivas de seguimiento ocular 3D o soluciones aplicadas le gustaría conocer a través de un correo electrónico a [email protected] o mencione cualquiera de las redes sociales en las que estamos activos. Encuéntrenos en Gorjeo, Facebook, o LinkedIn.