Eyeware: Sponsor & Exposant op de Human-Robot Interaction (HRI) 2019, Daegu, Zuid-Korea

De Human-Robot International Conference heeft tot doel de beste onderzoekers van over de hele wereld samen te brengen en hen de gelegenheid te bieden hun innovatieve projecten voor te stellen. De conferentie is gericht op het uitwisselen van ideeën over de laatste technologische ontwikkelingen in HRI. In een tijdperk dat beheerst wordt door technologische verbeteringen, vertegenwoordigt deze jaarlijkse ontmoeting een onschatbare kans om op de hoogte te blijven van de laatste bevindingen op het gebied van HRI. Belangrijker nog, het inspireert en ondersteunt multidisciplinair onderzoek.

# HRI's focus voor 2019: Samenwerkend HRI

Als de conventie van Chicago van vorig jaar gericht op "Robots voor Sociaal Goed," Het thema van dit jaar was "Collaborative HRI."

Toespraak van de voorzitter op de internationale Hri-conferentie over mens-robotinteractie 2019 in Daegu, Korea                                            Jung Kim, algemeen voorzitter van de HRI 2019, houdt een toespraak tijdens het diner

Onder de HRI Keynote Sprekers, benadrukken we:

Kyu Jin Cho - onderscheiden Docent aan de Seoul National University. Hij heeft onderzoek gedaan naar nieuwe ontwerpen voor zachte robots, waaronder een robot die in het water springt, origami-robots en een zachte draagbare robot voor de hand, Exo-Glove Poly genaamd, die aandacht kreeg van meer dan 300 nieuwsmedia.

Janet Vertesi - Post-Doctoral Fellow aan Princeton University's Society of Fellows in the Liberal Arts; Docent Sociologie. Het grootste deel van haar onderzoek gaat over teams van ruimtevaartuigen bij NASA en hoe organisatorische factoren de activiteiten en wetenschappelijke resultaten van planetaire wetenschappers beïnvloeden en weerspiegelen.

Jangwon Lee -  Ph.D. kandidaat in computermuziek aan het Music and Audio Computing Lab. Hij is een muziekonderzoeker die zich richt op mobiele muziekinteractie, specifiek hoe nieuwe interactiemethoden en beperkingen van mobiele apparaten kunnen worden gebruikt in expressieve computermuziek. Hij maakt ook deel uit van de Koreaanse band peppertoneseen actief televisie-entertainer, en een computer muziek onderzoeker.

Gil Weinberg - Ph.D. in Media Kunsten en Wetenschappen van MIT. Zijn onderzoek richt zich op het ontwikkelen van kunstmatige creativiteit en muzikale expressie voor robots en augmented humans. Mens-robot interactie en muziektechnologie zijn zijn belangrijkste aandachtspunten voor analyse en toepassingen.

 

Interactie tussen mens en pluchen speelgoed op de HRI2019-conferentie, Eyeware's stand

Op de International Conference on Human-Robot Interaction 2019 toonde Eyeware GazeSense, haar 3D eye tracking software, om de interactie tussen mensen en levenloze objecten mogelijk te maken. Door simpelweg gebruik te maken van gaze tracking, hadden de bezoekers interactie met Extremely Rabbit en Grizzly Bear op de Eyeware-stand.

Voorzitter van Hri 2019 in Korea interageert met een grizzlybeer via Eyeware 3D Eye-Tracking Software                                                             Jung Kim (voorzitter HRI 2019) in interactie met grizzlybeer

Als zilveren sponsor van de HRI 2019, Zuid-Korea conferentie, heeft Eyeware actief deelgenomen aan het evenement. De afbeelding hieronder toont onze collega, Bastjan Prenaj, de CDBO van het bedrijf, die een demo geeft over de Gaze Sense 3D software. Wanneer Bastjan zijn aandacht op Extremely Rabbit richt, begint deze laatste met hem te interageren en vraagt hij de onverdeelde aandacht van Bastjan. Aan de andere kant voelde Grizzly Bear zich flirterig op deze conferentie, en telkens als iemand zijn aandacht op hem vestigde, testte hij Joey Tribbiany's beroemde versierzin op hen: #HowYOUdooin? Als je je afvraagt hoe deze interactie tussen de knuffels en het publiek mogelijk is, lees dan hieronder over de functionaliteit van Gaze Sense 3D, die dit scenario mogelijk maakte.

Eyeware's Gaze Sense 3D Demo Setup met extreem konijn en grizzlybeer                                              Eyeware's Gaze Sense 3D demo opstelling met Extremely Rabbit en Grizzly Bear

Hoe werkt de Gaze Sense 3D?

Gaze Sense 3D is een oogvolgprogramma voor dieptegevoelige camera's. Het programma kan de aandacht volgen naar interessante objecten in een open ruimte. Voor het bovenstaande demoscenario, gepresenteerd op de HRI conferentie, registreerde de software de blik en aandacht van de bezoeker en gebruikte deze om interactief gedrag te triggeren door pluche dierenspeeltjes. Extreem Konijn en Grizzly Beer "spraken" als de gebruiker naar hen keek. Als het speelgoed was vervangen door andere objecten, had het interactieresultaat hetzelfde kunnen zijn.

Man op computer met behulp van Eyeware 3D Eye-Tracking Software met verschillende objecten                                                 Linker beeldscherm: Bastjan, bij gebruik van de GazeSense 3D-blikvolgfunctie

                                                 Rechter beeldscherm: 3D visualisatie van Bastjan starend naar de geïdentificeerde objecten

Laat ons weten over welke andere 3D eye tracking perspectieven of toegepaste oplossingen u meer zou willen weten via een e-mail naar [email protected] of vermeld een van de sociale netwerken waarop wij actief zijn. U kunt ons vinden op Twitter, Facebook, of LinkedIn.