
News
Konferenz „HRI 2014“ - Sozial kompetente Roboter zeigen Gefühle
Bielefeld, 4. März. Roboter, die Gefühle zeigen und Gefühlsregungen beim menschlichen Gegenüber erkennen: Emotionale Roboter waren eines der großen Themen auf der Konferenz zu Mensch-Roboter-Interaktion (Human-Robot Interaction – HRI) in der Universität Bielefeld vom 3. bis 6. März. Zu dem Kongress waren mehr als 300 Wissenschaftlerinnen und Wissenschaftlern aus über 30 Ländern ins CITEC-Gebäude der Universität Bielefeld gekommen.
Als Teil der Konferenz zeigten Forschungseinrichtungen und Technologieunternehmen Roboter, die den sozialen Umgang mit Menschen beherrschen oder erlernen sollen. Eine Reihe von ihnen zeigt Emotionen.
Zu ihnen gehört der humanoide Roboterkopf Furhat, der am KTH Royal Institute of Technology in Schweden konstruiert wurde. Er ist mit einer 3D-Maske ausgestattet, auf die von hinten Augen, Nase und Mund projiziert werden. Auch beim Roboterkopf Flobi spielen emotionale Gesichtsausdrücke eine große Rolle, wenn er sich mit Menschen unterhält. Flobi ist eine Entwicklung des Exzellenzclusters CITEC der Universität Bielefeld. Seine Lippen und Augenbrauen sind aus Gummi und werden mit Magneten an seinem Gesicht befestigt. Kleine Antriebselemente im Innern seines Kopfes bewegen die Magnete, so dass er freundlich, überrascht oder auch verwegen schauen kann. Ebenfalls an der Universität Bielefeld erforscht wird der kleinkindgroße Roboter iCub, der am Italian Institute of Technology entwickelt wurde. Dioden leuchten von hinten durch sein Kunststoffgesicht und lassen darauf Lippen und Augenbrauen erscheinen, die sich je nach Situation verändern.

„Wir bringen Robotern Emotionen bei, damit sie von Menschen besser akzeptiert werden als andere, eher technisch anmutende Systeme“, sagt Professor Dr.-Ing. Gerhard Sagerer, Rektor der Universität Bielefeld und Forscher am Exzellenzcluster CITEC der Universität Bielefeld. „Wenn Roboter wie Flobi, iCub und Furhat nonverbale emotionale Signale einsetzen, kann der Nutzer das Verhalten der Maschine schneller verstehen, als wenn diese nur mit gesprochener Sprache agieren“, erklärt Sagerer. „Deswegen muss der Roboter menschenähnlich gestaltet sein und braucht ein Gesicht. Wir Menschen sind es gewohnt, Emotionen von Gesichtern abzulesen, ohne viel darüber nachdenken zu müssen.“
http://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/mit_emotionen_roboter_sympathisch_machen