Quelle: DFKI GmbH
Wer kennt nicht die Angst vor einem Bewerbungsgespräch. Damit diese Situation noch besser trainiert werden kann, haben Wissenschaftler jetzt einen neuartigen virtuellen Jobtrainer entwickelt. Ein Avatar erkennt in Echtzeit soziale und emotionale Signale des Bewerbers, deutet diese und passt sein Verhalten im simulierten Bewerbungsgespräch dem Gegenüber an. Dadurch können subjektive und situative Verhaltensweisen authentischer geübt werden.
Die unter Leitung des Deutschen Forschungszentrums für künstliche Intelligenz entwickelte Demoversion ist ein Beispiel für Systeme mit Emotionserkennung, die vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und jetzt in Bonn vorgestellt wurden.
"Wir wollen, dass Maschinen dem Menschen alltägliche Dinge abnehmen können. Technik soll Freiräume schaffen, entlasten und uns unterstützen. Es wird interessant sein zu sehen, wie das funktioniert, wenn die Technik menschliche Emotionen erkennen und richtig deuten kann", sagt Georg Schütte, Staatssekretär im BMBF. Das Zusammenwirken von Menschen mit Technik oftmals den Austausch von oft sensiblen Informationen. "Der sichere Umgang mit Daten ist deshalb ein zentrales Thema bei allen Entwicklungen. Ebenso gehören ethische, rechtliche und soziale Fragen zu allen technischen Überlegungen untrennbar dazu. Der Mensch muss die Entwicklungen leiten und gestalten", so Schütte.
Die Technologie hinter der Emotionserkennung verwendet bekannte Sensoren wie Mikrophone und Kamerabilder. Anhand von Stimme, Sprache, Mimik und anderen Faktoren wie Blickrichtungen und Posen erkennt das System, in welcher emotionalen Lage der Nutzer sich befindet. So kann das Assistenzsystem in Echtzeit unterstützende Hinweise oder Erinnerungen geben. Einsatzmöglichkeiten dieser Technologie ergeben sich in vielen Lebensbereichen, beispielsweise für Bewerbungs- und Sprachtrainings, in der Fahrzeugkommunikation, im Gesundheits- und Pflegebereich bis hin zur Tätigkeit von Fluglotsen.
Im Projekt KonsensOP wurde unter Führung des Fraunhofer-Institutes für Optronik, Systemtechnik und Bildauswertung eine berührungslose Steuerung von Informationen im Operationssaal entwickelt. Dabei kann der operierende Arzt durch eine Geste oder mit einem Blick Informationen über den Patienten abrufen, die für die Behandlung wichtig sind. Diese Informationen werden für das ganze OP-Team sichtbar und gemeinsam können die besten Handlungsoptionen leichter erarbeitet werden.
Erprobt werden emotionssensitive Systeme bereits in der Flugsicherung. Die im BMBF-Projekt MACeLot unter Leitung der TU Chemnitz entwickelten Assistenten messen die Arbeitsbelastung von Fluglotsen und können anhand von Simulationsmodellen eine mögliche Überbelastung prognostizieren, bevor es zu schwierigen Situationen kommen kann.
Auch in der Pflege sind Systeme mit Emotionserkennung hilfreiche Assistenten. Im Projekt SYMPARTNER unter wissenschaftlicher Leitung der Universität Siegen wird ein sensibler Roboter entwickelt, der ältere Menschen bei Alltagsaufgaben in den eigenen vier Wänden unterstützen soll und dabei mittels Gesichts- und Sprachanalyse verständlicher in einen persönlichen Dialog mit dem Nutzer treten kann.
Das BMBF hat insgesamt 14 Projekte mit zusammen rund 22 Millionen Euro gefördert. Sie sind Teil des Förderschwerpunktes "Vom technischen Werkzeug zum interaktiven Begleiter - Sozial- und emotionssensitive Systeme für eine optimierte Mensch-Technik-Interaktion" (InterEmotio), welcher zur Neuen Hightech-Strategie gehört, mit der die Bundesregierung aus Ideen Innovationen macht und Verbindungen zwischen Wissenschaft und Wirtschaft, Forschung und Gesellschaft knüpft. So werden Zukunftschancen, Forschungsvorhaben und nicht zuletzt Arbeitsplätze von morgen geschaffen. Vom 31. Januar bis 1. Februar treffen sich rund 75 Forscherinnen und Forscher aus den 14 Verbundprojekten in Bonn, um sich beim abschließenden Vernetzungstreffen über die Ergebnisse ihrer Arbeit auszutauschen.