Zum Inhalt springen

Emotionserkennung

Unter Betrachtung wichtiger Faktoren der sozialen Interaktion, beschäftigte sich diese Vertiefungsarbeit mit Technologien zur Erkennung von Emotionen. Es wurden weitreichende Informationen darüber gewonnen, wie eine affektive Interaktion zwischen Mensch und Maschine gestaltet sein kann. Es bietet ein Einblick in unterschiedliche Forschungsarbeiten in diesem Bereich, beschäftigt sich jedoch nicht nutzerspezifisch mit blinden Menschen. Zum Einstieg in die Thematik kann das Paper von Cernea & Kerren von 2015 (siehe Studie 1) empfohlen werden.

Eine Emotion wird als mittelfristiger affektiver Zustand definiert, welcher als eine Reaktion auf einen äußeren oder inneren Reiz gekennzeichnet ist (Cernea & Kerren, 2015). Emotionen lassen sich auf unterschiedlichste Weise ausdrücken: Stimme (Modulation, Tonhöhe), wechselnde Gesichtsausdrücke, Augenbewegungen, Körperhaltungen (Cernea & Kerren, 2015). Laut Albert Mehrabian wird bei der Interaktion zwischen Menschen 7% der Kommunikation durch verbale Informationen, 38% durch stimmliche Hinweise und 55% durch den Gesichtsausdruck beigetragen (Suja & Tripathi, 2016). Damit stellt die Analyse der Mimik eine der wichtigsten Komponenten für die Emotionserkennung dar.

Keywords: emotion recognition, emotion recognition robotic, assistant robotic emotion, human-robot interaction emotion, affective computing

Welche Technologien können genutzt werden um menschliche Emotionen zu erkennen und zu interpretieren und wie werden diese eingesetzt?

Skip to content