Showcase

Unser Institut steht für fundierte wissenschaftliche Expertise und praxisnahe Forschung. Auf dieser Seite erhalten Sie einen Überblick über ausgewählte Projekte, Publikationen und Aktivitäten. Wir legen Wert auf Qualität, transparente Wissensvermittlung und die Förderung des wissenschaftlichen Nachwuchses. Unsere Arbeit verbindet moderne Technologien mit interdisziplinären Methoden, um robuste Lösungen und neue wissenschaftliche Erkenntnisse zu entwickeln.

In unserem Showcase präsentieren wir aktuelle Entwicklungen im Bereich Affective Computing. Wir zeigen Demonstratoren und Prototypen, die emotionale Zustände aus multimodalen Signalen wie Sprache, Mimik und physiologischen Daten ableiten und in Echtzeit in Interaktionen einbeziehen. Die Beispiele verdeutlichen Einsatzmöglichkeiten unter anderem in Gesundheit, Bildung und Serviceumgebungen – mit dem Ziel, Systeme nutzerzentrierter, kontextsensitiver und verlässlicher zu gestalten.

VR-basiertes Dialogsystem zur Depressionsintervention

VR-basierte Simulation eines Dialogs zwischen dem Chef und einem depressiven Mitarbeiter. Dieses System unterstützt dabei, besser mit der Situation umzugehen und mögliche Interventionen zu trainieren.

Dialekterkennung mit Deeplearning

Erkennung von verschiedenen arabischen und nicht-arabischen Dialekten. Deeplearning-Modelle erkennen diese Dialekte in Echtzeit und helfen dabei, die sprachliche Vielfalt zu erfassen und zu verarbeiten.

KI-basierte Segmentierung gefährlicher Objekte
Affect Burst: Audiobasierte Schmerzerkennung

Schmerzerkennung in Echtzeit basierend auf affect bursts und Deeplearning-Modellen. Diese Technologie ermöglicht eine präzise Erkennung von Schmerzempfindungen anhand von Audioaufnahmen.

KI-Therapeut zur Behandlung von Zwangsstörungen (OCD)

Interaktiver Dialog mit einem KI-Therapeuten zur Beruhigung von Patienten mit Zwangsstörungen (OCD). Der virtuelle Therapeut hilft, die Symptome zu lindern und die Selbstkontrolle zu stärken.

Segmentierung gefährlicher Objekte wie Messer und Schere. Deeplearning-Modelle werden verwendet, um die relevanten Objekte präzise zu segmentieren und zu erkennen.

Echtzeit-Pose-Erkennung zur Sprecherzustandserkennung

Erkennung verschiedener Posen mithilfe von Deeplearning-Modellen. Das Modell unterscheidet zwischen fünf verschiedenen Posen und schließt daraus auf den Sprecherzustand, wie z. B. Selbstbewusstsein, Skepsis oder Entspannung.

EEG-basierte Vorhersage der Mikroschlafintensität

Zwei EEG-Kanäle werden verwendet, um mithilfe eines Deeplearning-Modells die Intensität von Mikroschlaf während des Fahrens vorherzusagen. Diese Technologie unterstützt die Erkennung gefährlicher Schläfrigkeitsphasen bei Fahrern.

Erkennung von trockenem Husten

Echtzeiterkennung von trockenem Husten mithilfe von Deeplearning-Modellen. Diese Technologie kann in medizinischen Anwendungen eingesetzt werden, um Symptome schnell zu identifizieren und zu überwachen.

Audiosynthese von Kaugeräuschen durch Kaubewegungen

Visuelle Ausdrücke werden verwendet, um Kaubewegungen zu erkennen. Diese Kaubewegungen werden genutzt, um knirschende Kaugeräusche zu erzeugen. Mithilfe von Computer Vision werden die Kaubewegungen präzise erkannt und anschließend in realistische Kaugeräusche umgewandelt. Diese Technologie bietet eine spannende Anwendung für immersive Audioerfahrungen, z.B. in der virtuellen Realität oder beim Sounddesign.

Sprachdialogsystem zur Echtzeit-Gewalterkennung

Die Echtzeit-Beschreibung von Gewaltszenen stellt eine innovative Methode dar, um Videoinhalte mithilfe von Computer-Vision und AI-Systemen zu analysieren. Solche Systeme können in verschiedenen Bereichen, wie der Sicherheitsüberwachung, der Journalismus oder im rechtlichen Kontext, von großem Nutzen sein, indem sie ein besseres Verständnis von Gewaltsituationen bieten.