Showcase

Unser Institut steht für fundierte wissenschaftliche Expertise und Forschungskompetenz. Diese Webseite bietet Ihnen einen Einblick in unsere aktuellen Forschungsprojekte und unsere vielfältigen Aktivitäten. Dabei legen wir besonderen Wert auf die Vermittlung unseres umfassenden Fachwissens sowie die Förderung des wissenschaftlichen Nachwuchses. Hier finden Sie eine Auswahl unserer Projekte, die unser Engagement für hohe Qualität und Wissensvermittlung in verschiedenen Fachbereichen verdeutlichen. Durch den Einsatz moderner Technologien, kreative Lösungsansätze und interdisziplinäre Zusammenarbeit treiben wir wissenschaftliche Innovationen voran. Entdecken Sie unser Portfolio und erfahren Sie mehr über unsere Mission: Wissen zu fördern, Bildung zu stärken und einen nachhaltigen Beitrag zur Gesellschaft zu leisten.

Showcase

In unserem aktuellen Showcase stellen wir die neuesten Entwicklungen im Bereich des Affective Computing vor, die unser Fachwissen und unsere Innovationsfähigkeit in diesem dynamischen Forschungsfeld verdeutlichen. Mithilfe fortschrittlicher Algorithmen und Methoden des maschinellen Lernens haben wir Systeme entwickelt, die menschliche Emotionen durch Analyse von Gesichtsausdrücken, Stimmmerkmalen und physiologischen Signalen präzise erkennen und interpretieren. Unsere Demonstrationen veranschaulichen Echtzeitanwendungen, die die Benutzererfahrung in Bereichen wie Gesundheitswesen, Bildung und Kundenservice nachhaltig verbessern. Besucher erhalten Einblicke, wie unsere Technologie empathische Interaktionen unterstützt und das emotionale Wohlbefinden fördert, um dadurch tiefere und bedeutsamere Mensch-Computer-Interaktionen zu ermöglichen. Begleiten Sie uns auf einer Reise in die Zukunft des Affective Computing und dessen Potenzial, die Art der Mensch-Maschine-Kommunikation grundlegend zu verändern.

VR-basiertes Dialogsystem zur Depressionsintervention

VR-basierte Simulation eines Dialogs zwischen dem Chef und einem depressiven Mitarbeiter. Dieses System unterstützt dabei, besser mit der Situation umzugehen und mögliche Interventionen zu trainieren.

KI-basierte Segmentierung gefährlicher Objekte

Segmentierung gefährlicher Objekte wie Messer und Schere. Deeplearning-Modelle werden verwendet, um die relevanten Objekte präzise zu segmentieren und zu erkennen.

Dialekterkennung mit Deeplearning

Erkennung von verschiedenen arabischen und nicht-arabischen Dialekten. Deeplearning-Modelle erkennen diese Dialekte in Echtzeit und helfen dabei, die sprachliche Vielfalt zu erfassen und zu verarbeiten.

Echtzeit-Pose-Erkennung zur Sprecherzustandserkennung

Erkennung verschiedener Posen mithilfe von Deeplearning-Modellen. Das Modell unterscheidet zwischen fünf verschiedenen Posen und schließt daraus auf den Sprecherzustand, wie z. B. Selbstbewusstsein, Skepsis oder Entspannung.

Affect Burst: Audiobasierte Schmerzerkennung

Schmerzerkennung in Echtzeit basierend auf affect bursts und Deeplearning-Modellen. Diese Technologie ermöglicht eine präzise Erkennung von Schmerzempfindungen anhand von Audioaufnahmen.

EEG-basierte Vorhersage der Mikroschlafintensität

Zwei EEG-Kanäle werden verwendet, um mithilfe eines Deeplearning-Modells die Intensität von Mikroschlaf während des Fahrens vorherzusagen. Diese Technologie unterstützt die Erkennung gefährlicher Schläfrigkeitsphasen bei Fahrern.

KI-Therapeut zur Behandlung von Zwangsstörungen (OCD)

Interaktiver Dialog mit einem KI-Therapeuten zur Beruhigung von Patienten mit Zwangsstörungen (OCD). Der virtuelle Therapeut hilft, die Symptome zu lindern und die Selbstkontrolle zu stärken.

Erkennung von trockenem Husten

Echtzeiterkennung von trockenem Husten mithilfe von Deeplearning-Modellen. Diese Technologie kann in medizinischen Anwendungen eingesetzt werden, um Symptome schnell zu identifizieren und zu überwachen.

Audiosynthese von Kaugeräuschen durch Kaubewegungen

Visuelle Ausdrücke werden verwendet, um Kaubewegungen zu erkennen. Diese Kaubewegungen werden genutzt, um knirschende Kaugeräusche zu erzeugen. Mithilfe von Computer Vision werden die Kaubewegungen präzise erkannt und anschließend in realistische Kaugeräusche umgewandelt. Diese Technologie bietet eine spannende Anwendung für immersive Audioerfahrungen, z.B. in der virtuellen Realität oder beim Sounddesign.

Sprachdialogsystem zur Echtzeit-Gewalterkennung

Die Echtzeit-Beschreibung von Gewaltszenen stellt eine innovative Methode dar, um Videoinhalte mithilfe von Computer-Vision und AI-Systemen zu analysieren. Solche Systeme können in verschiedenen Bereichen, wie der Sicherheitsüberwachung, der Journalismus oder im rechtlichen Kontext, von großem Nutzen sein, indem sie ein besseres Verständnis von Gewaltsituationen bieten.