Projects
Current projects
Medinym - KI-basierte Anonymisierung personenbezogener Patientendaten in klinischen Text- und Sprachdatenbeständen
Duration: 15.12.2022 bis 14.12.2025
Motivation
Die fortschreitende wissenschaftliche Weiterentwicklung von Technologien auf Basis Künstlicher Intelligenz (KI) befördert medizinische Anwendungspotenziale. Einer reellen Nutzung dieser Technologien durch eine Vielzahl an Anwendern wie Bürgerinnen und Bürger, Behörden, Mitarbeitenden des Gesundheitswesens und kleinen sowie mittelständischen Unternehmen steht die Schwierigkeit des datensicheren und datengeschützten Umgangs gegenüber. Gerade bei der automatisierten Verarbeitung von medizinischen Daten können oftmals innovative Technologien nicht eingesetzt werden, da aufgrund der sensiblen Inhalte, der Schutz der Identität zu Recht einen hohen Stellenwert einnimmt. Die Schutzwürdigkeit klinischer Daten und der dadurch erschwerte Zugang damit führt auch dazu, dass Maschinelle Lernverfahren (ML), beispielsweise für klinische Diagnosen, Prognosen sowie Therapie- oder Entscheidungsunterstützung nicht ohne größere Hürden entwickelt werden können.
Ziele und Vorgehen
Das Projekt "KI-basierte Anonymisierung personenbezogener Patientendaten in klinischen Text- und Sprachdatenbeständen" (Medinym) untersucht die Möglichkeit der Weiterverwertung sensibler Daten durch das Entfernen der empfindlichen Informationen mittels Anonymisierung. Im Projekt werden zwei medizinische Anwendungsfälle, textbasierte Daten aus der elektronischen Patientenakte sowie Sprachdaten aus diagnostischen Ärztin-Patient-Gesprächen, exemplarisch umgesetzt. Dazu werden im Projekt offene Technologien zur Anonymisierung untersucht, weiterentwickelt und auf reale Daten angewandt. Außerdem untersuchen die Forschenden, wie die Aussagekraft solch anonymisierter Daten für die weitere Nutzung erhalten werden kann. Zusätzlich sollen Methoden betrachtet werden, die einen Missbrauch der Technologie außerhalb des beabsichtigten Anwendungsfalls verhindern oder erschweren.
Innovationen und Perspektiven
Durch die informationserhaltende Anonymisierung soll es möglich werden, klinische Daten weiterzuverarbeiten, da eine De-Anonymisierung nicht mehr möglich ist. Diese Datensätze können dann dazu dienen, KI-Modelle auf klinischen Daten datenschutzkonform zu trainieren oder auf andere Kohorten ausgedehnt werden. Damit wäre eine kumulative Sammlung entsprechender Datenmengen auch für kleine und mittelständische Unternehmen möglich. Denn so könnten sensible Daten über mehrere Anwendungszwecke hinweg zusammengefasst und für KI-Trainingsroutinen verwendet werden; eine entsprechende Anonymisierung stets vorausgesetzt. Die angestrebte Anonymisierung soll zudem die Bereitschaft von Patientinnen und Patienten steigern, in die Teilnahme an Studien, Datenanalysen sowie allgemeinen Spenden von Gesundheitsdaten einzuwilligen. Schlussendlich erlaubt die Informationserhaltene Anonymisierung die Integration der Technologie in gängige Entwicklungsmethoden und Diagnostiksysteme und stärkt damit den Wissenschafts- und Wirtschaftsstandort Deutschland in den Bereichen Diagnostik, Behandlung und damit allgemein der Gesundheitsversorgung.
Förderung
Finanziert von der Europäischen Union - NextGenerationEU
AI Engineering - Ein interdisziplinärer, projektorientierter Studiengang mit Ausbildungsschwerpunkt auf Künstlicher Intelligenz und Ingenieurwissenschaften
Duration: 01.12.2021 bis 30.11.2025
AI Engineering (AiEng) umfasst die systematische Konzeption, Entwicklung, Integration und den Betrieb von auf Künstlicher Intelligenz (KI) basierenden Lösungen nach Vorbild ingenieurwissenschaftlicher Methoden. Gleichzeitig schlägt AiEng eine Brücke zwischen der Grundlagenforschung zu KI-Methoden und den Ingenieurwissenschaften und macht dort den Einsatz von KI systematisch zugänglich und verfügbar. Das Projektvorhaben konzentriert sich auf die landesweite Entwicklung eines Bachelorstudiengangs «AI Engineering», welcher die Ausbildung von Methoden, Modellen und Technologien der KI mit denen der Ingenieurwissenschaften vereint. AiEng soll als Kooperationsstudiengang der Otto-von-Guericke-Universität (OVGU) Magdeburg mit den vier sachsen-anhaltischen Hochschulen HS Anhalt, HS Harz, HS Magdeburg-Stendal und HS Merseburg gestaltet werden. Der fächerübergreifende Studiengang wird Studierende befähigen, KI-Systeme und -Services im industriellen Umfeld und darüber hinaus zu entwickeln und den damit einhergehenden Engineering-Prozess - von der Problemanalyse bis zur Inbetriebnahme und Wartung / Instandhaltung - ganzheitlich zu begleiten. Das AiEng-Curriculum vermittelt eine umfassende KI-Ausbildung, ergänzt durch eine grundlegende Ingenieurausbildung und eine vertiefende Ausbildung in einer gewählten Anwendungsdomäne. Um eine Symbiose von KI- und ingenieurwissenschaftlicher Lehre zu erreichen, wird ein neuer handlungsorientierter Rahmen entwickelt und gelehrt, welcher den vollständigen Engineering-Prozess von KI-Lösungen beschreibt und alle Phasen methodisch unterstützt. AIEng zeichnet sich durch eine modulübergreifende Verzahnung von Lehr- und Lerninhalten innerhalb eines Semesters sowie durch ein fakultäts- und hochschulübergreifendes Tandem-Lehrkonzept aus und verfolgt ein studierendenzentriertes Didaktikkonzept, welches durch viele praxisorientierte (Team-)Projekte und ein großes Angebot an Open Educational Resources (OERs) mit (E)-Tutorenprogramm getragen wird.
Automatisierte akustisch-prosodische Sprachanalyse für die Psychotherapieforschung und die Entwicklung von e-companion enhancement in der Psychotherapie (ASPIRE)
Duration: 01.06.2023 bis 31.05.2025
Automatisierte KI-gestützte Sprachanalyse, die potenziell in Echtzeit (intra-session) relevante Konstrukt-Marker erfassen und deren Auswertung ermöglichen kann, hat das Potenzial zur evidenzbasierten situativen Interventionsgestaltung in der Präzisionspsychotherapie beizutragen und als digitale enhancement-Technologie (e-companion) wirksam zu werden (Kučera & Mehl, 2022; Chekroud et al., 2021; Krüger, Siegert & Junne, 2022).
Ziel des Vorhabens ist im Rahmen eines proof-of-concept-Ansatzes die Entwicklung eines validen Prädiktionsmodells für den zentralen Wirkfaktor therapeutische Beziehung (als Modellkonstrukt) auf Basis von sprachinhaltlichen und prosodisch-akustischen Sprachdaten. Dies ermöglicht automatisierte Marker-Identifikation als Basis für die künftige Rückmeldung an PsychotherapeutInnen zur weiteren gezielten Interventionsgestaltung. Auf Basis von automatisierten Diskursanalysen und validierten Ratingsystemen, sollen Querschnittsanalysen zur interpersonalen Robustheit inhaltsanalytischer und akustisch-prosodischer Marker sowie Längsschnittanalysen individueller Beziehungsverläufe ermöglicht werden. In der Datenanalyse erfolgt eine automatische Extraktion der sprachinhaltlichen und der prosodisch-akustischen Marker aus Audiodaten (insb. solche, die im Zusammenhang mit Pitch, Energie, Voice Quality und Rhythmus stehen). Parallel werden KI-basierte State-of-the-Art Anonymisierungsmethoden für den Erhalt der sprachinhaltlichen und prosodisch-akustischen Marker angepasst und es wird analysiert, inwieweit die anonymisierten Daten für die Bewertung der therapeutischen Beziehung reliabel sind.
Eaasy System - Electric Adaptive Autonomous Smart Delivery System
Duration: 01.02.2022 bis 31.01.2025
Das Projekt Eaasy System verfolgt das Ziel, elektrische Lastenräder mit automatisierten Fahrfunktionen zu entwickeln, die eine umweltfreundliche Zustellung von Gütern für den Einsatz in der sogenannten "letzten Meile"-Logistik ermöglichen. Mit dieser Neuentwicklung soll die Flexibilität konventioneller Lastenräder mit den ergonomischen Vorteilen und schlanken Zustellprozessen von Zustellrobotern (Follow-Me) verbunden werden. Die Fahrfunktionen der automatisierten Lastenräder werden dafür auf unstrukturierte Verkehrssituationen ausgerichtet und mit einer sogenannten Come-With-Me Funktion ausgestattet - eine intuitive Sprachsteuerung, über die Zusteller das Fahrzeug dirigieren können. Damit soll die Logistik insgesamt nachhaltiger werden, die körperliche Belastung der Zusteller sinken und die Zustellung von Gütern deutlich beschleunigt werden.
AnonymPrevent - AI-based Improvement of Anonymity for Remote Assessment, Treatment and Prevention against Child Sexual Abuse
Duration: 01.12.2021 bis 30.11.2024
AnonymPrevent investigates both the use and improvement of innovative AI-based anonymization techniques for initial counseling and preventive remote treatment of people who are sexually attracted to children. We aim to anonymize the identity of a patient (given by voice and way of speaking), but at the same time we retain clinical-diagnostic information of, e.g., emotional and personality-related expression. Anonymization of telephone-based contacts, as well as for follow-up therapy possibly supplemented by video transmission, are implemented using latest neural models such as Variational Autoencoder with Differential Digital Signal Processing and avatar-based communication respectively. Since 2005 the Institute of Sexology and Sexual Medicine of Berlin’s Charité, here acting as both practical and research partner, has been leading nationally and internationally growing projects offering treatment to people with pedophilic or hebephilic inclination. Since these sexual inclinations are societally connotated with a high degree of shame and stigmatization, the topic child sexual abuse prevention proofs highly relevant. Ultimately, the project investigates whether and to what extent anonymization of verbal and visual communication channels can lead to increased acceptance of a preventive treatment offer and at the same time does not have an unfavorable influence on communication within the therapy, possibly even promotes open exchange.
Completed projects
Emonymous -Sprecheranonymisierung unter Erhalt der emotionalen Ausdruckswirkung
Duration: 01.08.2021 bis 31.12.2023
Durch die technologischen Fortschritte im Bereich der Künstlichen Intelligenz (KI), halten auch interaktive und intelligente Sprachassistenten mehr und mehr Einzug in den gesellschaftlichen Alltag. Aus datenschutzrechtlichen Gründen ist deren Einsatz jedoch meist auf Anwendungen im privaten Bereich beschränkt. Insbesondere die Möglichkeit Sprechende auf Basis einer Vielzahl an erhobenen Daten zu identifizieren, verhindert einen effektiven Einsatz von Sprachassistenten in datenschutzrechtlich sensiblen Bereichen wie beispielsweise dem Gesundheitssektor oder der Lernunterstützung. Für viele Anwendungen ist die Identität der Sprechenden jedoch nicht zwangsläufig relevant, sondern es ist lediglich erforderlich zu wissen, was genau gesagt wurde. Dabei enthält Sprache neben dem Inhalt des Gesagten auch weitere Indikatoren, wie beispielsweise die Emotionalität oder die Ausdrucksweise. Der Erhalt dieser sprachlichen Feinheiten nach einer Anonymisierung der Sprechenden ist für die Interpretation und ein umfassendes Verständnis des Gesagten in vielen Anwendungsbereichen jedoch sehr wichtig (z.B. um den Gesundheitszustand eines Patienten richtig einzuschätzen).
MusIAs - Musik-geleitete Imagination und Digitaler Sprachassistent - eine Pilotstudie
Duration: 01.01.2021 bis 30.06.2023
Die Musik-geleitete Imagination ist eine ressourcenorientierte musiktherapeutische Technik, die neben der Musikrezeption das therapeutische Gespräch über die Bedeutung innerer Bilder für die Bewältigung psychischer Belastungen beinhaltet. Zwischen Therapiesitzungen unterstützt gezieltes Musikhören Selbstregulationsprozesse. Diese Pilotstudie untersucht, inwieweit ein gängiger Sprachassistent die Musikauswahl für eine Musik-geleitete Imagination unterstützen sowie die Reflektion innerer Prozesse anregen kann und damit die musikgestützte Selbstfürsorge fördert. Hierfür wird ein Skill für Amazons‘ Alexa entwickeltet, welcher an die sog. Kurze Musikreise (KMR) angelehnt ist und die Module "Befindenserfassung", "Musikauswahl", "Entspannungsanleitung" und "Reflektion" umfasst. In einer Pilotstudie werden im Vergleich zu einer Kontrollbedingung die Akzeptanz und das subjektive Erleben des Skills sowie Veränderungen im Stresserleben mithilfe eines mixed-methods-Ansatzes erforscht, in dem quantifizierende Maße, Erlebensberichte und die Sprachprosodie der Nutzenden analysiert werden. Wird ein Sprachassistent zur musik-geleiteten Imagination als hilfreich erlebt, eröffnen sich bei sorgfältiger Risiken-Nutzen-Abwägung ggfs. klinische Anwendungen, z.B. technikgestützte Überbrückungen von Versorgungslücken oder inter-session-Anwendungen in laufenden Therapien.
MusIAs - Musik-geleitete Imagination und Digitaler Sprachassistent - eine Pilotstudie …
Duration: 01.01.2021 bis 30.06.2023
Die Musik-geleitete Imagination ist eine ressourcenorientierte musiktherapeutische Technik, die neben der Musikrezeption das therapeutische Gespräch über die Bedeutung innerer Bilder für die Bewältigung psychischer Belastungen beinhaltet. Zwischen Therapiesitzungen unterstützt gezieltes Musikhören Selbstregulationsprozesse. Diese Pilotstudie untersucht, inwieweit ein gängiger Sprachassistent die Musikauswahl für eine Musik-geleitete Imagination unterstützen sowie die Reflektion innerer Prozesse anregen kann und damit die musikgestützte Selbstfürsorge fördert. Hierfür wird ein Skill für Amazons‘ Alexa entwickeltet, welcher an die sog. Kurze Musikreise (KMR) angelehnt ist und die Module "Befindenserfassung", "Musikauswahl", "Entspannungsanleitung" und "Reflektion" umfasst. In einer Pilotstudie werden im Vergleich zu einer Kontrollbedingung die Akzeptanz und das subjektive Erleben des Skills sowie Veränderungen im Stresserleben mithilfe eines mixed-methods-Ansatzes erforscht, in dem quantifizierende Maße, Erlebensberichte und die Sprachprosodie der Nutzenden analysiert werden. Wird ein Sprachassistent zur musik-geleiteten Imagination als hilfreich erlebt, eröffnen sich bei sorgfältiger Risiken-Nutzen-Abwägung ggfs. klinische Anwendungen, z.B. technikgestützte Überbrückungen von Versorgungslücken oder inter-session-Anwendungen in laufenden Therapien.
Wahrnehmung der paraverbalen Information in datenreduzierter gesprochener Sprache bei Nutzern von Cochlea-Implantaten
Duration: 15.08.2020 bis 28.02.2022
Datenreduktion ist nicht nur bei synthetisierten Ansagen, sondern auch bei Sprache-produzierenden Kommunikationssystemen (z.B. Siri, Alexa, VoIP, mobile Navigationssyteme) und bei der Übertragung von Telefonie (Voice over IP, VoIP) elementar. Nutzer eines Cochlea-Implantats sind mit einer starken Beeinträchtigung spektraler Information im Schall konfrontiert, die vor allem die exakte Wahrnehmung von Tonhöhe einschränkt. Das Projekt untersucht, inwieweit insbesondere Emotion in gesprochener Sprache wahrgenommen wird und wie sich eine zusätzliche Beeinträchtigung durch Datenreduktion auswirkt.
Differences in users' speech behaviour between human-machine and human-human interactions ("Alexa studies")
Duration: 01.11.2018 bis 30.06.2021
This interdisciplinary project deals with fundamental research on the speech behaviour of people with technical systems from an engineering and a psychological perspective. In particular, it is investigated to what extent the speech behaviour of humans in interpersonal interactions differs from the speech behaviour of humans in interactions with technical systems. For this purpose, several studies will be carried out using the specially developed data corpus, the Voice Assistant Conversation Corpus (VACC), which is based on interactions with Amazon's Alexa. Different interaction situations (formal vs. informal, dyadic vs. triadic) are investigated and comparisons between objective measurements of acoustic and lexical speech characteristics, user self-reports and external ratings are made. The major goal is to identify a set of distinctive speech features that will enable voice-controlled technical systems to detect whether they are addressed by the user or not. In addition, it will be investigated how the user's experience of the technical system (attributed more to human or more to technical characteristics and abilities) influences the user's speech behaviour.
"Finde deinen Studiengang" - Eine sprachgeführte Hilfe zur Studieninformation an der OvGU
Duration: 01.02.2020 bis 28.02.2021
Studienberatung in Distanz? Wie kann das gehen, wenn Interessierte zu Hause sind? Hier soll das aktuelle Projekt eine Antwort geben. Mittels weniger Fragen soll dem Studieninteressierten eine passende Auswahl von Studiengängen präsentiert werden, die seinen Interessen entsprechen und an der Uni Magdeburg angeboten werden.
ADAS&ME : Adaptive Advanced Driver Assistance Systems to support incapacitated drivers and Mitigate Effectively risks through tailor made Human Machine Interaction under automation
Duration: 01.09.2016 bis 28.02.2020
ADAS&ME will develop adapted Advanced Driver Assistance Systems that incorporate driver/rider state, situational/environmental context, and adaptive interaction to automatically transfer control between vehicle and driver/rider and thus ensure safer and more efficient road usage. The work is based around 7 Use Cases, covering a large proportion of driving on European roads. Experimental research will be carried out on algorithms for driver state monitoring as well as on Human-Machine-Interaction and automation transitions. Robust detection/prediction algorithms will be developed for driver/rider state monitoring towards different driver states, such as fatigue, sleepiness, stress, inattention and impairing emotions, employing existing and novel sensing technologies, taking into account traffic and weather conditions and personalizing them to individual driver s physiology and driving behavior. Further, the core development includes multimodal and adaptive warning and intervention strategies based on current driver state and severity of scenarios. The final outcome is a driver/rider state monitoring system, integrated within vehicle automation. The system will be validated with a wide pool of drivers/riders under simulated and real road conditions and under different driver/rider states. This challenging task has been undertaken by a multidisciplinary European Consortium of 30 Partners, including an original equipment manufacturer per vehicle type and 7 direct suppliers.
The Cognitive Systems Group at Otto-von-Guericke-University will contribute to this consortium by providing analysis of emotional content of acoustic utterances in the car. We will also engage in information fusion of data from various modalities (acoustic, video, and others) and analyzing this data for identifying markers for detecting drowsiness or a loss of control state of the driver, thus contributing to driver assistance in several use cases, such as cars, busses, trucks, and motorcycles.
Emotion -based support for interactive applications in call centers
Duration: 15.04.2014 bis 28.11.2015
The application-oriented research in the field " emotion -based support for interactive applications in call centers " will be further developed. Here is the phone dialogue ,
in which the call center operator is supported in his conversation design through feedback on the
emotional state (control , valence ).
Model for localisation of moods and personality traits in valence-pleasure-arousal-space
Duration: 01.01.2013 bis 31.12.2013
A Model for localisation of moods and personality traits in valence-pleasure-arousal-space is developed. Experimental trals are located in this space and a trajectory is modelled, which is mood- and personality dependent.