Projekte
Aktuelle Projekte
Medinym - KI-basierte Anonymisierung personenbezogener Patientendaten in klinischen Text- und Sprachdatenbeständen
Laufzeit: 15.12.2022 bis 14.12.2025
Motivation
Die fortschreitende wissenschaftliche Weiterentwicklung von Technologien auf Basis Künstlicher Intelligenz (KI) befördert medizinische Anwendungspotenziale. Einer reellen Nutzung dieser Technologien durch eine Vielzahl an Anwendern wie Bürgerinnen und Bürger, Behörden, Mitarbeitenden des Gesundheitswesens und kleinen sowie mittelständischen Unternehmen steht die Schwierigkeit des datensicheren und datengeschützten Umgangs gegenüber. Gerade bei der automatisierten Verarbeitung von medizinischen Daten können oftmals innovative Technologien nicht eingesetzt werden, da aufgrund der sensiblen Inhalte, der Schutz der Identität zu Recht einen hohen Stellenwert einnimmt. Die Schutzwürdigkeit klinischer Daten und der dadurch erschwerte Zugang damit führt auch dazu, dass Maschinelle Lernverfahren (ML), beispielsweise für klinische Diagnosen, Prognosen sowie Therapie- oder Entscheidungsunterstützung nicht ohne größere Hürden entwickelt werden können.
Ziele und Vorgehen
Das Projekt "KI-basierte Anonymisierung personenbezogener Patientendaten in klinischen Text- und Sprachdatenbeständen" (Medinym) untersucht die Möglichkeit der Weiterverwertung sensibler Daten durch das Entfernen der empfindlichen Informationen mittels Anonymisierung. Im Projekt werden zwei medizinische Anwendungsfälle, textbasierte Daten aus der elektronischen Patientenakte sowie Sprachdaten aus diagnostischen Ärztin-Patient-Gesprächen, exemplarisch umgesetzt. Dazu werden im Projekt offene Technologien zur Anonymisierung untersucht, weiterentwickelt und auf reale Daten angewandt. Außerdem untersuchen die Forschenden, wie die Aussagekraft solch anonymisierter Daten für die weitere Nutzung erhalten werden kann. Zusätzlich sollen Methoden betrachtet werden, die einen Missbrauch der Technologie außerhalb des beabsichtigten Anwendungsfalls verhindern oder erschweren.
Innovationen und Perspektiven
Durch die informationserhaltende Anonymisierung soll es möglich werden, klinische Daten weiterzuverarbeiten, da eine De-Anonymisierung nicht mehr möglich ist. Diese Datensätze können dann dazu dienen, KI-Modelle auf klinischen Daten datenschutzkonform zu trainieren oder auf andere Kohorten ausgedehnt werden. Damit wäre eine kumulative Sammlung entsprechender Datenmengen auch für kleine und mittelständische Unternehmen möglich. Denn so könnten sensible Daten über mehrere Anwendungszwecke hinweg zusammengefasst und für KI-Trainingsroutinen verwendet werden; eine entsprechende Anonymisierung stets vorausgesetzt. Die angestrebte Anonymisierung soll zudem die Bereitschaft von Patientinnen und Patienten steigern, in die Teilnahme an Studien, Datenanalysen sowie allgemeinen Spenden von Gesundheitsdaten einzuwilligen. Schlussendlich erlaubt die Informationserhaltene Anonymisierung die Integration der Technologie in gängige Entwicklungsmethoden und Diagnostiksysteme und stärkt damit den Wissenschafts- und Wirtschaftsstandort Deutschland in den Bereichen Diagnostik, Behandlung und damit allgemein der Gesundheitsversorgung.
Förderung
Finanziert von der Europäischen Union - NextGenerationEU
AI Engineering - Ein interdisziplinärer, projektorientierter Studiengang mit Ausbildungsschwerpunkt auf Künstlicher Intelligenz und Ingenieurwissenschaften
Laufzeit: 01.12.2021 bis 30.11.2025
AI Engineering (AiEng) umfasst die systematische Konzeption, Entwicklung, Integration und den Betrieb von auf Künstlicher Intelligenz (KI) basierenden Lösungen nach Vorbild ingenieurwissenschaftlicher Methoden. Gleichzeitig schlägt AiEng eine Brücke zwischen der Grundlagenforschung zu KI-Methoden und den Ingenieurwissenschaften und macht dort den Einsatz von KI systematisch zugänglich und verfügbar. Das Projektvorhaben konzentriert sich auf die landesweite Entwicklung eines Bachelorstudiengangs «AI Engineering», welcher die Ausbildung von Methoden, Modellen und Technologien der KI mit denen der Ingenieurwissenschaften vereint. AiEng soll als Kooperationsstudiengang der Otto-von-Guericke-Universität (OVGU) Magdeburg mit den vier sachsen-anhaltischen Hochschulen HS Anhalt, HS Harz, HS Magdeburg-Stendal und HS Merseburg gestaltet werden. Der fächerübergreifende Studiengang wird Studierende befähigen, KI-Systeme und -Services im industriellen Umfeld und darüber hinaus zu entwickeln und den damit einhergehenden Engineering-Prozess - von der Problemanalyse bis zur Inbetriebnahme und Wartung / Instandhaltung - ganzheitlich zu begleiten. Das AiEng-Curriculum vermittelt eine umfassende KI-Ausbildung, ergänzt durch eine grundlegende Ingenieurausbildung und eine vertiefende Ausbildung in einer gewählten Anwendungsdomäne. Um eine Symbiose von KI- und ingenieurwissenschaftlicher Lehre zu erreichen, wird ein neuer handlungsorientierter Rahmen entwickelt und gelehrt, welcher den vollständigen Engineering-Prozess von KI-Lösungen beschreibt und alle Phasen methodisch unterstützt. AIEng zeichnet sich durch eine modulübergreifende Verzahnung von Lehr- und Lerninhalten innerhalb eines Semesters sowie durch ein fakultäts- und hochschulübergreifendes Tandem-Lehrkonzept aus und verfolgt ein studierendenzentriertes Didaktikkonzept, welches durch viele praxisorientierte (Team-)Projekte und ein großes Angebot an Open Educational Resources (OERs) mit (E)-Tutorenprogramm getragen wird.
AnonymPrevent - AI-based Improvement of Anonymity for Remote Assessment, Treatment and Prevention against Child Sexual Abuse
Laufzeit: 01.12.2021 bis 31.07.2025
Das Projekt AnonymPrevent untersucht sowohl Einsatz als auch Verbesserung von innovativen KI-basierten Anonymisierungstechniken im Anwendungsfall der Erstberatung und präventiven Fernbehandlung von Menschen, die sich sexuell zu Kindern hingezogen fühlen. Ziel ist eine akustische Anonymisierung, die zwar die Identität eines Patienten (gegeben durch Stimme und Sprechweise) anonymisiert, gleichzeitig aber den für eine klinisch-diagnostische Beurteilung relevanten Gehalt an Emotionen und Persönlichkeitsausdruck beibehält. Die Anonymisierung der Stimme für die telefonische Kontaktaufnahme, sowie für weiterführende ggf. durch Videotelefonie ergänzte Therapien werden durch Variational Autoencoder mit Differential Digital Signal Processing bzw.
Avatar-basierter Kommunikation umgesetzt. Die Berliner Charité tritt als Praxis- und Forschungspartner auf, deren sexualwissenschaftliches Institut seit 2005 national und international wachsende Projekte für therapiemotivierte Menschen mit pädophilen oder hebephilen Neigung leitet. Die Annahme eines präventiven Therapieangebotes ist mit Scham und Angst vor sozialer Ausgrenzung verbunden. Entscheidend für die Inanspruchnahme ist die Vertrauenswürdigkeit des Angebots, und damit die Möglichkeit, verursacherbezogen sexuellen Kindesmissbrauch zu verhindern, was von hoher individueller und gesellschaftlicher Relevanz ist. Letztlich untersucht das Projekt die Frage, ob und in wie fern eine Anonymisierung der verbalen und visuellen Kommunikationskanäle zu einer Steigerung der Akzeptanz präventiver Behandlungsangebote führen kann sowie gleichzeitig die Kommunikation
innerhalb der Therapie nicht ungünstig beeinflusst, womöglich sogar den offenen Austausch fördert.
Automatisierte akustisch-prosodische Sprachanalyse für die Psychotherapieforschung und die Entwicklung von e-companion enhancement in der Psychotherapie (ASPIRE)
Laufzeit: 01.06.2023 bis 31.05.2025
Automatisierte KI-gestützte Sprachanalyse, die potenziell in Echtzeit (intra-session) relevante Konstrukt-Marker erfassen und deren Auswertung ermöglichen kann, hat das Potenzial zur evidenzbasierten situativen Interventionsgestaltung in der Präzisionspsychotherapie beizutragen und als digitale enhancement-Technologie (e-companion) wirksam zu werden (Kučera & Mehl, 2022; Chekroud et al., 2021; Krüger, Siegert & Junne, 2022).
Ziel des Vorhabens ist im Rahmen eines proof-of-concept-Ansatzes die Entwicklung eines validen Prädiktionsmodells für den zentralen Wirkfaktor therapeutische Beziehung (als Modellkonstrukt) auf Basis von sprachinhaltlichen und prosodisch-akustischen Sprachdaten. Dies ermöglicht automatisierte Marker-Identifikation als Basis für die künftige Rückmeldung an PsychotherapeutInnen zur weiteren gezielten Interventionsgestaltung. Auf Basis von automatisierten Diskursanalysen und validierten Ratingsystemen, sollen Querschnittsanalysen zur interpersonalen Robustheit inhaltsanalytischer und akustisch-prosodischer Marker sowie Längsschnittanalysen individueller Beziehungsverläufe ermöglicht werden. In der Datenanalyse erfolgt eine automatische Extraktion der sprachinhaltlichen und der prosodisch-akustischen Marker aus Audiodaten (insb. solche, die im Zusammenhang mit Pitch, Energie, Voice Quality und Rhythmus stehen). Parallel werden KI-basierte State-of-the-Art Anonymisierungsmethoden für den Erhalt der sprachinhaltlichen und prosodisch-akustischen Marker angepasst und es wird analysiert, inwieweit die anonymisierten Daten für die Bewertung der therapeutischen Beziehung reliabel sind.
Eaasy System - Electric Adaptive Autonomous Smart Delivery System
Laufzeit: 01.02.2022 bis 31.01.2025
Das Projekt Eaasy System verfolgt das Ziel, elektrische Lastenräder mit automatisierten Fahrfunktionen zu entwickeln, die eine umweltfreundliche Zustellung von Gütern für den Einsatz in der sogenannten "letzten Meile"-Logistik ermöglichen. Mit dieser Neuentwicklung soll die Flexibilität konventioneller Lastenräder mit den ergonomischen Vorteilen und schlanken Zustellprozessen von Zustellrobotern (Follow-Me) verbunden werden. Die Fahrfunktionen der automatisierten Lastenräder werden dafür auf unstrukturierte Verkehrssituationen ausgerichtet und mit einer sogenannten Come-With-Me Funktion ausgestattet - eine intuitive Sprachsteuerung, über die Zusteller das Fahrzeug dirigieren können. Damit soll die Logistik insgesamt nachhaltiger werden, die körperliche Belastung der Zusteller sinken und die Zustellung von Gütern deutlich beschleunigt werden.
Wahrnehmung der Ausgeprägtheit von Tonhöhe bei Nutzern von Cochlea-Implantaten
Laufzeit: 01.02.2024 bis 31.01.2025
Die Tonhöhe von akustischen Signalen ist selbst bei gleicher empfundener Tonhöhe unterschiedlich deutlich wahrnehmbar. So hat ein Reinton einer bestimmten Frequenz eine stärker ausgeprägte Tonhöhe als ein Schmalbandrauschen entsprechender Mittenfrequenz. Das Empfindungsmaß ist die Ausgeprägtheit der Tonhöhe (engl. pitch strength). Da Cochlea-Implantate die spektrale Information und Dynamik von Schall reduziert wiedergeben, ist von Interesse, in wie weit Implantierte die Ausgeprägtheit von Tonhöhe ähnlich wahrnehmen wie Normalhörende. Dazu werden paradigmatische Signale wie harmonische Tonkomplexe und bandpassgefilterte Rauschen, aber auch kurze Sprachsegmente zur Beurteilung vorgelegt.
Abgeschlossene Projekte
Emonymous -Sprecheranonymisierung unter Erhalt der emotionalen Ausdruckswirkung
Laufzeit: 01.08.2021 bis 31.12.2023
Durch die technologischen Fortschritte im Bereich der Künstlichen Intelligenz (KI), halten auch interaktive und intelligente Sprachassistenten mehr und mehr Einzug in den gesellschaftlichen Alltag. Aus datenschutzrechtlichen Gründen ist deren Einsatz jedoch meist auf Anwendungen im privaten Bereich beschränkt. Insbesondere die Möglichkeit Sprechende auf Basis einer Vielzahl an erhobenen Daten zu identifizieren, verhindert einen effektiven Einsatz von Sprachassistenten in datenschutzrechtlich sensiblen Bereichen wie beispielsweise dem Gesundheitssektor oder der Lernunterstützung. Für viele Anwendungen ist die Identität der Sprechenden jedoch nicht zwangsläufig relevant, sondern es ist lediglich erforderlich zu wissen, was genau gesagt wurde. Dabei enthält Sprache neben dem Inhalt des Gesagten auch weitere Indikatoren, wie beispielsweise die Emotionalität oder die Ausdrucksweise. Der Erhalt dieser sprachlichen Feinheiten nach einer Anonymisierung der Sprechenden ist für die Interpretation und ein umfassendes Verständnis des Gesagten in vielen Anwendungsbereichen jedoch sehr wichtig (z.B. um den Gesundheitszustand eines Patienten richtig einzuschätzen).
MusIAs - Musik-geleitete Imagination und Digitaler Sprachassistent - eine Pilotstudie
Laufzeit: 01.01.2021 bis 30.06.2023
Die Musik-geleitete Imagination ist eine ressourcenorientierte musiktherapeutische Technik, die neben der Musikrezeption das therapeutische Gespräch über die Bedeutung innerer Bilder für die Bewältigung psychischer Belastungen beinhaltet. Zwischen Therapiesitzungen unterstützt gezieltes Musikhören Selbstregulationsprozesse. Diese Pilotstudie untersucht, inwieweit ein gängiger Sprachassistent die Musikauswahl für eine Musik-geleitete Imagination unterstützen sowie die Reflektion innerer Prozesse anregen kann und damit die musikgestützte Selbstfürsorge fördert. Hierfür wird ein Skill für Amazons‘ Alexa entwickeltet, welcher an die sog. Kurze Musikreise (KMR) angelehnt ist und die Module "Befindenserfassung", "Musikauswahl", "Entspannungsanleitung" und "Reflektion" umfasst. In einer Pilotstudie werden im Vergleich zu einer Kontrollbedingung die Akzeptanz und das subjektive Erleben des Skills sowie Veränderungen im Stresserleben mithilfe eines mixed-methods-Ansatzes erforscht, in dem quantifizierende Maße, Erlebensberichte und die Sprachprosodie der Nutzenden analysiert werden. Wird ein Sprachassistent zur musik-geleiteten Imagination als hilfreich erlebt, eröffnen sich bei sorgfältiger Risiken-Nutzen-Abwägung ggfs. klinische Anwendungen, z.B. technikgestützte Überbrückungen von Versorgungslücken oder inter-session-Anwendungen in laufenden Therapien.
MusIAs - Musik-geleitete Imagination und Digitaler Sprachassistent - eine Pilotstudie …
Laufzeit: 01.01.2021 bis 30.06.2023
Die Musik-geleitete Imagination ist eine ressourcenorientierte musiktherapeutische Technik, die neben der Musikrezeption das therapeutische Gespräch über die Bedeutung innerer Bilder für die Bewältigung psychischer Belastungen beinhaltet. Zwischen Therapiesitzungen unterstützt gezieltes Musikhören Selbstregulationsprozesse. Diese Pilotstudie untersucht, inwieweit ein gängiger Sprachassistent die Musikauswahl für eine Musik-geleitete Imagination unterstützen sowie die Reflektion innerer Prozesse anregen kann und damit die musikgestützte Selbstfürsorge fördert. Hierfür wird ein Skill für Amazons‘ Alexa entwickeltet, welcher an die sog. Kurze Musikreise (KMR) angelehnt ist und die Module "Befindenserfassung", "Musikauswahl", "Entspannungsanleitung" und "Reflektion" umfasst. In einer Pilotstudie werden im Vergleich zu einer Kontrollbedingung die Akzeptanz und das subjektive Erleben des Skills sowie Veränderungen im Stresserleben mithilfe eines mixed-methods-Ansatzes erforscht, in dem quantifizierende Maße, Erlebensberichte und die Sprachprosodie der Nutzenden analysiert werden. Wird ein Sprachassistent zur musik-geleiteten Imagination als hilfreich erlebt, eröffnen sich bei sorgfältiger Risiken-Nutzen-Abwägung ggfs. klinische Anwendungen, z.B. technikgestützte Überbrückungen von Versorgungslücken oder inter-session-Anwendungen in laufenden Therapien.
Wahrnehmung der paraverbalen Information in datenreduzierter gesprochener Sprache bei Nutzern von Cochlea-Implantaten
Laufzeit: 15.08.2020 bis 28.02.2022
Datenreduktion ist nicht nur bei synthetisierten Ansagen, sondern auch bei Sprache-produzierenden Kommunikationssystemen (z.B. Siri, Alexa, VoIP, mobile Navigationssyteme) und bei der Übertragung von Telefonie (Voice over IP, VoIP) elementar. Nutzer eines Cochlea-Implantats sind mit einer starken Beeinträchtigung spektraler Information im Schall konfrontiert, die vor allem die exakte Wahrnehmung von Tonhöhe einschränkt. Das Projekt untersucht, inwieweit insbesondere Emotion in gesprochener Sprache wahrgenommen wird und wie sich eine zusätzliche Beeinträchtigung durch Datenreduktion auswirkt.
Unterschiede im Sprechverhalten von Nutzern zwischen Mensch-Maschine- und Mensch-Mensch-Interaktionen ("Alexa-Studien")
Laufzeit: 01.11.2018 bis 30.06.2021
Dieses interdisziplinäre Projekt befasst sich aus ingenieurswissenschaftlicher und psychologischer Perspektive mit Grundlagenforschung zum Sprechverhalten von Menschen mit Maschinen. Speziell wird der Frage nachgegangen, inwieweit sich das Sprechverhalten von Menschen in zwischenmenschlichen Interaktionen vom Sprechverhalten in Interaktionen mit technischen Systemen unterscheidet. Hierfür werden mehrere Studien durchgeführt, die den eigens entwickelten Datenkorpus, den Voice Assistant Conversation Corpus (VACC), der auf Interaktionen mit Amazons Alexa basiert, nutzen. Es werden verschiedene Interaktionssituationen (formal vs. informal, dyadisch vs. triadisch) untersucht und Vergleiche zwischen objektiven Messungen akustischer und lexikalischer Sprechmerkmale, Selbstberichten der Nutzer und Fremdratings durchgeführt. Übergeordnetes Ziel ist die Identifikation eines Sets differenzierender Sprachmerkmale, das es sprachgesteuerten technischen Systemen ermöglicht zu detektieren, ob sie vom Nutzer adressiert werden oder nicht. Weiterführend soll untersucht werden, wie das nutzerseitige Erleben des technischen Systems (werden ihm eher menschliche oder eher technische Eigenschaften und Fähigkeiten zugeschrieben) das Sprechverhalten des Nutzers beeinflussen.
"Finde deinen Studiengang" - Eine sprachgeführte Hilfe zur Studieninformation an der OvGU
Laufzeit: 01.02.2020 bis 28.02.2021
Studienberatung in Distanz? Wie kann das gehen, wenn Interessierte zu Hause sind? Hier soll das aktuelle Projekt eine Antwort geben. Mittels weniger Fragen soll dem Studieninteressierten eine passende Auswahl von Studiengängen präsentiert werden, die seinen Interessen entsprechen und an der Uni Magdeburg angeboten werden.
ADAS&ME : Adaptive leistungsfähige Fahrer-Assistenzsysteme zur Unterstützung von beanspruchten Fahrern & Effektives Abfangen von Risiken durch maßgeschneiderte Mensch-Maschine-Interaktion in der Fahrzeugautomatisierung
Laufzeit: 01.09.2016 bis 28.02.2020
ADAS&ME entwickelt adaptierte leistungsfähige Fahrerassistenzsysteme, die Fahrerzustand, Situations- / Umweltkontext und adaptive Interaktion beinhalten, um automatisch die Kontrolle zwischen Fahrzeug und Fahrer zu übertragen und somit eine sicherere und effizientere Straßenbenutzung zu gewährleisten. Die Arbeit basiert auf 7 Fallstudien, die einen großen Teil der Fahrsituationen auf europäischen Straßen abdecken. Experimentelle Untersuchungen werden an Algorithmen zur Fahrerzustandsüberwachung sowie an Mensch-Maschine-Interaktions- wie auch an Automatisierungssystemen durchgeführt. Unterschiedliche Fahrerzustände wie Müdigkeit, Schläfrigkeit, Stress, Unaufmerksamkeit und beeinträchtigende Emotionen werden untersucht, wobei Sensortechnologien unter Berücksichtigung von Verkehrs- und Witterungsbedingungen eingesetzt und für individuelle Fahrer-Physiologie und Fahrverhalten personalisiert werden. Multimodale und adaptive Warn- und Interventions-Strategien basieren auf dem aktuellen Fahrerzustand und der Gefährlichkeit von Szenarien. Das Endergebnis ist ein Fahrer-Zustandsüberwachungssystem, das in die Fahrzeugautomatisierung integriert ist. Das System wird mit einem breiten Pool von Fahrern unter simulierten und realen Straßenbedingungen und unter verschiedenen Fahrzuständen validiert. Diese herausfordernde Aufgabe wird durch ein multidisziplinäres europäisches Konsortium von 30 Partnern durchgeführt, darunter ein Hersteller pro Fahrzeugtyp und 7 Direktlieferanten.
Der Lehrstuhl Kognitive Systeme an der Otto-von-Guericke-Universität wird zu diesem Konsortium beitragen, indem er den emotionalen Inhalt der akustischen Äußerungen im Auto analysiert. Wir werden weiterhin in der Informationsfusion von Daten aus verschiedenen Modalitäten (akustisch, Video und andere) tätig sein, um Schläfrigkeit oder einen Verlust des Kontrollzustandes des Fahrers zu analysieren und so in mehreren Anwendungsfällen zur Fahrerassistenz beizutragen, für Autos, Busse, Lastwagen und Motorräder.
Das Projekt wird gefördert durch das EU-Rahmenprogramm für Forschung und Innovation Horizont 2020 (Grant Agreement Nr. 688900).
Emotionsbasierte Unterstützung von Dialoganwendungen in Call-Centern
Laufzeit: 15.04.2014 bis 28.11.2015
Die anwendungsbezogene Forschung auf dem Gebiet Emotionsbasierte Unterstützung von Dialoganwendungen in Call-Centern wird weiter entwickelt. Hier handelt es sich um Telefondialoge,
bei denen der Call-Center-Operator in seiner Gesprächsgestaltung durch Rückmeldung über den
emotionalen Zustand (Kontrolle, Valenz) unterstützt wird.
Modell zur Verortung von Stimmungen und Persönlichkeitsmerkmalen im valence-pleasure-arousal-Raum
Laufzeit: 01.01.2013 bis 31.12.2013
Ein mechanistisches Federmodell zur Verortung von Stimmungen und Persönlichkeitsmerkmalen im valence-pleasure-arousal-Raum von Emotionen wird untersucht. Dabei werden Versuchsabläufe in Trajektorien abgebildet und dafür eine Modellierung generiert.