Dialogue Systems, Generative AI & LxM Agents

Vertrauenswürdige, hybride und generative Dialogsysteme, Chatbots und LxM-Agenten

Zielsetzung und Forschungsschwerpunkte

Das Kompetenzfeld Dialogue Systems, Generative AI & LxM Agents befasst sich mit der Entwicklung von verantwortungsvollen Dialogsystemen und Chatbots, die auf Basis von klassischer NLP-Technologie und – falls verantwortbar – grossen Sprachmodellen (LLMs) kommunizieren und über klassische Konversation hinaus auch zielgerichtet handeln können. Die Systeme sind so konzipiert, dass sie verlässlich, transparent und adaptiv agieren – insbesondere in sensiblen Anwendungsfeldern wie Public Health und öffentlicher Kommunikation.

Hybride Dialogsysteme

Im Zentrum steht die Hybridisierung von intent-basierten und generativen Dialogkomponenten. Aufbauend auf dem Conversational AI Life-Cycle (Martin, 2023) und konkreten Anwendungen im Gesundheitsbereich (Pande et al., 2023) werden adaptive Systeme entwickelt, die bei Bedarf zwischen strukturierter Dialogsteuerung und freier Generierung wechseln können. Ziel ist eine situations- und risikoadaptive Interaktion, die Nutzenden vertrauenswürdige Unterstützung bietet.

Ein zentrales Prinzip ist die Kombination sub-symbolischer Sprachmodelle mit symbolischem Wissen. Durch neuro-symbolische Ansätze werden Dialogsysteme erklärbarer, regelkonformer und robuster. Dies bildet die Basis für vertrauenswürdige Anwendungen in komplexen, regulierten Domänen.

Verantwortungsvoller Einsatz generativer KI

Das Kompetenzfeld adressiert die Chancen und Risiken generativer KI in Dialogsystemen. Es werden Strategien zur Verifikation, Steuerung und gezielten Einschränkung generativer Komponenten entwickelt – unter anderem über semantische Verifikation mittels Wissensgraphen und Retrieval-Augmented Generation (Martin et al., 2024).

In sicherheits- oder vertrauenskritischen Kontexten – etwa in der Public Health-Kommunikation oder im öffentlichen Diskurs – kann auch der bewusste Verzicht auf generative Komponenten zugunsten regelbasierter Systeme angezeigt sein. Ziel ist eine verantwortungsvolle Balance zwischen Innovation und Sicherheit.

LxM Agents – von Sprache zu Handlung

Auf Basis des LxM-Paradigmas (Fettke, Fill & Köpcke, 2025) werden Systeme erforscht, die Sprachverarbeitung mit aktionsbezogenem Verhalten verbinden. LxM Agents nutzen Foundation Models nicht nur zur Textgenerierung, sondern auch zur Steuerung von Prozessen, Services oder physischen Aktionen.

Damit entsteht eine neue Klasse dialogfähiger Handlungssysteme, die sowohl sprachlich als auch symbolisch agieren können.

Referenzen

×