TRR 318 - Verstehensprozess einer Erkl?rung beobachten und auswerten (Teilprojekt A02)

?berblick

Der Vorstellung von Interaktion als zwischenmenschliche Verhaltensmuster folgend, liegt der Fokus des Projekts A02 auf dem Prozess des Verstehens. Durch das Zusammenführen von Expertise aus Bereichen, die sich mit Multimodalit?t befassen, ist der Ansatz dieses Projekts, verschiedene Ebenen des (Nicht-)Verstehens zu identifizieren und damit zur Implementierung eines engmaschigen ?Monitoring“-Prozesses beizutragen. Diese Implementierung wird ein System hervorbringen, das in der Lage ist, reichhaltige multimodale Signale zu nutzen, um das Verst?ndnis des Benutzers innerhalb eines Erkl?rprozesses zu unterstützen.

Wenn Menschen etwas erkl?rt bekommen, signalisieren sie ihr Verstehen oder Nicht-Verstehen zum einen mit verbalen ?u?erungen und zum anderen mit nichtverbalen Kommunikationsmitteln, wie beispielsweise Gestik und Mimik. Wer nickt, kann der erkl?renden Person verdeutlichen, dass er*sie verstanden hat. Das Nicken kann aber ebenfalls als Aufforderung gemeint sein, mit einer Erkl?rung fortzufahren, und ist im Kontext des Gespr?chs einzusch?tzen. Die Linguist*innen und Computerlinguist*innen untersuchen im Projekt A02, wie Personen – und zukünftig Maschinen – beim Erkl?ren erkennen, dass ihre Gespr?chspartner*innen sie verstehen oder nicht verstehen. Dafür betrachtet das Forschungsteam 80 Dialoge, in denen eine Person einer anderen ein Gesellschaftsspiel erkl?rt. Diese untersuchen die Wissenschaftler*innen auf kommunikative Feedbacksignale, die auf verschiedene Grade des Verstehensprozesses hindeuten. Die Ergebnisse aus den Analysen flie?en in ein intelligentes System ein, das in der Lage sein soll, Feedbacksignale wie Kopfnicken zu erfassen und bezüglich des signalisierten Verstehens zu interpretieren.

Key Facts

Art des Projektes:
Forschung
Laufzeit:
07/2021 - 06/2025
Gef?rdert durch:
DFG
Website:
Homepage

Detailinformationen

Projektleitung

contact-box image

Dr. Angela Grimminger

Germanistische und Allgemeine Sprachwissenschaft

Zur Person
contact-box image

Hendrik Buschmeier

Universit?t Bielefeld

Zur Person (Orcid.org)
contact-box image

Petra Wagner

Universit?t Bielefeld

Zur Person (Orcid.org)

Projektmitglieder

contact-box image

Stefan Lazarov, M.A.

Sonderforschungsbereich Transregio 318

Zur Person
contact-box image

Olcay Türk

Universit?t Bielefeld

Zur Person (Orcid.org)
contact-box image

Yu Wang

Universit?t Bielefeld

Kooperationspartner

Universit?t Bielefeld

Kooperationspartner

Publikationen

Towards a Computational Architecture for Co-Constructive Explainable Systems
M. Booshehri, H. Buschmeier, P. Cimiano, S. Kopp, J. Kornowicz, O. Lammert, M. Matarese, D. Mindlin, A.S. Robrecht, A.-L. Vollmer, P. Wagner, B. Wrede, in: Proceedings of the 2024 360直播吧 on Explainability Engineering, ACM, 2024, pp. 20–25.
Predictability of understanding in explanatory interactions based on multimodal cues
O. Türk, S. Lazarov, Y. Wang, H. Buschmeier, A. Grimminger, P. Wagner, in: Proceedings of the 26th ACM International Conference on Multimodal Interaction, San José, Costa Rica, n.d.
How much does nonverbal communication conform to entropy rate constancy?: A case study on listener gaze in interaction
Y. Wang, Y. Xu, G. Skantze, H. Buschmeier, in: Findings of the Association for Computational Linguistics ACL 2024, Bangkok, Thailand, 2024, pp. 3533–3545.
A model of factors contributing to the success of dialogical explanations
M. Booshehri, H. Buschmeier, P. Cimiano, in: Proceedings of the 26th ACM International Conference on Multimodal Interaction, ACM, San José, Costa Rica, n.d.
Towards a BFO-based ontology of understanding in explanatory interactions
M. Booshehri, H. Buschmeier, P. Cimiano, in: Proceedings of the 4th International 360直播吧 on Data Meets Applied Ontologies in Explainable AI (DAO-XAI), Santiago de Compostela, Spain, n.d.
Alle Publikationen anzeigen