Laura Spillner

Laura Spillner, © I.Laumann
Laura Spillner

Arbeitsgruppe Digitale Medien
MZH, Raum 6440
Bibliothekstr. 5
D-28359 Bremen

laura.spillnerprotect me ?!uni-bremenprotect me ?!.de

Tel: +49 (0)421 218-64415
 

Curriculum Vitae

Laura Spillner ist wissenschaftliche Mitarbeiterin am Digital Media Lab. Sie hat Medienwissenschaft und Digitale Medien studiert und anschließend einen Master in Informatik an der Universität Bremen absolviert, mit dem Schwerpunkt Künstliche Intelligenz, Kognition und Robotik. In ihrer Masterarbeit beschäftigte sie sich mit natürlicher Sprachverarbeitung und Conversational Agents.
Laura arbeitet im European Project "MUHAI: Meaning and understanding in Human-centered artificial intelligence". 
Im Rahmen dieses Projektes und ihrer Doktorarbeit erforscht sie das Verständnis von natürlicher Sprache, und die Entwicklung von erklärbaren Algorithmen (explainable AI) und Hybrid AI im Bereich der Sprachverarbeitung.

Forschungsinteressen & mögliche Abschlussarbeiten

  • Natural language understanding: e.g. instruction parsing, topic modelling, understanding different points of view and political narratives in social media texts
  • Evaluating (deep) language understanding: e.g. in comparing machine learning/symbolic AI/hybrid AI
  • Visualization for NLU: e.g. interactive topic networks or narrative graphs, visualizing meaning in word embeddings
  • Interaction with AI/Robotic agents: e.g. explaining AI predictions or agent behaviour, teaching intelligent agents new knowledge, ...

I currently have open thesis projects in these two general domains (25.11..2024):

  • natural language interaction/conversational user interfaces: how do changes in language impact user interaction - e.g. can you use language cues to signify how confident an AI is in its answers? Can AI use humor effectively? How can language be personalized to a user?
  • Interaction with AI, explainable AI: if AI is able to explain its reasoning to a user, how does the presentation of the explanation (e.g. natural language vs. graphical, confidence of the AI, etc) influence users' behaviour? How do users interact with AI explanations, how much do they even read them? 

 

 

Aktualisiert von: DM Web