Mehrsprachigkeit von Dialogsystemen - Userinitiiert: System erkennt selbstständig die Sprache (User spricht einfach drauf los) - bei welcher Sprache haben wir die größte Übereinstimmung der Phoneme / Schlagwörter? - zusätzliches Modul, welches Phoneme / Schlagwörter abfängt - Google Translate - Sprache erkennen / Youtube - Automatische Untertitelgenerierung - Systeminitiiert: System fragt vorab nach der Sprache (Defaultsprache Englisch / (lokale) Landessprache) - Spracherkennung / DM wird passend zur Sprache geladen -> Sprache nicht erkannt? - Liste von (erkannten) Sprachen vorlegen (mit Flaggen?) aus denen der User auswählen kann -> Sprache ändert sich während dem Dialog - bei jedem neuen Input erneut auf Sprachübereinstimmung der Phoneme prüfen - Ausgabe in der neuen (zuletzt) erkannten Sprache -> Sprachmix in einer Eingabe - bei jedem Wort auf Sprachübereinstimmung der Phoneme prüfen und Kontext extrahieren - Ausgabe in der 'primären' Sprache, wenn sekundäre Sprache nur einige einzelne Wörter ausmacht -> Dialekte / Sprachvarianten - Phoneme können eventuell nicht eindeutig zugewiesen werden - User muss sich an das System anpassen (und klares Hochdeutsch sprechen)