Alexa & Co

Digitale Sprachassistenten in eLearning-Umgebungen

Prof Michael MarmannKarlsruhe/Düsseldorf, Dezember 2019 – "Alexa, ich möchte mit Dir lernen! Digitale Sprachassistenten und eLearning – geht das?" Mit dieser Fragestellung widmet sich Prof. Dr. Michael Marmann von der Hochschule Düsseldorf am 30. Januar um 15.30 Uhr dem Thema Spracherkennung in der Weiterbildung. Prof. Marmann beschäftigt sich intensiv mit dem Einsatz junger Tools und deren Erprobung.

"Alexa, ich möchte mit dir lernen" klingt für viele noch futuristisch. Wie real ist diese Ansprache heute schon?

Prof. Michael Marmann: Wenn Sie ein Alexa-fähiges Device mit: "Alexa, ich möchte mit dir lernen!" ansprechen, kommt die Antwort prompt: "Die Dir sind ein Clan der Somali." Aha! Da habe ich also tatsächlich etwas gelernt – zwar unverhofft und etwas, was ich gar nicht lernen wollte, aber immerhin. Das macht schon deutlich, wo derzeit noch die Probleme liegen. Alexa versteht Eingaben nur begrenzt und dementsprechend begrenzt fallen die Antworten aus. Wenn man also als Anwender oder als Anwenderin gezielt mit Alexa lernen möchte, bleibt derzeit nur die Möglichkeit, den umfassenden Skill-Katalog zu durchforsten und dabei die Spreu vom Weizen zu trennen. Und mit ganz viel Glück ist etwas Passendes dabei.
Als Skills bezeichnet man Apps für Alexa, die von Content-Anbietern entwickelt werden können. Möchte also z.B. ein eLearning-Anbieter einen Inhalt für Alexa gestalten, dann erfolgt dies in der Regel über die Entwicklung eines sogenannten Skills. Das Angebot ist aktuell allerdings noch sehr begrenzt. Wenn man z.B. in die Angebote unter "Bildung & Nachschlagewerke" hineinschaut, findet man relativ viele Beispiele aus den Bereichen Vokabeltrainer, Kopfrechnen, Karteikartenlernen oder eben Nachschlagewerke, also Skills, die mit recht einfachen Nutzereingaben bedient werden können und die auch einen vergleichsweise geringen Entwicklungsaufwand mit sich bringen.

Wenn man also ernsthaft lernen möchte, stellt sich derzeit häufig schnell Ernüchterung ein. Dabei ist die Sprache ein extrem mächtiges und einfach zu bedienendes Instrument: z.B. ließe sich hierüber ein Skill steuern und man kann über die Sprache auch in den Dialog mit dem Skill treten. Dazu kommen noch die neuen Geräteklassen mit integriertem Touchscreen, so dass multimodale Interaktionen und Ausgaben ermöglicht werden. Man könnte also die Frage stellen, warum es derzeit nur ein extrem begrenztes Angebot an Lernskills gibt.

Hierfür gibt es sicherlich mehrere Gründe. So sind Entwicklungsprozesse für komplexere Skills sehr aufwändig und keinesfalls vergleichbar mit Abläufen auf der Basis moderner eLearning-Entwicklungstools. Auch muss geprüft werden, welche Interaktionen überhaupt möglich sind. Da die Bedienkonzepte sehr unterschiedlich gegenüber klassischen eLearning-Anwendungen sein können, erfordert es auch auf Seiten der AutorInnen ein Umdenken: Storyboards für Alexa & Co sehen anders aus. Es bleibt also abzuwarten, was die Zukunft bringt.

Um abschließend noch mal auf Ihre Frage zurückzukommen: futuristisch nein, wir sind schon nah dran, aber die Ansprache führt noch nicht zu hinreichend guten Ergebnissen. Ich bin dennoch fest davon überzeugt, dass viel Potenzial in dieser Technologie und im Konzept der multimodalen Interaktion steckt – gerade auch für künftige Lernumgebungen.

 

Welche - technischen - Voraussetzungen benötigt eLearning auf der Basis digitaler Sprachassistenten?

Prof. Michael Marmann: Wie bereits angedeutet, sind die technischen Möglichkeiten für die Entwicklung sprachgesteuerter eLearning-Skills bereits weitgehend gegeben, allerdings muss man aus jetziger technischer Sicht noch recht tief einsteigen, um das Optimum an Möglichkeiten herauszuholen. Dies geht z.B. "zu Fuß" mit Programmiersprachen wie JavaScript, Python etc. oder aber mit Autorentools, die Dialoge oder Eingaben z.B. flowbasiert darstellen können (Beispiel: Voiceflow oder Cognigy) oder Dexter für Chatbots.

Wir haben jedoch festgestellt, dass manche dieser Werkzeuge teilweise noch im Beta-Stadium sind oder sich zumindest so "anfühlen", so dass bei auftretenden Problemen nicht klar ist, woher der Fehler rührt und wo man ihn suchen muss, um ihn zu beheben. Das ist dann schnell ermüdend, aber klar ist auch: es wird kontinuierlich besser. Und wenn die Werkzeuge - inkl. der Alexa Umgebung - so weit sind, dass man mit ihnen weitgehend fehlerfrei arbeiten kann und wenn zusätzlich (Aus-) Sprachprobleme der Vergangenheit angehören, dann bin ich sehr zuversichtlich, dass sich ganz besondere, spannende, multimodal gesteuerte eLearning-Angebote entwickeln lassen, die über eine entsprechende Professionalität und Qualität verfügen werden.

 

Wird das Lernen durch den Einsatz von Sprachassistenten Ihres Erachtens erleichtert oder eher banalisiert?

Prof. Michael Marmann: Eine gute Frage! Ich denke, es hat vor allem etwas mit dem didaktischen Design zu tun. Je nachdem, wie die Dialoge geführt und die Steuerung durch Sprachbefehle konzipiert werden, lässt sich auch oder gerade mit einfachen sprachlichen Eingaben ein großartiges Benutzererlebnis generieren. Nichts ist ermüdender, als lange Alexa Monologe, wo man am Ende schon wieder vergessen hat, wie die Auswahlmöglichkeiten zu Beginn des Monologes eigentlich lauteten. Als Gedächtnistraining vielleicht nicht uninteressant, aber im konkreten Lernprozess eher ohne Vorteile.
Hier kann ein(e) eLearning-Autor oder -Autorin tatsächlich viel falsch machen. Bei vernünftiger Konzeption halte ich allerdings den Einsatz von Sprachassistenten für eine sehr komfortable Möglichkeit, mit einem technischen System zu interagieren. Ich sehe also ganz klar eine Erleichterung des Lernprozesses oder zumindest eine Erleichterung bei der Interaktion. Sollte etwas banal sein oder wirken, dann sehe ich die Verantwortung eher bei den AutorInnen oder vielleicht auch bei (noch) nicht unterstützten technischen Möglichkeiten.

Auch aus praktischer Sicht haben digitale Sprachassistenten viele Vorteile. Als ich meine Studierenden einmal danach gefragt habe, wie sie denn gerne digital gestützt lernen wollen, kam recht häufig die Aussage: während sie parallel etwas anderes machen, wie z.B. bügeln oder kochen! Also Lernen en passant durch digitale Sprachassistenten? Warum nicht! Dieses Beispiel ist sicherlich nicht für jeden Lerninhalt geeignet, aber das ist Mobile Learning auch nicht.

 

Sehen Sie spezielle Zielgruppen für diese Art des Lernens oder bestimmte besonders geeignete Lernstoffe?

Prof. Michael Marmann: Wir sind gerade dabei zu ergründen, was im Detail technisch, gestalterisch oder konzeptionell alles möglich ist und haben den Fokus dabei auf multimodale Devices, wie z.B. den Amazon Echo Show 2 (mit Touchscreen) gesetzt. Wir glauben, dass wir bis zur kommenden LEARNTEC ein oder zwei spannende Praxisbeispiele zeigen können. Dann kann ich diese Frage möglicherweise noch besser beantworten. Tendenziell zeichnet sich aber ab, dass z.B. die Integration beliebiger Medientypen, Lernerfolgskontrollen, Speicherung von Nutzerinteraktionen und Lernständen, Individualisierung, also Dinge, die im eLearning-Umfeld schon lange zum Standard gehören, bei Alexa & Co noch Entwicklungspotenzial haben.
Es ist aber nur eine Frage der Zeit, und vielleicht gibt es zukünftig auch eine „Business-Version“ von Alexa mit entsprechenden Features. Um aber die Frage abschließend zu beantworten: zum jetzigen Zeitpunkt sind sicherlich noch einige Abstriche zu machen – sowohl bei den Zielgruppen als auch bei den Lernstoffen. Ich bin aber auch hier zuversichtlich, dass vor dem Hintergrund notwendiger Investitionen in die Bildung sehr bald mit weitreichenden Verbesserungen zu rechnen ist.

 

Rechnen Sie zu einem bestimmten Zeitpunkt mit einem flächendeckenden Einsatz von Sprachassistenten im eLearning – vergleichbar mit dem heutigen mobile Learning?

Prof. Michael Marmann: Ich bin fest davon überzeugt, dass digitale Sprachassistenten mit Touchscreen, also mit multimodalen Interaktions- und Ausgabemöglichkeiten ihren festen Platz in Wissens- und Lernumgebungen haben werden. Inwieweit das flächendeckend sein wird, vermag ich nicht zu prognostizieren. Während der Fahrt zur Uni im Zug oder im Bus wird wahrscheinlich nach wie vor Mobile Learning der Vorzug gegeben.