Halt die Klappe, Alexa! đŸ˜€

Foto des Autors

So, Schluss, aus. Alexa ist abgestöpselt. Stecker aus der Dose, ab ins Regal. Warum? Weil mir das Amazon Echo dauernd reinquatscht. Und weil es mich nicht versteht.

Dabei fing alles so gut an. Alexa zog bei uns ein und hatte einen Job: „Spiele Kinderlieder“. Statt in MenĂŒs zu wĂŒhlen tat das Sprachkommando, was es sollte: Alexa dudelte ein Kinderlied nach dem anderen und unsere Tochter hatte ihre Freude.

Dann noch dieser praktische Timer: „Setze Timer auf 10 Minuten.“ Lief prima. Die digitale Eieruhr Alexa konnte Kinderlieder singen und fand ihren Platz in unserem Haushalt. Vorerst. Doch dann lief es schief.

Alexa quatscht dauernd rein

Ich weiß nicht, ob Alexa sich vernachlĂ€ssigt fĂŒhlte. Denn die Kinderliederabrufe wurden weniger. Und immer nur Timer sein, erfĂŒllt nicht das digitale Wesen eines LauschgerĂ€tes.

Also fing Alexa an, sich ungefragt zu melden. Anfangs zaghaft, dann aber immer öfter. Zum Beispiel beim Fernsehen. Es reichte ein Wort, das entfernt nach „Alexa“ klang, um Amazon Echo zu aktivieren. Das meldete sich sogleich mit der Information, dass es mir bei meinem Anliegen leider nicht weiterhelfen könne.

Klar.

ICH HATTE KEIN ANLIEGEN!

Amazon Echo mit Alexa
Alexa versteht mich nicht. Also muss das Amazon Echo unser Wohnzimmer verlassen.
Werbung

Die Spracherkennung versteht mich nicht

Irgendwann verstanden wir einander gar nicht mehr. Ich wollte ein bestimmtes Lied einer Band hören – und bekam nur Musikmurks, weil mich Alexa falsch verstanden hatte.

Oder hatte ich die Anfrage falsch formuliert?

Da liegt das Problem: Ich muss einer Syntax folgen, damit mich das GerÀt versteht. Ein Problem, das sich durch die Spracherkennung zieht. Spracherkennung erkennt die Stimme, aber keine Stimmung. Sie erkennt Ton, aber keinen Kontext. Spracherkennung verlangt immer noch von den Nutzern, dass sie sich nach dem GerÀt richten.

Das erinnert mich an die ersten Stifteingabe-GerĂ€te von Palm. Wer dort schreiben wollte, musste die Schrift Graffiti lernen. Nie davon gehört? Kein Wunder. Von Graffiti gehört und verdrĂ€ngt? VerstĂ€ndlich. Graffiti war zwar nett fĂŒr Nerds, aber nichts fĂŒr die tĂ€gliche Anwendung.

Genauso geht es mir mit der Spracherkennung: ich muss ein Sprech-Graffiti lernen, damit Alexa, Siri, Cortana oder Google mich verstehen. Von der grottenschlechten Spracherkennung meines VW-Navigationssystems will ich gar nicht anfangen. Ich will einfach nur verstanden werden!

Wohin geht die Spracherkennung?

Spracherkennung ist ein Hype – und das zurecht. Die Anwendungsmöglichkeiten sind toll. Aber derzeit muss sich der Mensch nach der Technik richten. Umgekehrt wĂ€re es richtig.

Verglichen mit der Entwicklung der Computer sind wir bei der Spracherkennung noch in der Phase, als wir lange Tastatureingaben am Terminal einhackten. Von da war es ein langer Weg zu intuitiven OberflÀchen. Diesen Weg muss die Spracherkennung noch gehen.

Werbung
Foto des Autors

Martin Goldmann

Martin ist seit 1986 begeistert von Computern und IT. Er arbeitete von 1986 bis 2011 als Autor und Redakteur fĂŒr diverse Computer-Zeitschriften. Seit 2011 ist Martin Goldmann als Kameramann und Redakteur in der Videoproduktion tĂ€tig und hĂ€lt Video-Schulungen. Doch das Thema Computer hat ihn nie los gelassen. Seine Schwerpunkte hier auf Tippscout.de: Apple-Software, Videoproduktion, Synthesizer.