Halt die Klappe, Alexa! đŸ˜€

So, Schluss, aus. Alexa ist abgestöpselt. Stecker aus der Dose, ab ins Regal. Warum? Weil mir das Amazon Echo dauernd reinquatscht. Und weil es mich nicht versteht.

Dabei fing alles so gut an. Alexa zog bei uns ein und hatte einen Job: „Spiele Kinderlieder“. Statt in MenĂŒs zu wĂŒhlen tat das Sprachkommando, was es sollte: Alexa dudelte ein Kinderlied nach dem anderen und unsere Tochter hatte ihre Freude.

Dann noch dieser praktische Timer: „Setze Timer auf 10 Minuten.“ Lief prima. Die digitale Eieruhr Alexa konnte Kinderlieder singen und fand ihren Platz in unserem Haushalt. Vorerst. Doch dann lief es schief.

Alexa quatscht dauernd rein

Ich weiß nicht, ob Alexa sich vernachlĂ€ssigt fĂŒhlte. Denn die Kinderliederabrufe wurden weniger. Und immer nur Timer sein, erfĂŒllt nicht das digitale Wesen eines LauschgerĂ€tes.

Also fing Alexa an, sich ungefragt zu melden. Anfangs zaghaft, dann aber immer öfter. Zum Beispiel beim Fernsehen. Es reichte ein Wort, das entfernt nach „Alexa“ klang, um Amazon Echo zu aktivieren. Das meldete sich sogleich mit der Information, dass es mir bei meinem Anliegen leider nicht weiterhelfen könne.

Klar.

ICH HATTE KEIN ANLIEGEN!

Amazon Echo mit Alexa
Alexa versteht mich nicht. Also muss das Amazon Echo unser Wohnzimmer verlassen.

Die Spracherkennung versteht mich nicht

Irgendwann verstanden wir einander gar nicht mehr. Ich wollte ein bestimmtes Lied einer Band hören – und bekam nur Musikmurks, weil mich Alexa falsch verstanden hatte.

Oder hatte ich die Anfrage falsch formuliert?

Da liegt das Problem: Ich muss einer Syntax folgen, damit mich das GerÀt versteht. Ein Problem, das sich durch die Spracherkennung zieht. Spracherkennung erkennt die Stimme, aber keine Stimmung. Sie erkennt Ton, aber keinen Kontext. Spracherkennung verlangt immer noch von den Nutzern, dass sie sich nach dem GerÀt richten.

Das erinnert mich an die ersten Stifteingabe-GerĂ€te von Palm. Wer dort schreiben wollte, musste die Schrift Graffiti lernen. Nie davon gehört? Kein Wunder. Von Graffiti gehört und verdrĂ€ngt? VerstĂ€ndlich. Graffiti war zwar nett fĂŒr Nerds, aber nichts fĂŒr die tĂ€gliche Anwendung.

Genauso geht es mir mit der Spracherkennung: ich muss ein Sprech-Graffiti lernen, damit Alexa, Siri, Cortana oder Google mich verstehen. Von der grottenschlechten Spracherkennung meines VW-Navigationssystems will ich gar nicht anfangen. Ich will einfach nur verstanden werden!

Wohin geht die Spracherkennung?

Spracherkennung ist ein Hype – und das zurecht. Die Anwendungsmöglichkeiten sind toll. Aber derzeit muss sich der Mensch nach der Technik richten. Umgekehrt wĂ€re es richtig.

Verglichen mit der Entwicklung der Computer sind wir bei der Spracherkennung noch in der Phase, als wir lange Tastatureingaben am Terminal einhackten. Von da war es ein langer Weg zu intuitiven OberflÀchen. Diesen Weg muss die Spracherkennung noch gehen.

Warum ich von einem simplen „Plop“ so begeistert bin 🎛

VCV-Rack

Ok, es ist mehr, als ein „Plop“ – es ist auch ein „Wi-UUU-Wi-UUU“ und so vieles mehr. Ich spreche von einem modularen Synthesizer. Fast hĂ€tte ich mir so ein Ding als Hardware gekauft fĂŒr ĂŒber 500 Euro. Doch dann habe ich ein Programm entdeckt, das einen modularen Synthesizer auf dem Computer simuliert.

Rant: Scareware nervt!

Ja, ich habe es getan – endlich steht wieder ein Windows-Computer in meinem BĂŒro. Nach gut zehn Jahren Windows-Abstinenz habe ich mir fĂŒr rund 600 Euro ein Gaming-Notebook geschossen. Vorweg: das Notebook ist seinen Preis definitiv wert – bei Apple bekomme ich dafĂŒr gerade mal ne Uhr. Aber es gibt etwas, das mich wahnsinnig macht!