Von Andrej Sokolow, dpa
Sprachassistenten, die sich in den vergangenen Jahren über vernetzte Echo-Lautsprecher von Amazon oder das iPhone von Apple ausbreiteten, galten mal als die Zukunft, mal als halbgare Spielerei – aber in diesem Jahr kam ein unangenehmes Geheimnis der Branche ans Licht. Damit die Software die Nutzer richtig gut verstehen kann, müssen immer wieder Aufzeichnungen von Dialogen nachträglich von Menschen angehört werden. Den weitaus meisten Nutzern war das nicht bewusst. Auch weil die Praxis in Unterlagen bestenfalls irgendwo ganz tief im Kleingedruckten erwähnt wurde. Oder gar nicht.
Der Ball kam ins Rollen im April. Der Finanzdienst Bloomberg enthüllte, dass einige Mitschnitte von Unterhaltungen mit Amazons Assistenzsoftware Alexa an diversen Standorten rund um die Welt ausgewertet werden, unter anderem in Boston, Costa Rica, Indien und Rumänien. Und zwar nicht nur direkt beim Konzern, sondern auch bei Dienstleistungs-Firmen. Ein Mitarbeiter aus Boston sagte, er habe zum Beispiel Aufzeichnungen mit den Worten „Taylor Swift“ analysiert und sie mit der Anmerkung versehen, dass die Nutzer die Sängerin meinten.
Andere Angestellte erinnerten sich, wie sie in den Aufnahmen Kinder ihre Adressen und Telefonnummer sagen hörten, jemand Sexspielzeug orderte und einsame Leute Alexa ihre Geheimnisse und Ängste anvertrauten. Danach wurde Schritt um Schritt klar, dass es bei Siri von Apple und dem Google Assistant im Prinzip genauso läuft.
Apple & Co. stehen vor einem realen Problem
Die Dienste-Anbieter stehen vor einem realen Problem. Nutzer erwarten, dass ein Sprachassistent sie optimal versteht. Aber wie verbessert man die Software bei Fehlern, wenn man nicht genau weiß, wo und wie sie sich geirrt hat? Das sei insbesondere wichtig bei speziellen Fällen wie Dialekten oder Akzenten, die man schlecht mit einem generellen Anlernen der Programme abdecken könne, heißt es in der Branche.
Ein ebenso schwieriger Fall sind die fehlerhaften Aktivierungen, bei denen die Sprachassistenten zu Unrecht glauben, ihr Weckwort wie „Alexa“ oder „Hey, Siri“ gehört zu haben. Hier ist es für die Entwickler wichtig, zu wissen, welche Laute oder Situationen genau zu dem Missverständnis führten, um sie Software entsprechend anzupassen.
Allerdings sind die Aufzeichnungen nach fehlerhaften Auslösungen auch potenziell besonders bedenklich aus Datenschutz-Sicht: Denn sie enthalten Sätze, die höchstwahrscheinlich nicht für den Sprachassistenten bestimmt waren, sondern aus Unterhaltungen zwischen den Nutzern stammen dürften. Der Mitarbeiter eines Apple-Dienstleisters erzählte der Zeitung „Guardian“, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
„Opt-In“-Verfahren mit vorheriger Zustimmung
Nach den Enthüllungen war die bisherige Praxis nicht mehr aufrechtzuerhalten. Der Apple-Konzern, für den die Kritik angesichts des jahrelangen Datenschutz-Versprechens besonders schmerzhaft war, zog als erster die Reißleine und kündigte an, Aufnahmen nur noch nach ausdrücklicher Erlaubnis der Nutzer von Menschen auswerten zulassen. Zudem geschieht das nur noch beim Unternehmen selbst und nicht mehr bei Dienstleistern. Auch Google entschied sich für ein „Opt-In“-Verfahren mit vorheriger Zustimmung.
Amazon hingegen wählte die schwächere Datenschutz-Lösung. Der Online-Händler wählte ein sogenanntes „Opt-out“, bei dem die Nutzer einer Verwendung ihrer Mitschnitte zwar widersprechen können, sie aber standardmäßig vorausgesetzt wird. Amazon sehe darin die bessere Lösung für die Nutzer, sagt Gerätechef Dave Limp. Es könne natürlich sein, dass die Konkurrenten weiter beim maschinellen Lernen seien als Amazon – was er sehr bezweifele –, „oder ihre Dienste werden sich nicht so schnell verbessern“. Er hoffe, „dass wir eines Tages keine Beteiligung von Menschen brauchen werden“ – noch sei das aber notwendig. Zugleich seien die Reaktionen in den Medien stärker gewesen als bei den Nutzern: „Die Kunden haben nicht aufgehört, Alexa zu nutzen.“
Allerdings gibt es auch Anzeichen dafür, dass bei weitem nicht alle umgeben von Mikrofonen leben wollen. Der Anbieter vernetzter Lautsprecher Sonos brachte sein Volumenmodell Sonos One im Herbst in einer Version ohne Mikrofon für Sprachassistenten auf den Markt. „Als wir den Sonos One herausgebracht haben, dachten wir, dass wir künftig Mikrofone in alle Geräte einbauen werden“, sagte Firmenchef Patrick Spence. Es habe sich aber herausgestellt, dass nicht alle Nutzer sich damit wohlfühlten.