Der Spion in meinem Wohnzimmer - Verstoßen Siri, Alexa und Co. gegen die DSGVO?

Hacker sitzt am Computer
© SydaProductions/Pixabay.com

Während Geräte mit Spracherkennung für die einen moderne und bequeme Hilfsmittel darstellen, sind Siri, Alexa und Co. für Datenschützer schon lange Spione, die ihre Umgebung ununterbrochen belauschen.

Erst vor einigen Monaten ist bekannt geworden, dass bei den Sprachassistenten Alexa, Google Assistant und Siri Teile der Aufnahmen auch von Menschen angehört und sogar abgetippt wurden, um die Qualität der Spracherkennung zu verbessern. Zwar wurde dabei betont, dass die Fragmente anonymisiert wurden, allerdings waren die Nutzer bisweilen über diese Praxis weitgehend nicht aufgeklärt.

Doch nicht nur das: Vergangenes Jahr stellten die Marktwächter der Verbraucherzentrale NRW bereits fest, dass die Sprachassistenten auf Wörter reagieren, die der Aktivierungsphrase nur ähneln. So können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. So reagiert Amazons Sprachassistent etwa auch auf „Alexandra“ (für „Alexa“), „Gecko“ (für „Echo“) und „Ham wa schon“ (für „Amazon“). Googles Sprachassistent „Google Assistant“ hört nicht nur auf „Ok Google“ bzw. „Hey Google“, sondern fühlt sich auch von „Ok Kuchen“ oder ganz alltäglichen Wortkombinationen wie „Ok gut“ angesprochen.

Google stoppte nun vergangene Woche die Auswertung von Sprachaufnahmen durch Menschen. Die Mitschnitte des Programms „Assistant“ wurden für zunächst drei Monate ausgesetzt. Grund für den Stopp ist ein Verwaltungsverfahren, das die Hamburger Datenschutzbehörde gegen den Konzern eingeleitet hat. Laut dem Hamburger Datenschutzbeauftragten Johannes Caspar greifen Google, Amazon und Co. mit ihren Sprachassistenten in Privat- und Intimsphäre der Nutzer ein. Die Nutzung derartiger Assistenten sei mit Blick auf die Privatsphäre „hoch risikoreich“.

Caspar sagte, er habe „erhebliche Zweifel“, dass der Einsatz des Assistants von Google die Vorgaben der EU-Datenschutzgrundverordnung erfülle. Nutzer müssten danach über die Verwendung ihrer Daten ausreichend informiert werden. Ihm geht es unter anderem „um eine transparente Aufklärung Betroffener über die Verarbeitung der Sprachbefehle, aber auch über die Häufigkeit und die Risiken von Fehlaktivierungen“. Zudem werden von den Sprachassistenten zum Beispiel auch die Stimmen von Gästen erfasst, die der Auswertung ihrer Daten nicht zugestimmt haben.

Nach Google stoppte kurz darauf auch Apple die Auswertung von Siri-Mitschnitten. Das Unternehmen erklärte, dass man die Praxis auf den Prüfstand stellen wolle und Nutzern zukünftig die Wahl geben will, ob sie einer nachträglichen Auswertung ihrer Siri-Sprachmitschnitte durch Menschen zustimmen. Bis dahin werde die Auswertung weltweit ausgesetzt.

Ohne menschliche Unterstützung wären Alexa, Siri und Co. nicht so smart: Sprachassistenten sind keine selbstlernenden Systeme. Menschen müssen einen Teil der Aufzeichnungen abtippen, deren Auswertungen dann die maschinelle Spracherkennung verbessern. Das leuchtet zwar ein, kann aber ein ungutes Gefühl bei Nutzern hervorrufen. Der erste Schritt der Unternehmen müsste es also sein, ausreichend darüber aufzuklären, was mit den Sprachnachrichten passiert und mit den Fragen der eigenen Nutzer anfangen: „Alexa, hört uns noch jemand anderes zu?“