Online-Weiterbildung
Präsenz-Weiterbildung
Produkte
Themen
Dashöfer

Sex, Drugs und Krankenhistorien: Siri-Aufnahmen von Apple mitgeschnitten

12.08.2019  — Philipp Selig.  Quelle: Verlag Dashöfer GmbH.

Siri hat sich zu einem nützlichen Tool in Privatleben und Arbeitswelt entwickelt. Doch wie Amazon und Google räumte auch Apple ein, dass Sequenzen von Siri-Gesprächen aufgezeichnet und durch Mitarbeiter ausgewertet wurden. Besorgniserregend ist dabei vor allem, wie leicht der Sprachassistent sich unabsichtlich aktivieren lässt.

Sprachassistenten zählten in den letzten Jahren zu den bedeutendsten Entwicklungen, was die Nutzung digitaler Medien angeht. Mittlerweile sind sie wichtige, oder wie beim Amazon Echo sogar zentrale, Bestandteile der Produkte von Apple, Amazon und Google. Doch eine funktionierende Spracherkennung hat ihren Preis – und den zahlen wohl vor allen Dingen die Nutzer von Siri, Alexa und Co.: Die Preisgabe all dessen, was sie der digitalen Assistentin anvertrauen.

Anzeige
Bewerbermanagement und Recruiting in Zeiten von Big Data und Datenschutz
  • Von der Online- zur Initiativbewerbung
  • Vom Bewerbungseingang zur Vorauswahl
  • … und zuletzt die Endauswahl!

Im April war bekannt geworden, dass Amazon Befehle und Fragen an Alexa mitschneidet und auswerten lässt. Im Sommer folgte zunächst Google und bestätigte ein solches Vorgehen auch bei seinem Assistant. Und schließlich war dann wenige Tage später Apple an der Reihe und räumte ein: Alles, was Siri zu hören bekam, konnte theoretisch auch zu externen Mitarbeitern gelangen und von diesen gehört und transkribiert werden.

Sowohl Google als auch Apple haben die Praxis aktuell vorerst gestoppt. Doch die Frage, wie die Unternehmen in Zukunft mit den Befehlen und Fragen an die Assistenten umgehen möchten und wie sie zukünftig für eine Verbesserung der KIs sorgen wollen, zu deren Zweck die Mitschnitte bisher dienten, sind noch ungeklärt.

Aufzeichnung zu Trainingszwecken

Bei der Aufzeichnung der Tonsequenzen ging es Amazon, Apple und Google wohl nicht darum, das Privatleben der Nutzer auszuspionieren. Das Ziel des Mithörens ist stattdessen die Verbesserung der Spracherkennung. Zu diesem Zweck werten Mitarbeiter aus, was der Sprachassistentin tatsächlich mitgeteilt wurde und was diese verstanden hat. Bei Fehlern kann die KI so mit zusätzlichen Informationen gefüttert werden. Zum Beispiel um ähnliche oder gleichlautende Worte anhand des Kontextes, in dem sie genannt werden, zu unterscheiden und das Gesagte in Zukunft korrekt zu interpretieren.

Diese Informationen für die KI führen natürlich zu einer verbesserten Usability der Sprachassistenten und helfen, Missverständnisse zwischen Mensch und KI zu reduzieren und die Antworten der Assistenten zu optimieren. Problematisch ist das Vorgehen aber trotzdem. Denn die Mitarbeiter, die die Befehle an die Assistenten auswerten, bekommen höchst private, sensible und intime Details zu Ohren.

Anonym oder nicht?

Eine der „Transcribers“ genannten Mitarbeiter*innen, die die Mitschnitte auswerten, gab in der taz zwar an, dass die Audiodaten bei ihr strikt anonym ankämen, sie also nicht nachverfolgen könne, wer was gesagt habe und auch Apple erklärte, dass die Aufnahmen anonymisiert und nicht mit einer Apple-ID verknüpft seien. Der Guardian berichtete jedoch unter Berufung auf einen Insider, dass Ortsdaten, Kontaktdetails und App-Daten mit den Aufnahmen assoziiert werden können. Außerdem werde Siri zum Teil schon durch das Geräusch eines Reisverschlusses oder zum Beispiel das Wort Syrien aktiviert, da es dies fälschlicherweise als Aktivierungswort Hey, Siri! verstehe. Der Whistleblower sprach gegenüber dem Guardian von zahllosen Aufnahmen von Diskussionen zwischen Ärzten und Patienten, von Geschäfts- aber auch Drogendeals sowie Geschlechtsverkehr – also Situationen, in denen eine absichtliche Aktivierung der Sprachassistentin nahezu ausgeschlossen ist.

Zudem muss Apple sich den Vorwurf gefallen lassen, in den Nutzungsbedingungen nicht über eine Auswertung durch Menschen zu informieren.

Ein weiteres Problem: Die hohe Mitarbeiterfluktuation in den Drittfirmen, in denen die Mitschnitte ausgewertet werden. Wenn dort jemand mit bösen Absichten arbeite, bestünde für diesen kein Problem aufgenommene Personen zu identifizieren, ist sich der Whistleblower sicher.

Wie geht es weiter?

Begeisterte Nutzer der Sprachassistenten befinden sich also in einem Dilemma: Man möchte ungern auf die Nutzung der Technik verzichten und freut sich zudem natürlich auch über eine möglichst fehlerfreie Spracherkennung. Andererseits möchte wohl niemand gern private oder geschäftliche Details preisgeben, damit diese von Menschen gehört und zum Training der KI genutzt werden.

Bis mindestens Ende Oktober gilt Googles Stopp der Auswertung für die EU, nachdem der Hamburger Datenschutzbeauftragte Johannes Caspar im Juli ein Verwaltungsverfahren gegen den Konzern eingeleitet hatte. Apple hat zumindest angekündigt, das Vorgehen auf den Prüfstand zu stellen.

Bei Amazons Alexa gibt es dagegen zumindest die Möglichkeit, sämtliche Aufnahmen, die auf den Amazon-Servern gelandet sind, selbst anzuhören und bei Bedarf zu löschen.

Zu welchem Schluss die Tech-Riesen Apple und Google letztlich kommen, was das Aufzeichnen von Befehlen an die Assistenten angeht, bleibt abzuwarten. Zumindest die Fehleranfälligkeit bei der unabsichtlichen Aktivierung sollten jedoch möglicherweise zum Nachdenken darüber führen, bei welchen privaten oder geschäftlichen Anlässen iPhone, Apple-Watch und Co. tatsächlich mit anwesend sein müssen.

Quellen und Hintergründe:

Bild: rawpixel.com (Pexels, Pexels Lizenz)

nach oben
FAQ