Apple setzt Siri-Auswertung durch Menschen aus

02.08.2019
Die Erkenntnis, dass Aufnahmen von Sprachassistenten zum Teil von Menschen abgetippt werden, um die Spracherkennung zu verbessern, schockierte viele Nutzer. Apple will künftig ausdrücklich die Erlaubnis dazu einholen. Bis dahin wurde die Praxis gestoppt.
Apple setzt weltweit die Praxis aus, Fragmente von Aufnahmen seiner Sprachassistentin Siri nachträglich von Menschen auswerten zu lassen. Foto: Alexander Heinl/dpa
Apple setzt weltweit die Praxis aus, Fragmente von Aufnahmen seiner Sprachassistentin Siri nachträglich von Menschen auswerten zu lassen. Foto: Alexander Heinl/dpa

Cupertino (dpa) - Apple hat als erster Anbieter von Sprachassistenten angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen.

Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der iPhone-Konzern dem Tech-Blog «TechCrunch» mit. Bis dahin werde die Praxis weltweit gestoppt und auf den Prüfstand gestellt.

Seit Jahren von Menschen angehört und abgetippt

Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten den Befehl nicht verstanden, die falsche Erkennung von Aktivierungswörtern sowie den Umgang mit neuen Sprachen und Dialekten. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert würden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.

Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch «eine geringe Anzahl von Transkriptionen» für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings erst suchen - und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen.

Sensible Inhalte und fehlerhafte Aktivierungen

In einem Bericht der Zeitung «Guardian» vergangene Woche erzählte der Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte «Hey, Siri» gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen.

Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet. Laut Angaben in dem Sicherheitspapier für Entwickler können Mitschnitte bis zu zwei Jahre lang für die Verbesserung des Dienstes verwendet werden, nach sechs Monaten werde eine Kopie ohne persönliche Informationen gespeichert.

Stopp der Auswertung in der EU

Erst am Donnerstag war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat. Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein Verwaltungsverfahren gegen den Internet-Konzern ein, um das Anhören der Mitschnitte durch Google-Mitarbeiter oder Dienstleister zu untersagen. Laut Google werden nur rund 0,2 Prozent aller Sprachbefehle an den Assistant auf diese Weise abgetippt.

Apple war 2011 mit Siri auf dem iPhone ein Vorreiter bei Sprachassistenten. Es war aber die Idee von Amazon, seine Alexa-Software in die vernetzten Echo-Lautsprecher einzubinden, die den Markt in Schwung brachte. Google zog mit dem Assistant auf Smartphones und seinen Home-Lautsprechern nach. Inzwischen versuchen Amazon und Google, ihre Assistenzsoftware in immer mehr Geräte verschiedener Hersteller zu bringen, neben Lautsprechern sind das auch Hausgeräte bis hin zur Mikrowelle. Google und Amazon geben Nutzern inzwischen die Möglichkeit, gespeicherte Aufzeichnungen löschen zu lassen.

Mikrofone ständig aktiv

Die Assistenten starten die Aufzeichnung grundsätzlich erst, wenn sie das Aktivierungswort - «Hey, Google», «Alexa» oder «Hey, Siri» - hören. Allerdings müssen die Mikrofone ständig aktiv sein, um das Weckwort nicht zu verpassen.

Datenschützer haben schon lange Einwände gegen die Sprachassistenten. Zum einen sehen sie ein Problem darin, dass sich in einem Haushalt nur schwer dafür sorgen lässt, dass nur Daten von Nutzern verarbeiten werden, die dem auch ausdrücklich zugestimmt haben - was ist zum Beispiel, wenn man Besuch bekommt? Zum anderen sieht unter anderem Caspar ein Problem darin, dass die Nutzer nicht ausdrücklich darauf hingewiesen wurden, dass die Mitschnitte auch von Menschen angehört werden können und nicht nur automatisiert zum maschinellen Lernen genutzt werden.

Pannen und Nutzung bei der Strafverfolgung

Für zusätzliche Skepsis sorgten Pannen, wie etwa ein Zwischenfall in den USA 2018, bei dem Alexa den Mitschnitt einer Unterhaltung eines Paares an eine Person aus deren Kontaktliste verschickte. Amazon sprach von einer unglücklichen Verkettung von Fehlern. Zunächst glaubte die Software fälschlich, das Aktivierungswort «Alexa» erkannt zu haben. Dann hörte sie aus der weiteren Unterhaltung den Befehl «sende eine Nachricht» und auch einen Namen heraus. Alexa habe dann gefragt, ob die Nachricht an einen bestimmten Empfänger verschickt werden solle. Das Paar hörte die Frage auf dem leise eingestellten Lautsprecher nicht - aber irgendein Wort aus ihrer weiteren Unterhaltung wurde als Zustimmung interpretiert.

Ein wiederkehrendes Thema ist auch die Möglichkeit der Nutzung von Aufzeichnungen der Sprachassistenten für die Strafverfolgung. In den USA ist mindestens ein Fall bekannt, in dem Ermittler bei der Aufklärung eines Todesfalls auf Alexa-Mitschnitte zugreifen wollten. Auch in Deutschland gibt es Überlegungen der Innenminister, Ermittlern den Zugriff auf Daten digitaler Sprachassistenten zu ermöglichen.


Verfasser: dpa-infocom GmbH

KEYWORDS

TEILEN


Das könnte Sie auch interessieren
Laut Verbraucherschützern kann es vorkommen, dass sich Amazons Assistent Alexa verhört. Fällt etwa der ähnlich lautende Name «Alexandra» beginnt bereits die Sprachaufzeichnung. Foto: Britta Pedersen Sprachassistenten springen auch ungewollt an Wie wird das Wetter, wer war Theodor Mommsen, wo ist mein nächster Termin? Sprachassistenten brennen darauf, Fragen zu beantworten. Doch sie müssen auf ihre Aktivierung per Signalwort warten - eigentlich. In der Praxis hören sie oft, was sie wollen, zeigt ein Test.
Sprachassistenten wie Alexa oder Google Assistant sammeln private Daten in einer Cloud. Foto: Britta Pedersen Gefährden Sprachassistenten die Privatsphäre? In naher Zukunft könnten Sprachassistenten unseren Alltag weitgehend regeln. Sie steuern die Zimmertemperatur, kochen Kaffee, verbinden uns mit anderen. Eine neue, lokale Art der Datenverarbeitung soll dafür sorgen, dass die Privatsphäre dabei besser geschützt wird.
Der Sprachassistent «Alexa» von Amazon birgt nach Einschätzung des Wissenschaftlichen Dienstes des Bundestags Risiken für Minderjährige und unbeteiligte Besucher. Foto: Britta Pedersen Wie Nutzer bei Alexa und Co die Persönlichkeitsrechte wahren Wer zu Hause Smartspeaker mit Sprachassistenten nutzt, hat sich bewusst dafür entschieden. Aber was ist mit Besuchern, die gar nicht damit rechnen, dass die Räume Ohren haben?
Der Lautsprecher Amazon Echo zeichnet Gespräche in den Privaträumen seiner Nutzer auf. Nun sind solche Aufnahmen in die Hände eines falschen Kunden gelangt. Foto: Elaine Thompson/AP Alexa-Sprachaufzeichnung gerät an falschen Kunden Ein Amazon-Nutzer fordert seine gespeicherten Daten ein - und erhält intime Sprachaufzeichnungen eines völlig anderen Alexa-Nutzers. Ein «datenschutzrechtlicher GAU» sagen Experten, der Konzern spricht von einem Einzelfall.