Von Google-Mitarbeitern sind Audiomitschnitte etlicher Gespräche mit Google Assistant analysiert worden.
Die Identität der Anwender blieb dabei nicht stets anonym.
Das Video zeigt dir einen spannenden Live-Test.
Warum wurden Nutzergespräche analysiert?
Der öffentlich-rechtliche Rundfunksender VRT aus Flandern erhielt über tausend Gesprächsmitschnitte von Nutzern des Sprachassistenten Google Assistant, der im Smartphone oder Lautsprecher Google Home arbeitete. Die Gespräche hielten externe Mitarbeiter schriftlich für die Qualitätssicherung fest.
Ein Großteil der Audionachrichten entstanden bewusst durch den Spruch “Okay, Google”, der den Sprachassistenten aktiviert. Von den Gesprächen hätten 153 aber niemals aufgezeichnet werden sollen, da hier Google Assistant ungewollt den Aktivierungsbefehl verstand.
Zum Beispiel wenn jemand “Okay, Keks” bzw. ohne es zu wollen Google Assistant über den Knopf seines mobilen Geräts einschaltete. Hierbei haben die Anwender offenbar das Lichtsignal oder andere visuell sichtbare Signale des Smartphones nicht gesehen.
Brisante persönliche Informationen
Laut den Google-Vertragsarbeiter mitteilten, seien sehr persönliche Infos wie Unterhaltungen im Bett, medizinische Fragen, Gespräche von Eltern mit ihren Kindern und gewalttätige Handlungen mitgehört worden. Zu den Nutzern erhielten die Auftragnehmer keine Informationen und dennoch gelang es VRT einige Personen anhand der Audiomitschnitte zu ermitteln.
Google zufolge werden nur 0,2 Prozent aller Audiofragmente per Hand analysiert, doch anders ist die Angabe eines Auftragnehmers gegenüber dem Sender. Er sei wöchentlich mit der Bearbeitung von tausend Gesprächen beschäftigt.
In den Regeln des Suchmaschinenkonzerns bezüglich Datenschutz und Datensicherheit bei Google Home steht mit keiner Silbe etwas von Mitarebeitern, die einzelne Audioaufnahmen bearbeiten. Amazon und Apple verfahren ähnlich bei der Verbesserung ihrer Sprachassistenten, indem sie echte Menschen reale Aufzeichnungen analysieren lassen.
Nutzt hier jemand #GoogleHome ? Es ist nicht nur die ‚KI‘ die euch zuhört.
Wer so etwas in seine Wohnung stehen hat, den möchte ich nicht besuchen kommen. Es sollte verpflichtend sein, an die Wohnungstüre einen Warnhinweis anzubringen. #Datenschutzhttps://t.co/erDAutKjhH
— Dietmar Franzenburg (@DFranzenburg) 11. Juli 2019
Nicht alle Aufnahmen anonymisiert
Eigentlich sollten die betreffenden Audioaufnahmen verzerrt werden, um sie anonymisieren, doch dies wäre nicht bei allen Aufzeichnungen so gewesen. Die Audioqualität wäre VRT zufolge allerdings klar verständlich gewesen. Jene User, die von Reportern des flämischen Senders aufgesucht wurden, fielen aus allen Wolken, als sie ihre Stimme gleich erkannten.
Jeder User des Google Sprachassistenten kann seine persönlichen Audioaufnahmen manuell über den Account löschen. Hierfür wird im Benutzerkonto in “Daten & Personalisierung” im Menüpunkt “Meine Aktivitäten” der Punkt “Sprach-m und Audioaktivitäten” ausgewählt. Danach sind alle Aufnahmen gelöscht.
Zwischenzeitlich erklärte Google in seinem Blog, in welcher Form einzelne Gespräche durch Menschenhand untersucht werden. Künftig will das Unternehmen verhindern, dass Audiodateien durch Auftragnehmer und deren Mitarbeiter an die Öffentlichkeit gelangen.
Wenn du mit einem Sprachassistenten wie Google Assistant, Amazon Alexa oder Apple Siri arbeiten solltest, sei bei der Nutzung vorsichtig und lösche deine Audioaufnahmen regelmäßig. Amazon Alexa fiel schon mal als „Hexe“ auf.