Im letzten Jahr hat sich das Verhalten der digitalen Assistentin Siri von Apple grundlegend verändert. Die Helferin reagiert nur noch auf das Kommando, wenn dieses vom Besitzer kommt, nicht aber bei Freunden oder der Familie. Apple will damit weitere iPhones im Raum davon abhalten, gesammelt loszuschnattern. Dafür muss Apple nicht zwingend Audiodaten sammeln, um Nutzer voneinander unterscheiden zu können. Stattdessen setzt der Konzern auf vereinigtes Lernen, eine Technologie, die 2017 von Google vorgestellt wurde. Damit lassen sich unterschiedliche Kopien eines Modells zur Spracherkennung gleichzeitig trainieren.
Die dabei erfassten Daten wandern laut Apple nicht in die Cloud, sondern werden lokal auf dem Gerät ausgewertet. Lediglich die aktualisierten Modelle werden an einen zentralen Server geschickt, der sie dann mit dem Master-Modell kombiniert. Konkrete Anfragen an Siri verlassen das Apple-Gerät hierfür nicht, dennoch werde der Assistent immer besser darin, den richtigen Sprecher zu identifizieren.
Eine weitere Schutzschicht für die Privatsphäre wird durch „differenzierten Datenschutz“ geschaffen. Dazu werden die aufgezeichneten Audiodaten mit einem Störgeräusch erweitert, bevor sie in einem maschinellen Lernmodell genutzt werden. Dadurch soll eine spätere Erkennung der Audiodaten unmöglich werden. (Macwelt)