Più di 1.000 registrazioni audio dell’ Assistente Google sono trapelate, ammette Google

L’errore sulla privacy rivela alcune brutte verità su l’Assistente Google e per il BigG

Google è stata colta da un errore di privacy rispetto alla raccolta di voci, con la società che ha ammesso che oltre 1.000 registrazioni sonore sono trapelate su un sito di notizie belga.

Come Amazon, Google ha un hub di lavoratori che ascoltano le domande che gli utenti fanno a l’ Assistente Google al fine di migliorare la sua intelligenza artificiale. Queste registrazioni dovrebbero rimanere anonime e, soprattutto, essere sicure sui server di Google.

assistente google

Ma oltre 1.000 di queste registrazioni sono trapelate da un appaltatore all’emittente belga VRT NWS. Le registrazioni presumibilmente contengono informazioni sensibili inclusi gli indirizzi, secondo VRT. Per confermare che le registrazioni erano reali, la VRT “permette ai normali cittadini fiamminghi di ascoltare alcune delle proprie registrazioni”. Queste persone potrebbero confermare di sentire la propria voce sui clip audio.

Mentre la perdita di queste informazioni è già abbastanza grave, 153 delle registrazioni sono state registrate senza pronunciare la parola sveglia “Ok Google“. Gli altoparlanti intelligenti di Google ascoltano queste parole di veglia e dovrebbero iniziare a registrare qualsiasi cosa solo dopo aver parlato. Tra questi videoclip c’erano conversazioni private, chiamate di lavoro e simili, che i partecipanti quasi certamente non volevano registrare.

Google ha ammesso la fuga un post sul blog, dove ha confermato che un revisore linguistico aveva violato le politiche di sicurezza dell’azienda e condiviso le registrazioni con VRT.

“I nostri team di sicurezza e risposta alla privacy sono stati attivati ​​su questo tema, stanno indagando e prenderemo provvedimenti”, ha dichiarato David Monsees, responsabile della ricerca prodotti di Google. “Stiamo conducendo una revisione completa delle nostre salvaguardie in questo spazio per evitare che una cattiva condotta come questa possa ripetersi“.

È l’ultimo di una serie di errori di sicurezza da parte delle compagnie telefoniche. Amazon è stato nei titoli di alcuni giornali di recente per il modo in cui ha gestito le registrazioni di Alexa, con i rapporti che non sono sufficientemente anonimi i dati.

Le aziende vocali usano i lavoratori per ascoltare le registrazioni al fine di “addestrare” l’intelligenza artificiale. È una pratica consolidata, ma di cui molti utenti non sono a conoscenza. E questo è assolutamente giusto perché Google non dice che lo sta facendo nelle sue politiche sulla privacy.

OK, Google: Parlami della Privacy

Google ha difeso la pratica nel suo post sul blog, definendolo una “parte critica” del miglioramento dell’Assistente.

“Gli esperti di lingue riesaminano solo lo 0,2% di tutti gli snippet audio”, ha affermato Monsees. “Gli snippet audio non sono associati agli account utente come parte del processo di revisione e ai revisori viene richiesto di non trascrivere conversazioni in background o altri rumori e solo di trascrivere snippet indirizzati a Google.”

Google ha anche riconosciuto ciò che definisce “false accetta” – tempi in cui l’Assistente pensa di aver sentito le parole di veglia e avvia le registrazioni, quando in realtà il comando di innesco non è mai stato dato. Questo potrebbe spiegare le 153 registrazioni non intenzionali, ma questa è una dimensione significativa in una dimensione del campione di 1.000. Quindi estrapola quello, non è un bell’aspetto. Inoltre, le norme di Google stabiliscono che solo le registrazioni previste sono inviate a Google, il che non è chiaramente il caso.

Che cosa si può fare? Puoi disattivare la memorizzazione dei dati audio sul tuo account Google, se lo desideri, oppure puoi cancellarli automaticamente ogni tre o 18 mesi. Google ha promesso che “rivedrà le opportunità” per chiarire come vengono utilizzati i dati. A proposito anche di tempo.

Reply