Accueil Nouvelles Les sous-traitants d’Apple entendent des enregistrements sensibles de Siri, révèle un nouveau rapport

Les sous-traitants d’Apple entendent des enregistrements sensibles de Siri, révèle un nouveau rapport

0
Les sous-traitants d’Apple entendent des enregistrements sensibles de Siri, révèle un nouveau rapport

Une entreprise accusée d’être imprudente dans sa gestion des données sensibles

"Apple

La façon dont les entreprises technologiques analysent les données vocales collectées par les assistants virtuels devient un problème brûlant. La dernière entreprise à l’honneur est Apple, avec un nouveau rapport détaillant comment les entrepreneurs entendent souvent des enregistrements sensibles capturés par Siri.

Un dénonciateur s’adressant à The Guardian a révélé que les sous-traitants entendent régulièrement des informations sensibles lors de l’analyse des demandes de Siri. La source a également exprimé des inquiétudes quant à la fréquence des activations accidentelles qui recueillent ces informations.

Le fait qu’Apple utilise des humains pour analyser les enregistrements vocaux n’est pas une nouveauté, bien qu’il existe un argument valable selon lequel la société ne divulgue pas ce processus aussi bien qu’elle le devrait. Ce qui est nouveau, cependant, c’est la façon dont il peut traiter ces données de manière imprudente.

Selon la source, les sous-traitants ont entendu des enregistrements d’accords commerciaux privés, de discussions médicales, de trafics de drogue et de personnes ayant des relations sexuelles – qui ont tous été clairement faits involontairement.

Les entrepreneurs notent lorsqu’ils pensent qu’un enregistrement a été effectué par erreur, mais le fait que ces enregistrements parviennent à des oreilles humaines suffira à inquiéter de nombreux utilisateurs. Selon la source de The Guardian, les principaux coupables du déclenchement accidentel de Siri sont le HomePod, les porteurs d’Apple Watch levant le poignet (ce qui réveille Siri) et, curieusement, le son d’un zip, que l’assistant confond souvent avec les mots de réveil.

« La régularité des déclenchements accidentels sur la montre est incroyablement élevée », a déclaré la source. « La montre peut enregistrer des extraits qui dureront 30 secondes – pas si longtemps, mais vous pouvez avoir une bonne idée de ce qui se passe. »

Apple a déclaré au Guardian que moins de 1% de tous les enregistrements effectués par Siri finissent par être écoutés par des sous-traitants. Tous les enregistrements sont également dépouillés de leur identifiant Apple, ce que la société nous a dit dans le passé, mais le rapport poursuit en mentionnant que les enregistrements sont accompagnés de « l’emplacement, les coordonnées et les données de l’application ». Nous avons fait un suivi avec Apple pour élaborer à ce sujet.

Mais même avec des informations personnelles supprimées, les enregistrements accidentels peuvent souvent inclure des détails qui pourraient être utilisés pour identifier les personnes qui parlent. « Apple sous-traite, il y a un chiffre d’affaires élevé », a déclaré la source au Guardian. « Ce n’est pas comme si les gens étaient encouragés à tenir compte de la vie privée des gens, ou même à l’envisager. S’il y avait quelqu’un avec des intentions néfastes, il ne serait pas difficile d’identifier [les personnes sur les enregistrements].  »

La source a ajouté qu’il n’y avait pas non plus de procédures spécifiques pour traiter les enregistrements sensibles.

Le dernier rapport suit d’autres sur la façon dont Amazon et Google suivent des procédures similaires. Plus récemment, Google a été contraint de s’excuser après la fuite de plus de 1 000 enregistrements audio de l’Assistant Google par un entrepreneur, dont beaucoup ont été clairement enregistrés par erreur. Amazon a également été critiqué pour ne pas avoir suffisamment anonymisé les données vocales prises par Alexa.