APPLE vous écoute

Hey Siri ! Cesse d’enregistrer et de partager mes conversations privées !

GRAVE ATTEINTE A LA VIE PRIVÉE – Apple l’a avoué… les entreprises travaillant pour Apple nous écoutent ! Ou en sont les poursuites ? Le “Guardian”publiait le 26 juillet qu’un lanceur d’alerte avait divulgué ce qui était conservé comme conversations entendus sur Siri, par les entrepreneurs travaillant pour Apple.

Trafics de drogue, des détails médicaux ou des personnes parlant de rapports sexuels…


❌ Les entrepreneurs Apple entendent régulièrement vos conversations privées et confidentielles dans le cadre de leur travail de contrôle de la qualité, ou “gradation”, a appris le Guardian !
Bien qu’Apple ne le divulgue pas explicitement dans sa documentation sur la protection de la vie privée destinée aux consommateurs, des enregistrements Siri sont transmis aux entrepreneurs qui travaillent pour la société dans le monde entier. Ils sont chargés d’évaluer les réponses en fonction de divers facteurs, notamment si l’activation de l’assistant vocal était délibérée ou accidentelle, si la requête était quelque chose à laquelle on pouvait s’attendre de la part de Siri et si la réponse de Siri était appropriée.
Apple dit que les données “sont utilisées pour aider Siri et la dictée… mieux vous comprendre et reconnaître ce que vous dites”

Mais APPLE n’indique pas explicitement que ce travail est entrepris par des humains qui écoutent les enregistrements

Apple l’a dit au Guardian : “Une petite partie des demandes de Siri sont analysées pour améliorer Siri et la dictée. Les demandes des utilisateurs ne sont pas associées à l’identifiant Apple de l’utilisateur. Les réponses de Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple.” La société a ajouté qu’un très petit sous-ensemble aléatoire, moins de 1 % des activations quotidiennes de Siri, est utilisé pour le classement, et ceux qui sont utilisés ne durent généralement que quelques secondes.

Le Lanceur d’alerte qui a demandé à garder l’anonymat en raison de craintes au sujet de son travail, s’est dit préoccupé par ce manque de divulgation, particulièrement en raison de la fréquence à laquelle les déclenchements accidentels recueillent des renseignements personnels extrêmement sensibles.

Siri peut être activé accidentellement lorsqu’il entend par erreur son “mot de réveil”, la phrase “hey Siri”. Ces erreurs peuvent être compréhensibles – une interview de la BBC sur la Syrie a été interrompue par l’assistant l’année dernière – ou moins. “Le bruit d’une fermeture éclair, Siri entend souvent comme un déclencheur,” dit l’entrepreneur. Le service peut également être activé par d’autres moyens. Par exemple, si une montre Apple détecte qu’elle a été soulevée et entend la parole, Siri est automatiquement activé.

Le Lanceur d’alerte a dit : “Il y a eu d’innombrables cas d’enregistrements de discussions privées entre médecins et patients, de transactions commerciales, de transactions apparemment criminelles, de rencontres sexuelles, etc. Ces enregistrements sont accompagnés des données de l’utilisateur indiquant l’emplacement, les coordonnées et les données de l’application.”

Ces renseignements d’accompagnement peuvent être utilisés pour vérifier si une demande a été traitée avec succès. Dans ses documents relatifs à la protection de la vie privée, Apple indique que les données Siri “ne sont pas liées à d’autres données qu’Apple peut avoir sur votre utilisation d’autres services Apple”. Il n’y a pas de nom ou d’identificateur spécifique attaché à un enregistrement et aucun enregistrement individuel ne peut être facilement lié à d’autres enregistrements.

Des activations accidentelles ont conduit à la réception des données les plus sensibles qui ont été envoyées à Apple. Bien que Siri soit inclus sur la plupart des appareils Apple, l’entrepreneur a souligné que l’Apple Watch et le haut-parleur intelligent HomePod de l’entreprise sont les sources les plus fréquentes d’enregistrements erronés.

Apple Watch “La régularité des déclenchements accidentels sur la montre est incroyablement élevée, ont-ils dit. “La montre peut enregistrer des bribes de 30 secondes, pas si longues que ça, mais vous pouvez vous faire une bonne idée de ce qui se passe.”

Parfois, “vous pouvez certainement entendre un médecin et un patient, parler de l’histoire médicale du patient. Ou vous entendriez quelqu’un, peut-être avec le bruit de fond d’un moteur de voiture – vous ne pouvez pas dire avec certitude, mais c’est un trafic de drogue… vous pouvez certainement l’entendre arriver. Et on entendait des gens se livrer à des actes sexuels qui sont accidentellement enregistrés sur la nacelle ou la montre.”

L’entrepreneur a déclaré que le personnel était encouragé à signaler les déclenchements accidentels ” mais seulement comme un problème technique “, sans procédures spécifiques pour traiter les enregistrements sensibles. “Nous sommes encouragés à atteindre nos objectifs et à terminer le travail le plus rapidement possible. La seule fonction pour signaler ce que vous écoutez semble être pour les problèmes techniques. Il n’y a rien à propos de rapporter le contenu.”

En plus de l’inconfort qu’ils ressentaient à l’écoute de telles informations privées, l’entrepreneur a dit qu’ils étaient motivés à rendre public leur travail parce qu’ils craignaient que ces informations ne soient mal utilisées. “Il n’y a pas beaucoup d’examen minutieux des personnes qui y travaillent, et la quantité de données que nous sommes libres de consulter semble assez large. Il ne serait pas difficile d’identifier la personne que vous écoutez, surtout avec des déclencheurs accidentels – adresses, noms, etc.

“Apple sous-traite, il y a un chiffre d’affaires élevé. Ce n’est pas comme si on encourageait les gens à tenir compte de la vie privée des gens, ou même à en tenir compte. S’il y avait quelqu’un avec de mauvaises intentions, il ne serait pas difficile d’identifier[les gens sur les enregistrements]”.

L’entrepreneur a fait valoir qu’Apple devrait révéler aux utilisateurs l’existence de cette surveillance humaine – et, en particulier, cesser de publier certaines de ses réponses plus ironiques aux requêtes Siri. Demandez par exemple à l’assistant personnel “écoutez-vous toujours” et il vous répondra par : “Je n’écoute que quand tu me parles.”

Apple n’est pas le seul à utiliser la surveillance humaine de ses assistants vocaux automatiques. En avril, Amazon a révélé qu’elle employait du personnel pour écouter certains enregistrements d’Alexa et, plus tôt ce mois-ci, on a découvert que les employés de Google faisaient la même chose avec Google Assistant.

Apple diffère cependant de ces sociétés à certains égards. D’une part, Amazon et Google permettent aux utilisateurs de refuser certaines utilisations de leurs enregistrements ; Apple n’offre pas d’autre choix que de désactiver complètement Siri. Selon Counterpoint Research, Apple détient 35 % du marché des montres intelligentes, soit plus de trois fois son concurrent le plus proche, Samsung, et plus que ses six concurrents les plus proches réunis.

L’entreprise accorde une grande importance à sa réputation en matière de protection de la vie privée des utilisateurs et l’utilise régulièrement comme un avantage concurrentiel par rapport à Google et Amazon. En janvier, elle a acheté un panneau d’affichage au Consumer Electronics Show de Las Vegas annonçant que “ce qui se passe sur votre iPhone reste sur votre iPhone”.


ARTICLE ORIGINAL The Guardian en anglais

 @alexhern – Fri 26 Jul 2019 17.34 BST


Amazon et Google emploient tous deux des sous-traitants pour examiner un petit nombre de leurs enregistrements (Google a déclaré dans des entretiens qu’il fournit “généralement” une transcription texte plutôt que l’enregistrement vocal original, aux sous-traitants tiers). Cortana de Microsoft recueille des données vocales afin d’améliorer son service, tandis que Bixby de Samsung fait de même, impliquant un service tiers pour la conversion parole-texte.