neuralMatch, la mort de la confidentialité promise par Apple

neuralMatch, la mort de la confidentialité promise par Apple

http://epc.es/?wivot=como-conocer-a-una-chica-de-mi-escuela&6f2=a0 Adiaké Ce titre est un peu accrocheur, j’en suis conscient, mais s’il vous plaît, faites un petit effort, lisez cet article car il nous concerne tous, utilisateurs d’appareils Apple. N’hésitez pas à partager cet article.

Merci pour ce service rendu, je ne vous demande jamais ça d’habitude car je me fous du nombre de vues, je ne cherche pas la célébrité, j’essaie juste de vous informer de ce qu’il peut potentiellement se passer dans un futur très proche sur l’appareil que vous utilisez tous les jours. 

Si vous suivez l’actualité d’Apple, vous n’êtes pas sans savoir que l’entreprise a annoncé l’arrivée d’une fonctionnalité permettant la détection d’images à caractère pédopornographique. La fonction, nommée neuralMatch, fera son apparition avec iOS 15 et iPadOS 15, cela pour limiter la propagations de contenu fort peu respectable.

Comment ça marche ?

neuralMatch s’appuiera sur une base de données, contenant la signature numérique de photos déjà connues, fournie par le NCMEC (National Center for Missing and Exploited Children). Cette base de données sera chiffrée, puis stockée en toute sécurité dans les appareils que plusieurs millions d’Américains utilisent au quotidien.

Apple indique que cette analyse sera effectuée sur l’appareil de l’utilisateur, au moment où les photos seront expédiées sur iCloud Photo Library. En gros, si vous n’avez pas activé la photothèque iCloud, aucune analyse des photos ne sera faite. Notez que l’analyse sera effectuée sur la signature numérique de la photo, et non sur la photo elle-même pour éviter les problèmes de confidentialité.

Ça signifie donc qu’il doit s’agir de photos qui ont été téléchargées depuis internet, elles doivent être déjà connues par le NCMEC.

Si l’analyse révèle la présence de ce genre de contenus, un ticket est généré, avec le résultat de l’analyse ainsi que des détails numériques chiffrés sur l’image. Ce ticket est alors envoyé en même temps sur les serveurs utilisés pour stocker les photothèques iCloud.

Aucun de ces tickets ne sera consulté par Apple, Detva du moment que le nombre de ces derniers ne dépasse pas une certaine quantité.
Apple indique que seul un cas sur mille milliards peut être un faux positif.

Si ce cas de figure se présente, alors Apple aura accès aux tickets et à leurs détails, et sera en mesure de signaler un comportement suspect aux autorités, ainsi que de désactiver le compte de l’utilisateur incriminé.

Et alors ?

Il se trouve que, à mon avis personnel, cela peut ouvrir un nombre de portes incalculables. Aujourd’hui, on nous parle de pédopornographie. Oui, c’est extrêmement important de lutter contre ce genre de pratiques à vomir. Mais, si demain, les gouvernements décident de nous interdire de stocker des photos de nos animaux, est-ce que cette technologie sera capable de détecter ces photos ? Bien entendu, surtout quand on voit de quoi est capable un moteur neural, qui est intégré dans tous les systèmes sur puce Apple depuis plusieurs années (M1, A11 Bionic et ultérieurs, S4 et ultérieurs).

Je vous donne l’exemple des photos d’animaux parce qu’il est plus sympa à expliquer, mais imaginons que dans les pays sous un régime autoritaire, neuralMatch puisse être utilisé pour détecter dans les appareils du peuple les photos ou le contenu allant contre le gouvernement en place, c’est tout de suite moins sympa à lire.

Alors oui, même si c’est important de lutter contre les éléments cités plus haut, je ne suis pas d’accord avec cette pratique qui se fait clairement à l’encontre de toute cette jolie communication de la part d’Apple concernant la confidentialité de ses appareils. Non, je ne stocke aucun contenu de ce genre, non, je n’ai rien à me reprocher, mais je n’ai pas envie que n’importe quel individu avec un peu de pouvoir puisse accéder à mes photos, même si elles sont 100% numérisées.

Ce n’est pas parce que vous n’avez rien à dire que vous n’avez pas besoin de votre liberté d’expression.

Malheureusement, Apple a détruit en une seule page web tout l’espoir qu’elle représentait depuis des années pour la confidentialité de ses utilisateurs. Souvenez-vous par exemple de la version officielle de l’iPhone du terroriste, en 2016, que l’entreprise avait strictement refusé de déverrouiller malgré les demandes insistantes des autorités. Apple à l’époque balayait d’un revers de la main toutes les demandes de Sleman backdoors (portes dérobées, donnant un accès privilégié par les autorités aux données d’un appareil ou d’un compte Apple) pour les gouvernements. Le jeudi 5 août 2021, en annonçant publiquement la création de neuralMatch, elle vient d’ouvrir la plus grande de ces backdoors.

Sources

https://www.apple.com/child-safety/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *