Apple veut détecter les images d’abus sexuels sur enfant sur ses téléphones et serveurs

Publié le
apple,détecter,images,enfants,abus sexuels,maroc,maroc actu,actu maroc,info mAroc,h24info
DR.

Apple a dévoilé jeudi de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses iPhone, iPad et son serveur iCloud aux Etats-Unis, suscitant les inquiétudes de défenseurs de la vie privée sur internet.

« Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenus pédopornographiques », a expliqué le groupe sur son site.

Pour ce faire, Apple prévoit d’utiliser des outils de cryptographie pour comparer les photos téléchargées sur son serveur iCloud avec celles entreposées dans un fichier géré par le Centre national des enfants disparus et exploités (NCMEC).

Le groupe assure qu’il n’a ainsi pas directement accès à l’image.

Quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier, désactivera le cas échéant le compte de l’utilisateur et enverra un rapport au Centre.

Le groupe prévoit par ailleurs de scanner les images envoyées ou reçues via le service de messagerie iMessage sur les comptes d’enfants liés à un abonnement familial.

Lire aussi: Apple vs Facebook, la guerre est déclarée !

Quand des photos explicites sont repérées, elles seront alors floutées et l’enfant sera renvoyé vers des messages de prévention avant de pouvoir éventuellement les ouvrir ou les envoyer.

Les parents pourront, s’ils le décident, choisir de recevoir un message quand leur enfant reçoit ou envoie de telles photos.

L’assistant vocal Siri sera aussi formé à « intervenir » quand des utilisateurs font des recherches d’images pédopornographiques en les prévenant que ces contenus sont problématiques.

Ces outils seront disponibles progressivement avec les prochaines mises à jour des systèmes d’exploitation sur les iPhone, iPad, iWatch et iMac aux Etats-Unis.

Confidentialité

Ces changements « marquent une rupture significative par rapport aux protocoles de confidentialité et de sécurité établis de longue date », a estimé le Centre pour la démocratie et la technologie (CDT).

« Apple remplace son système de messagerie crypté de bout en bout par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et aux dérives non seulement aux États-Unis, mais dans le monde entier », a affirmé Greg Nojeim du CDT dans un message transmis à l’AFP.

Le groupe devrait selon lui « abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l’intégrité de leurs données conservées sur les appareils et services d’Apple ».

Le géant informatique a de fait la réputation de défendre la vie privée de ses clients face aux pressions de certaines autorités cherchant à accéder aux données d’utilisateurs au nom de la lutte contre le crime ou le terrorisme.

« L’exploitation des enfants est un problème sérieux, et Apple n’est pas la première entreprise technologique à modifier sa position sur la protection de la vie privée pour tenter de la combattre », ont souligné de leur côté India McKinney et Erica Portnoy de l’ONG de protection des libertés sur internet Electronic Frontier Foundation (EEF).

Mais même développé avec les meilleures intentions, un système destiné à détecter des images pédopornographiques « ouvre la porte à d’autres abus », craignent-elles dans un message de blog.

Il suffit qu’Apple modifie un peu les paramètres pour chercher d’autres types de contenus ou pour scanner les comptes non seulement d’enfants mais aussi de tout le monde, expliquent-elles.

La rédaction vous conseille

Les titres du matinNewsletter

Tous les jours

Recevez chaque matin, l'actualité du jour : politique, international, société...

Apple veut détecter les images d’abus sexuels sur enfant sur ses téléphones et serveurs

S'ABONNER
Partager
S'abonner