Le Financial Times a récemment dévoilé un nouvel outil développé par Apple, et basé sur la reconnaissance d’image. Baptisé neuralMatch, il vise à identifier des photographies relevant de la pédocriminalité, et pourrait être utilisé pour scanner les clichés présents sur iCloud ou iPhone.
Utilisation vertueuse ou risque légitime de dérive ? Les outils s’appuyant sur l’IA, et notamment sur la reconnaissance d’image, posent de réels problèmes éthiques. Ils imposent un cadre réglementaire strict pour éviter toute utilisation abusive.
Lutter contre la pédocriminalité, une priorité pour Apple
La lutte contre la pédocriminalité sur Internet est bien entendu nécessaire. Et vouloir scanner à grande échelle des images circulant sur Internet dans ce but semble parfaitement légitime. Mais qu’en est-il des espaces de stockage privés ?
C’est l’une des questions que soulève une récente révélation du Financial Times. En 2020, Apple a reconnu effectuer des analyses et vérifications sur les images stockées sur iCloud, afin de repérer d’éventuelles images pédopornographiques. Mais, selon le journal, Apple aurait développé un outil d’analyse d’images dédié à ce type de scan.
neuralMatch, un outil de reconnaissance d’images illégales, pour scanner iCloud ou les iPhones
Cet outil, baptisé neuralMatch, sera, selon le Financial Times, capable « d’alerter de manière proactive une équipe d’analystes humains s’il pense avoir détecté des images illégales. S’il s’avère que c’est le cas, les équipes alerteront alors les forces de police ». Chaque photo se verrait attribuer une « note de sécurité ». Si plusieurs images sont jugées suspectes, Apple avertirait les forces de police.
Le gros problème reste le même avec les outils de ce type : aucune législation claire n’encadre leur utilisation, notamment aux Etats-Unis, où neuralMatch devrait être déployé dans un premier temps. Et c’est donc peut-être à Apple qu’il faudra faire confiance pour garantir que son utilisation ne sera pas inutilement intrusive, et que les recherches seront bien automatisées, et sans possibilité, pour un humain, de visionner ou récupérer les contenus scannés… Ce qui, pour un outil qui devrait vérifier des espaces de stockage privé, et théoriquement protégés de toute intrusion extérieure, poserait bien évidemment question.