Désormais, Apple scannera les téléphones des utilisateurs de manière tout à fait officielle.
Désormais, Apple scannera les téléphones des utilisateurs de manière tout à fait officielle.
theverge.com : Selon le Financial Times, Apple prévoit de scanner les photos stockées sur les iPhones et iCloud pour détecter les abus sur les enfants. Le nouveau système pourrait aider les services répressifs dans leurs enquêtes criminelles.
Le système, baptisé neuralMatch, "alertera de manière proactive une équipe d'experts s'il pense que des images illégales ont été détectées et les experts contacteront alors les forces de l'ordre si le matériel doit être vérifié", rapporte le Financial Times.
L'IA neuralMatch, qui a été entraînée à l'aide de 200 000 images du National Centre for Missing and Exploited Children, sera d'abord lancée aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
"Selon des personnes informées des plans, chaque photo téléchargée sur iCloud aux États-Unis recevra un 'bon de sécurité' indiquant si la photo est suspecte ou non", rapporte le Financial Times. "Une fois qu'un certain nombre de photos auront été signalées comme suspectes, Apple autorisera le décryptage de toutes les photos suspectes et, si elles s'avèrent être illégales, les remettra aux autorités compétentes."
Matthew Green, professeur et cryptographe à l'université Johns Hopkins, a fait part de ses inquiétudes concernant le système sur Twitter mercredi soir. "Un tel outil pourrait être une aubaine pour trouver de la pédopornographie sur les téléphones des gens", a déclaré M. Green. "Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ?"
"Même si vous pensez qu'Apple ne permettra pas l'utilisation abusive de ces outils, nous avons de quoi nous inquiéter", a ajouté le professeur. "Ces systèmes s'appuient sur une base de données" de "hashs de médias problématiques" que vous, en tant que consommateur, ne pouvez pas consulter."
Apple vérifie déjà les fichiers iCloud pour détecter les images connues d'abus d'enfants, comme tout autre grand fournisseur de services en nuage. Mais le système décrit ici irait plus loin, en fournissant un accès centralisé au stockage local. Il serait également trivial d'étendre le système à des crimes autres que la maltraitance des enfants, ce qui est particulièrement préoccupant compte tenu de l'ampleur des activités d'Apple en Chine.
La société a informé certains scientifiques américains cette semaine et, selon le Financial Times, Apple pourrait en révéler davantage sur le système "dès l'autre jour".
Apple a déjà fait de la publicité pour les protections de la vie privée intégrées dans ses appareils et était connu pour s'opposer au FBI lorsque l'agence voulait qu'Apple intègre dans iOS une porte dérobée pour accéder à l'iPhone utilisé par l'un des tireurs de l'attaque de San Bernardino en 2015.
La société n'a pas répondu à une demande de commentaire du Financial Times.
Lutter contre la maltraitance des enfants est une excellente chose, bien sûr, mais comme vous le savez, la route de l'enfer est pavée de bonnes intentions. Et c'est là où le monde semble aller maintenant. Mais maintenant, dans ce cas particulier, quelques questions d'actualité ne peuvent manquer de se poser.
Tout d'abord, où est la garantie que l'IA de cette société glorifiée reconnaîtra correctement les images ? Par exemple, les gens ont encore à l'esprit l'embarras d'un moteur de recherche qui a suggéré des photos d'animaux au lieu de photos de personnes noires recherchées parce que, selon l'algorithme de l'IA, les visages étaient très similaires. Mais si c'était juste un embarras ici, maintenant le FBI pourrait s'introduire dans une personne s'ils ont mal identifié les photos. Ou bien marquez-le quelque part dans les bases de données.
Le deuxième point intéressant est le cadre juridique qui permet à quelqu'un de fouiller dans les dépôts de données appartenant à d'autres personnes. Si Apple regarde des photos à distance, comment peut-on garantir que les mentors locaux ne regardent pas aussi les cartes de crédit ou autres documents financiers d'autres personnes ? Il est évident qu'Apple n'est pas intéressé par le vol de cent dollars dans le portefeuille de son propriétaire, mais Apple est une grande entreprise, avec beaucoup de cadres moyens et inférieurs qui ont de merveilleuses perspectives.
Le plus important, c'est que l'idée de scanner les ordinateurs des autres n'a pas été inventée hier par les entreprises, elle a très probablement été réalisée par Bill Gates et ses semblables. Nous ne savons même pas quelle sera la prochaine action des mondialistes. Les fichiers seront probablement scannés directement dans les têtes, alors restez à l'écoute.
Hypocrisie infinie, encore et toujours.
RépondreSupprimerOu quand les psychopathes pedosatanistes inversent encore les roles en accusant le reste du monde de leurs vices infâmes, osant là encore se faire passer pour des êtres pleins de vertu !
Le pire étant que si peu de gnous comprennent cette grossière manipulation.