Apple presa di mira nella lotta contro la pedofilia: l’imperativo di un sistema anti-pedofilia?

0

L’associazione Heat Initiative ha lanciato una campagna pubblicitaria contro Apple, con l’obiettivo di fare pressione sull’azienda affinché ripristini un sistema precedentemente annunciato e poi abbandonato. Questo sistema avrebbe dovuto consentire di individuare potenziali immagini pedopornografiche sugli iPhone, su altri dispositivi Apple e su iCloud. La campagna di Heat Initiative è stata lanciata per cercare di comprendere le ragioni dietro l’abbandono di questa idea.

Secondo Erik Neuenschwande, portavoce di Apple, il sistema è stato abbandonato perché l’analisi dei dati privati degli utenti su iCloud potrebbe creare nuove minacce e indebolire i meccanismi di cifratura, con conseguenze imprevedibili. In risposta a queste dichiarazioni, Heat Initiative ha pubblicato una pesante accusa sul loro sito web, affermando che Apple permette l’archiviazione di abusi sessuali sui minori su iCloud.

Heat Initiative sostiene che Apple abbia fatto marcia indietro dopo l’importante annuncio del 2021 riguardo alle funzionalità che avrebbero individuato immagini e video di abusi sessuali su minori, impattando sulla vita di molti bambini. Sul proprio sito web, l’associazione riporta presunti esempi di casi in cui iCloud sarebbe stato utilizzato per memorizzare materiale che ritrae abusi sessuali.

Heat Initiative ha anche inviato una lettera al CEO di Apple, Tim Cook, esprimendo il loro shock e sconcerto per la decisione dell’azienda di invertire la rotta nella lotta alla pedofilia.

L’idea originale di Apple era quella di adottare una tecnologia chiamata NeuralHash, che confrontava le immagini con un archivio fornito da organizzazioni per la protezione dei minori come il National Center for Missing & Exploited Children (NCMEC), al fine di individuare corrispondenze. Questo confronto era possibile grazie a un processo crittografico che trasformava le immagini pedopornografiche note in stringhe di testo (hash), consentendo l’analisi delle caratteristiche delle immagini caricate su iCloud. Le immagini simili a quelle presenti nel database di riferimento avrebbero dovuto essere caricate con un’etichetta nascosta, e successivamente visionate manualmente dal personale incaricato, il quale avrebbe inoltrato il materiale al NCMEC per ulteriori verifiche, dopo aver decifrato le immagini.

L’idea di Apple è stata apprezzata da alcune organizzazioni che tutelano i minori, ma ha suscitato preoccupazioni da parte di associazioni che si occupano di privacy, che temono un possibile utilizzo improprio di questo sistema in futuro. Alcuni temono che governi o regimi possano chiedere ad Apple di identificare e segnalare immagini o simboli non graditi al potere in carica. Inoltre, si sono sollevate preoccupazioni sulle “collisioni” (hash identici su immagini diverse), che potrebbero causare falsi positivi e compromettere l’efficacia del sistema.

In conclusione, l’associazione Heat Initiative ha avviato una campagna per fare pressione su Apple affinché ripristini il sistema precedentemente annunciato per individuare immagini pedopornografiche. Mentre l’idea di Apple è stata elogiata da alcuni e criticata da altri, l’azienda ha deciso di non adottare il sistema per evitare possibili minacce alla privacy e alla sicurezza degli utenti.

Richiesta ad Apple per introdurre un sistema anti pedofilia

L’associazione Heat Initiative ha avviato una campagna pubblicitaria contro Apple per chiedere il ripristino di un sistema che avrebbe consentito di individuare immagini pedopornografiche sugli iPhone, sui dispositivi Apple e su iCloud. Tuttavia, Apple ha abbandonato l’idea a causa delle vulnerabilità nella sicurezza dei dati privati degli utenti. Heat Initiative ha affermato che Apple permette lo storage di abusi sessuali sui minori su iCloud e ha pubblicato esempi di casi su cui basa le sue accuse. Apple ha ricevuto critiche per aver modificato la sua posizione sulla lotta alla pedofilia, nonostante il suo sistema di NeuralHash fosse apprezzato da organizzazioni che tutelano i minori. Le preoccupazioni riguardano l’abuso potenziale del sistema da parte dei governi e dei regimi, nonché i falsi positivi e le problematiche tecniche associate all’individuazione automatica del materiale pedopornografico. Apple ha deciso infine di non adottare il sistema per preservare la privacy e la sicurezza degli utenti.