Apple scansiona ogni dispositivo alla ricerca di contenuti pedopornografici, ma gli esperti temono per la privacy
Giovedì Apple ha dichiarato che sta introducendo nuove funzionalità di sicurezza dei bambini in iOS, iPadOS, watchOS e macOS come parte dei suoi sforzi per limitare la diffusione di materiale sugli abusi sessuali su minori (CSAM) negli Stati Uniti
A tal fine, il produttore di iPhone ha affermato che intende avviare la scansione lato client delle immagini condivise tramite ogni dispositivo Apple per contenuti noti di abusi sui minori mentre vengono caricati in iCloud Photos, oltre a sfruttare l'apprendimento automatico sul dispositivo per controllare tutti iMessage immagini inviate o ricevute da account minori (di età inferiore ai 13 anni) per avvisare i genitori di foto sessualmente esplicite condivise sulla piattaforma di messaggistica.
Inoltre, Apple prevede anche di aggiornare Siri e Search per organizzare un intervento quando gli utenti tentano di eseguire ricerche per argomenti relativi a CSAM, avvertendo che "l'interesse per questo argomento è dannoso e problematico".
"Messages utilizza l'apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita", ha osservato Apple . "La funzione è progettata in modo che Apple non abbia accesso ai messaggi". Si dice che la funzione, chiamata Communication Safety, sia un'impostazione di attivazione che deve essere abilitata dai genitori tramite la funzione Family Sharing.
Il rilevamento di immagini CSAM note comporta l' esecuzione di corrispondenze sul dispositivo utilizzando un database di hash di immagini CSAM note fornito dal National Center for Missing and Exploited Children (NCMEC) e da altre organizzazioni per la sicurezza dei bambini prima che le foto vengano caricate nel cloud. "NeuralHash", come viene chiamato il sistema, è alimentato da una tecnologia crittografica nota come intersezione di set privati . Tuttavia, vale la pena notare che mentre la scansione avviene automaticamente, la funzione funziona solo quando è attiva la condivisione di foto di iCloud.
Inoltre, Apple dovrebbe utilizzare un altro principio crittografico chiamato condivisione segreta della soglia che consente di "interpretare" i contenuti se un account di iCloud Photos supera una soglia di immagini di abusi sui minori note, in seguito alla quale il contenuto viene rivisto manualmente per confermare che c'è un corrispondere e, in tal caso, disabilitare l'account dell'utente, segnalare il materiale a NCMEC e passarlo alle forze dell'ordine.
L'iniziativa CSAM di Apple ha spinto i ricercatori della sicurezza a esprimere l'ansia che potrebbe soffrire di un creep di missione ed essere espansa per rilevare altri tipi di contenuti che potrebbero avere implicazioni politiche e di sicurezza, o persino incastrare individui innocenti inviando loro immagini innocue ma dannose progettate per apparire come fiammiferi per pedopornografia.
L'informatore statunitense Edward Snowden ha twittato che, nonostante le buone intenzioni del progetto, ciò che Apple sta implementando è "sorveglianza di massa", mentre il professore di crittografia ed esperto di sicurezza della Johns Hopkins University Matthew Green ha affermato : "il problema è che la crittografia è uno strumento potente che fornisce privacy e non puoi davvero avere una forte privacy mentre controlli anche ogni immagine che qualcuno invia."
Commenti
Posta un commento