sabato, Ottobre 16, 2021
Home Tech Le domande frequenti sulla sicurezza dei bambini di Apple respingono i timori...

Le domande frequenti sulla sicurezza dei bambini di Apple respingono i timori per la privacy

Apple ha pubblicato una nuova FAQ sul suo sistema di scansione degli abusi sui minori, dopo aver suscitato polemiche la scorsa settimana con l'annuncio che avrebbe utilizzato l'intelligenza artificiale per individuare materiale potenzialmente dannoso o illegale su iPhone e altri dispositivi. Il sistema mira a identificare segni di possibile adescamento di bambini o condivisione di foto e video illeciti, anche se ha causato la preoccupazione che la tecnologia possa essere utilizzata in modo improprio.

L'obiettivo, afferma Apple, è "proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale sugli abusi sessuali su minori (CSAM)." Tuttavia, il modo in cui Apple ha pianificato di farlo ha incontrato il rifiuto della privacy, con WhatsApp e altri che hanno definito il sistema "tecnologia di sorveglianza".

Parte della sfida è che, in effetti, Apple ha annunciato due sistemi contemporaneamente e i dettagli in alcuni casi si sono confusi. La sicurezza della comunicazione in Messaggi e il rilevamento CSAM in Foto di iCloud "non sono la stessa cosa e non utilizzano la stessa tecnologia", sottolinea Apple nel suo nuovo documento.

Per la funzione Messaggi, la scansione funziona sulle immagini inviate o ricevute nell'app Messaggi, solo su account per bambini configurati in In famiglia. L'analisi viene effettuata sul dispositivo, per motivi di privacy, e le immagini ritenute esplicite saranno sfocate e la visualizzazione dell'immagine sarà resa facoltativa. "Come ulteriore precauzione", aggiunge Apple, "ai bambini piccoli può anche essere detto che, per assicurarsi che siano al sicuro, i loro genitori riceveranno un messaggio se lo visualizzano".

I genitori o i tutori devono aderire al sistema di scansione e le notifiche ai genitori possono essere abilitate solo per gli account per bambini di età pari o inferiore a 12 anni. Se una foto viene segnalata, nessun dettaglio viene condiviso con le forze dell'ordine o altre agenzie; anche Apple non viene avvisata. "Nessuna comunicazione, valutazione dell'immagine, intervento o notifica è disponibile per Apple", insiste la società.

Per quanto riguarda il rilevamento CSAM in Foto di iCloud, ciò ha un impatto solo sugli utenti che hanno attivato Foto di iCloud. I dati sul dispositivo, e in particolare il sistema dei messaggi, non sono interessati. Cerca immagini CSAM potenzialmente illegali caricate su iCloud Photos, sebbene nessuna informazione oltre al fatto che sia stata effettuata una corrispondenza sia condivisa con Apple.

Le foto sul rullino fotografico dell'iPhone non vengono scansionate con il sistema, solo quelle caricate su iCloud Photos e le immagini di confronto CSAM non vengono archiviate nemmeno sull'iPhone. "Invece di immagini reali, Apple utilizza hash illeggibili memorizzati sul dispositivo", spiega l'azienda. "Questi hash sono stringhe di numeri che rappresentano immagini CSAM note, ma non è possibile leggere o convertire tali hash nelle immagini CSAM su cui si basano".

Una delle maggiori preoccupazioni, forse non sorprendentemente, è stata che questo sistema di scansione potrebbe essere l'inizio di un pendio scivoloso. Sebbene utilizzata inizialmente per le immagini CSAM, la stessa tecnologia potrebbe essere interessante per i governi autoritari, che potrebbero fare pressioni su Apple per aggiungere immagini non CSAM all'elenco di scansione.

"Apple rifiuterà tali richieste", insiste la società. “Abbiamo già affrontato richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarli in futuro".

Se questo impegno ti rassicura, probabilmente dipenderà da dove cadi nella scala generale del Big Tech Trust. Apple sottolinea che le segnalazioni CSAM non vengono segnalate automaticamente alle forze dell'ordine e che la revisione umana viene effettuata prima che qualsiasi cosa venga segnalata al National Center for Missing & Exploited Children (NCMEC). Allo stesso tempo, Apple non aggiunge hash di immagine CSAM, ma utilizza invece un set che è stato "acquisito e convalidato dalle organizzazioni per la sicurezza dei bambini".

ARTICOLI CORRELATI

I PIÙ POPOLARI