Apple è alla ricerca di pedofili


In pochi hanno il coraggio di prendere una decisione significativa – scomoda e pioneristica – rischiando anche di perdere pubblico e consenso. Tale scelta diviene ancor più difficile quando a prenderla è un leader indiscusso della tecnologia come Apple.

Gli amanti della “mela” sono in attesa di installare il nuovo sistema operativo iOS15 (iOS15, iPadOS15, watchOS8 e macOS Monterey) che dovrebbe arrivare in autunno, assieme alle novità di prodotti iPhone e Mac. Di speciale iOS15 avrà tante caratteristiche innovative in termini di efficienza, utilità e – come sempre – anche di sicurezza.

Ma, tra i tanti features uno in particolare sta destando molto scalpore in termini di “privacy”. La famiglia degli OS15 prevedrà (non si sa se con la prima release o i successivi aggiornamenti) un’impostazione che scansionerà le immagini contenute nei devices e nel cloud degli utenti Apple alla ricerca di materiale pedopornografico.

Questa stretta in termini di privacy ha sollevato le proteste di alcune associazioni e gruppi che si battono per la tutela dei diritti nell’ambito digitale, sostenendo la possibile violazione di diritti alla riservatezza. L’azienda di Cupertino, però, ha precisato che l’analisi e la trasmissione dei file avverranno in modalità cifrata.

Questo nuovo sistema – in pratica – muterà le immagini in simboli che verranno incrociati con quelli presenti nei database del National Center for Missing and Exploited Children, un’associazione USA che combatte la diffusione di materiale pedopornografico ed abusi su minori.

La Apple riporta anche che il sistema sarà coadiuvato da un altro software che verificherà i file cifrati portando la possibilità di errore a 1 su un trilione.

Nel caso in cui il sistema dovesse rilevare una corrispondenza (ovvero del materiale pedopornografico) verrà allertato un gruppo di esperti, i quali svolgeranno un controllo manuale di verifica prima di chiudere l’account e allertare le autorità. Su questo punto ancora non è chiaro come verranno regolati e coordinati i rapporti tra Apple e le forze di polizia dei singoli paesi.

Inoltre, si pensa anche alla release di un ulteriore software per il controllo da parte dei genitori che allerterà questi ultimi nel momento in cui l’iPhone dei figli dovesse inviare (e forse anche ricevere) immagini di nudo.

Dopo aver letto tale novità, in molti si staranno chiedendo se davvero ciò può comportare dei problemi di privacy.

Certo, se si analizza questa iniziativa in modo del tutto oggettivo e decontestualizzato è evidente una diminuzione della riservatezza degli utenti, ma, come ha fatto ben intendere la stessa Apple, in ballo c’è molto di più della semplice privacy, ed è assurdo avanzare pretese “garantiste” a scapito di minori innocenti, vittime di chi commette uno fra i reati più ignobili e distruttivi per il genere umano.

Apple non è nuova alle innovazioni e questa scelta sicuramente le farà perdere un po’ di audience favorendo la concorrenza, ma le consentirà anche di distinguersi ancor di più in termini di sicurezza (nonostante sia già leader nella cyber-security con i dispositivi che produce) e diventare una realtà trainante non solo nei mercati finanziari e nel business tecnologico, ma persino nel welfare sociale mondiale.

Conversazioni

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


*