Perché WhatsApp ha detto no ad Apple

Una nuova funzione dei sistemi operativi di Apple, dal nobilissimo fine, sta suscitando scalpore per i metodi annunciati: il CEO di WhatsApp dice no alla "CSAM detection"

Da alcuni giorni nel mondo tech non si parla d’altro che del recente annuncio di Apple, che con iOS 15, iPadOS 15, watchOS 8 e macOS Monterey lancerà la sua lotta personale contro il “Child Sexual Abuse Material" (CSAM) cioè, in estrema sintesi, le foto e i video pedopornografici. Apple ha infatti dichiarato che introdurrà nuove funzionalità per limitare lo scambio di materiale di questo tipo tramite gli iPhone e gli iPad e nessuno è contrario a tutto ciò. E’ il metodo per farlo annunciato da Apple che sta ricevendo molte critiche, anche da Will Cathcart, il CEO di WhatsApp.

La questione è molto complessa, perché Apple ha intenzione di introdurre un processo a due step per analizzare le foto e i video potenzialmente illegali. Il primo step è totalmente gestito dall’intelligenza artificiale, il secondo prevede l’intervento di un team di moderazione formato da persone in carne ed ossa. Si potrebbe pensare che chi non scarica o condivide foto e video che ritraggono minori in atteggiamenti sessuali (o peggio) non abbia nulla da temere con il nuovo sistema di verifica che verrà implementato da Apple e, almeno in teoria, è proprio così. In pratica, però, le cose potrebbero andare in modo molto diverso e le implicazioni per la privacy potrebbero essere molto forti. Per capire perché è necessario prima vedere come funzionerà il nuovo controllo di Apple contro il CSAM, cioè la cosiddetta “CSAM detection“.

Apple CSAM detection: come funziona

Come già accennato, il riconoscimento del “Child Sexual Abuse Material" avverrà in due fasi. La prima fase si svolge totalmente dentro il dispositivo: l’iPhone o l’iPad confrontano le foto e i video presenti in memoria (o in fase di caricamento sul proprio account iCloud) con quelli presenti su un database gestito dal NCMEC, il National Center for Missing and Exploited Children americano.

Questo database contiene milioni di file illegali, precedentemente scoperti sui dispositivi dei pedofili e su numerosi forum e siti da essi frequentati. Un algoritmo di intelligenza artificiale confronta, direttamente sul dispositivo, tutte le foto e tutti i video in cerca di somiglianze con il materiale contenuto nel database (che viene costantemente aggiornato).

Se viene trovato del materiale troppo simile a quello del database, allora la foto o il video incriminati vengono inviati in un report al team di revisione di Apple. A questo punto, come spiegano a Cupertino, “Apple rivede manualmente ogni report per confermare se c’è la corrispondenza, per disabilitare l’account dell’utente e per fare una segnalazione al NCMEC“.

Il problema di questo sistema è tutto in due parole: falsi positivi. Gli algoritmi di intelligenza artificiale, infatti, sono tutt’altro che perfetti e a volte sbagliano. Alcuni di essi sbagliano spesso. In caso di errore, quindi, le foto e i video personali dell’utente verrebbero inviate ad Apple e verrebbero viste da almeno una persona per il giudizio finale anche se non hanno proprio nulla di illegale.

E’ chiaro che è altamente probabile che tali foto o video avrebbero almeno un minore come protagonista. Ciò vuol dire che le foto e i video dei figli o dei nipoti o di qualunque altro bambino del nucleo familiare dell’utente potrebbero essere segnalate ad Apple e viste da un addetto al controllo. Foto che, magari, l’utente voleva tenere private e non aveva la minima intenzione di scambiare con nessuno né in pubblico né in privato. Oppure voleva condividere solo con un ristretto numero di amici e parenti, o anche con uno solo di loro.

WhatsApp dice no

Alla luce di tutto ciò è abbastanza chiaro il perché il CEO di WhatsApp sia intervenuto per dire la sua su questo sistema: se c’è una app con la quale si condividono le foto dei propri bambini, essa di solito è proprio WhatsApp. Moltissimi utenti Apple, infatti, si sono chiesti se le foto e i video scambiati tramite WhatsApp saranno sottoposti a questo trattamento e il CEO Will Cathcart non ha potuto far altro che rispondere.

Ho letto le informazioni pubblicate ieri da Apple e sono preoccupato – ha scritto Catchart su Twitter – Penso che questo sia l’approccio sbagliato e una battuta d’arresto per la privacy delle persone in tutto il mondo. La gente ha chiesto se adotteremo questo sistema per WhatsApp. La risposta è no“.