“Si tratta di controllo, non di bambini”: Eric Weinstein critica la nuova mossa “anti-pedofilia” di Apple

“Si tratta di controllo, non di bambini”: Eric Weinstein critica la nuova mossa “anti-pedofilia” di Apple

La scorsa settimana, Apple ha annunciato che avrebbe iniziato ad analizzare le immagini sui suoi dispositivi prima che vengano caricate sul cloud al fine di identificare la pornografia infantile e segnalarla alle autorità, facendo inorridire i difensori della privacy.

Apple ha difeso la decisione, sostenendo che esiste una “possibilità di 1 su 1 trilione di falsi positivi”.

“Invece di scansionare le immagini nel cloud, il sistema esegue la corrispondenza sul dispositivo utilizzando un database di hash di immagini CSAM noti fornito da NCMEC (National Center for Missing and Exploited Children) e altre organizzazioni per la sicurezza dei bambini. Apple trasforma ulteriormente questo database in un file illeggibile un set di hash archiviati in modo sicuro sui dispositivi degli utenti”, ha affermato la società in un annuncio.

I sostenitori della privacy hanno sottolineato l’evidente pericolo di consentire alle grandi tecnologie di infiltrarsi nelle nostre vite personali con il pretesto di combattere [il male], magari poi Apple dara’ la caccia ai dissidenti poltici, segnalando chi possiede quali armi, o le persone che intraprendono percorsi “sospetti” che deviano dal loro schema normale. Come osserva la Electronic Frontier Foundation:

Lo abbiamo detto prima e lo ripetiamo ora: è impossibile costruire un sistema di scansione che possa essere utilizzato solo per immagini sessualmente esplicite di bambini inviate o ricevute. Di conseguenza, anche uno sforzo ben intenzionato per costruire un tale sistema infrangerà le promesse chiave della crittografia stessa del messenger e aprirà la porta ad abusi più ampi.

Tutto ciò che servirebbe per ampliare la stretta backdoor che Apple sta costruendo è un’espansione dei parametri di apprendimento automatico per cercare ulteriori tipi di contenuto o una modifica dei flag di configurazione da scansionare, non solo per i bambini, ma per gli account di chiunque. Non si tratta di un pericolo remoto; questo è un sistema costruito apposta che aspetta solo che la pressione esterna faccia il minimo cambiamento. -EFF

Sono ipocriti comunque

Eric Weinstein, critica Tim Cook di Apple per voler scansionare le nostre foto private alla ricerca di pornografia infantile, ignorando completamente il traffico sessuale di bambini di alto livello di Jeffrey Epstein e i legami con l’intelligence.

Critico nei confronti di Apple è anche il capo di WhatsApp Will Cathcart, che afferma di essere “preoccupato” per l’annuncio di Apple e che si tratta di “una battuta d’arresto per la privacy delle persone in tutto il mondo”.

Altro tramite l’app Threadreader:

Il materiale pedopornografico e gli abusatori che lo trafficano sono ripugnanti, e tutti vogliono vedere questi abusatori fermati e messi dietro le sbarre.
Abbiamo lavorato duramente per vietare e segnalare le persone che effettuano questi traffici con misure appropriate, ad esempio semplificando la segnalazione da parte delle persone quando il materiale viene condiviso. Abbiamo segnalato più di 400.000 casi a NCMEC l’anno scorso da @WhatsApp, il tutto senza violare la crittografia.

Apple ha da tempo bisogno di fare di più per combattere CSAM, ma l’approccio che stanno adottando introduce qualcosa di molto preoccupante nel mondo.
Invece di concentrarsi sul rendere più semplice per le persone segnalare i contenuti condivisi con loro, Apple ha creato un software in grado di scansionare tutte le foto private sul telefono, anche le foto che non hai condiviso con nessuno. Questa non è privacy.

Possediamo personal computer da decenni e non c’è mai stato un mandato per scansionare il contenuto privato di tutti i desktop, laptop o telefoni a livello globale alla ricerca di contenuti illegali. Non è così che funziona la tecnologia costruita nei paesi liberi.

Questo è un sistema di sorveglianza costruito e gestito da Apple che potrebbe essere facilmente utilizzato per scansionare contenuti privati ​​alla ricerca di qualsiasi cosa loro o un governo decidano di voler controllare. I paesi in cui vengono venduti gli iPhone avranno definizioni diverse su ciò che è accettabile.

Questo sistema sarà utilizzato in Cina? Quali contenuti considereranno illegali lì e come lo sapremo? Come gestiranno le richieste dei governi di tutto il mondo per aggiungere altri tipi di contenuti all’elenco per la scansione?

Questo software di scansione in esecuzione sul telefono può essere a prova di errore? I ricercatori non sono stati autorizzati a scoprirlo. Perchè no? Come sapremo quanto spesso gli errori violano la privacy delle persone?
Cosa accadrà quando le società di spyware troveranno un modo per sfruttare questo software? I rapporti recenti hanno mostrato il costo delle vulnerabilità nel software iOS così com’è. Cosa succede se qualcuno scopre come sfruttare questo nuovo sistema?

Ci sono così tanti problemi con questo approccio, ed è preoccupante vederli agire senza coinvolgere esperti che hanno a lungo documentato le loro preoccupazioni tecniche e più ampie al riguardo.
Apple una volta ha dichiarato: “Crediamo che sarebbe nel migliore interesse di tutti fare un passo indietro e considerare le implicazioni…”

…”sarebbe sbagliato per il governo costringerci a costruire una backdoor nei nostri prodotti. E alla fine, temiamo che questa richiesta possa minare le stesse libertà che il nostro governo dovrebbe proteggere”. Quelle parole erano sagge allora e vale la pena ascoltarle qui ora.

Fonte

e8psjgpuyae60w2

Neovitruvian

La censura dei social media e ` sempre piu` pesante, aiutami a sopravvivere con una donazione

2,00 €

Fai clic qui per acquistare.

veronulla

WP2Social Auto Publish Powered By : XYZScripts.com