La diffusione di social network e intelligenza artificiale apre a nuovi scenari sul controllo dei cittadini, mettendo a repentaglio libertà e riservatezza.
Funzionamento del chat control
Il Regolamento per la prevenzione e la lotta contro l’abuso sessuale su minori, noto come Chat Control, è stato proposto l’11 maggio 2022 dalla Commissaria Europea per gli affari interni Ylva Johansson. Nelle intenzioni dichiarate il fine è quello di prevenire gli abusi sessuali online sui minori attraverso delle misure preventive. Il meccanismo al centro del regolamento “Chat Control” si basa su una tecnologia nota come “Client side scanning” (CSS), ovvero una scansione che avviene direttamente sul dispositivo dell’utente. Il processo si attiverebbe prima ancora che un messaggio, una foto o un video vengano inviati. La proposta costringerebbe i fornitori di servizi di messaggistica come WhatsApp e Telegram a implementare sistemi automatici per rilevare contenuti illegali, anche all’interno delle chat protette da crittografia end-to-end. Pertanto ogni volta che un cittadino europeo caricherà un contenuto per inviarlo tramite un’app di messaggistica, il sistema ne rileverà l’impronta digitale unica, chiamata “hash”. Quest’ultima poi verrebbe confrontata immediatamente con quelle contenute in un gigantesco database centralizzato, che raccoglie tutte le immagini e i video pedopornografici già noti. Se venisse riscontrata una corrispondenza, l’invio del file verrebbe bloccato e scatterebbe immediatamente una segnalazione per individuare il soggetto. La novità giuridica sarebbe enorme. non spetterebbe più alle forze dell’ordine, previa autorizzazione di un magistrato, decidere di ricorrere un software per indagini mirate, ma è il software stesso ad avvisare le autorità in modo automatizzato.

I rischi
Si tratta di un sistema estremamente invasivo che porta con sé dei grandi rischi per gli utenti. Il primo è quello dei cosiddetti “falsi positivi”. Per esempio un’immagine del tutto innocente potrebbe essere erroneamente interpretata dall’algoritmo e quindi scatenare un allarme ingiustificato. D’altra parte, un criminale potrebbe eludere il controllo semplicemente modificando pochi pixel di un’immagine nota, alterandone così l’hash e rendendola irriconoscibile al sistema. Il problema si aggrava per le immagini non ancora conosciute e non presenti nel database. L’identificazione di nuovo materiale richiederebbe tecniche di classificazione e intelligenza artificiale ancora più intrusive e, come ammette il testo della proposta, caratterizzate da alti tassi di errore.
Incompatibilità con il Diritto
Ancora una volta l’alibi della sicurezza sembra servire da grimaldello riproponendo la dicotomia tra libertà e sicurezza e nel dettaglio sarebbe il diritto alla riservatezza a venire meno. Per il professore di diritto internazionale Antonio Alì «La proposta di regolamento, anche se ispirata da buone intenzioni, istituisce un modello di sorveglianza difficilmente conciliabile con il principio di proporzionalità sancito dal diritto dell’Unione e dalla Carta dei Diritti fondamentali. Il giurista ricorda come la giurisprudenza consolidata della Corte di Giustizia UE e della Corte Europea dei Diritti dell’Uomo, con sentenze storiche come “Digital Rights Ireland” e “Big Brother Watch”, abbia già sancito un punto cruciale: le misure di monitoraggio generalizzate e non selettive, che non si concentrano su un sospetto ma si estendono a tappeto sull’intera popolazione, violano i diritti alla privacy e alla libertà di espressione se non sono accompagnate da limiti rigorosi e garanzie precise. «In questa prospettiva, una normativa di questo genere si espone a rischio di invalidazione». Il voto sul regolamento del Chat Control (CSAR), previsto dalla commissione europea per il 14 ottobre, è stato nuovamente rinviato. L’Unione Europea rimane profondamente divisa sulla proposta di introdurre la scansione di massa delle comunicazioni private per combattere la diffusione di materiale pedopornografico, con una nuova votazione ora ipotizzata verso la fine dell’anno. Il regolamento ha suscitato una fortissima opposizione da parte di esperti di cybersicurezza, attivisti per i diritti digitali e diversi governi, che lo considerano un pericoloso precedente per la sorveglianza di massa e una minaccia mortale per la privacy e la sicurezza garantite dalla crittografia, oltre a molti esperti di diritto. La votazione è stata soggetta di un reiterato rinvio a partire dal giugno 2024, segno che il tema crea forti divisioni a Bruxelles. La tutela dei minori è ovviamente sacrosanta, ma non deve diventare un alibi morale per assottigliare il diritto alla riservatezza, reso già meno solido dall’invasività via via crescente delle tecnologie digitali.
Intelligenza artificiale spiona
L’utilizzo di app di intelligenza artificiale è diventato rapidamente di pubblico dominio per i fini più disparati e quelle di gran lunga più utilizzate sono le chatbox in cui è possibile dialogale ricorrendo al linguaggio umano per iscritto come si farebbe con un essere umano con l’IA chiedendo così di adempiere compiti e richieste. Il dispositivo più noto è ChatGPT, il quale filtra le richieste allertando eventualmente le autorità. Negli Stati Uniti un fatto di cronaca ha dimostrato per la prima volta cosa più succedere in caso di allarme. Stando alla ricostruzione dell’ufficio dello sceriffo della Contea di Valusia in Florida, a far scattare la procedura di sicurezza è stata l’insolita richiesta di uno studente tredicenne. “Come uccidere il mio amico durante la lezione?” è la domanda notata da Gaggle, piattaforma per la sicurezza scolastica con la facoltà di segnalare i contenuti potenzialmente pericolosi, trasmettendo la segnalazione alle autorità competenti. La polizia ha così prelevato lo studente della Southwestern Middle School di Deland, provvedendo immediatamente all’arresto. Durante l’interrogatorio il ragazzo ha spiegato alle forze dell’ordine che si trattava solo di uno scherzo di cattivo gusto. “Un altro ‘scherzo’ che ha creato un’emergenza scolastica”, ha scritto l’ufficio dello sceriffo sui social, esortando i genitori “a parlare con i propri figli in modo che non commettano lo stesso errore”. Gaggle ha, di fatto, denunciato e ipotizzato un possibile omicidio. Il software monitora perennemente milioni di studenti e migliaia di distretti scolastici degli Stati Uniti. Il componente del Garante della Privacy Agostino Ghiglia ha prontamente dichiarato che in Italia il caso suddetto non può accadere perché “ChatGPT può segnalare alle autorità, ma solo in casi eccezionali e secondo procedure di sicurezza previste per legge e policy interne, molto diverse da un sistema di sorveglianza come Gaggle”. Ghiglia ci ha chiarito che OpenAI ha l’obbligo di segnalare alle autorità contenuti che configurano un rischio grave e immediato per la vita, l’incolumità delle persone e la sicurezza pubblica. La segnalazione avviene “non per idee, ma per pericoli reali”. Questo crea una situazione paradossale in cui sistemi progettati secondo standard americani diventano de facto strumenti di controllo delle comunicazioni europee, bypassando non solo le normative specifiche ma anche i principi costituzionali e i valori democratici dell’Unione Europea” ha spiegato Ghiglia. Una questione che potrebbe quindiaver ricadute sulla libertà di espressione. Per i critici la piattaforma avrebbe favorito uno “stato di sorveglianza permanente”. Con l’IA Act, la normativa europea sull’intelligenza artificiale, l’Ue dispone di leggi che mirano a promuovere lo sviluppo e la diffusione responsabili, con l’obbiettivo di tutelare l’essere umano. Ghiglia sottolinea il corto circuito: “Mentre Bruxelles si divide sul compromesso tra sicurezza e diritti fondamentali, le multinazionali private hanno già implementato il loro controllo totale”. L’Associated Press ha svolto un’analisi basata su dati ottenuti tramite una richiesta di accesso agli atti pubblici, evidenziando come il software abbia segnalato numerosi falsi allarmi. ChatGPT da parte sua dichiara di raccogliere dati per addestrare le reti neuronali, avendo quindi come motivo espresso soltanto il miglioramento del servizio. Molti si rivolgono ormai a ChatGPT per questioni di ogni tipo e non pochi, soprattutto tra i più giovani, usano il dispositivo come consigliere e psicologo: bisogna fare attenzione perché la possibilità che i contenuti possano essere consultati in ultima istanza da una revisione umana non è da escludere. Alla luce di quanto visto non sembra credibile fidarsi del fatto che non possa servire per altri scopi come appunto la sorveglianza ma anche la profilazione per fini commerciali. Esistono comunque delle opzioni per cui si potrebbe evitare di far raccogliere i dati relativi all’utilizzo della piattaforma.
I rischi di una deriva
L’Unione Europea ha già espresso un pericoloso interesse per limitare la libertà d’espressione su internet con il Digital Services Act e a possibilità che questa misura possa costituire un piede di porco per permettere controlli via via più pressanti è concreta. Se la possibilità di sanzionare persone per crimini supposti non ancora commessi in veri e propri atti di giustizia preventiva che è comunque già una realtà, è facile immaginare molteplici usi invasivi. Per esempio potrebbero essere monitorate opinioni politiche sanzionando quelle sgradite al governo e anche reprimere l’organizzazione di manifestazioni e proteste bloccandole così sul nascere. L’obbiettivo di alcune èlites occidentali è quello di implementare un controllo sociale utilizzando come esca la comodità delle tecnologie digitali, come dimostrano la spinta verso l’eliminazione del contante e l’introduzione dell’ID Wallet. L’arresto subito dal fondatore di Telegram sostanzialmente per non aver cooperato con le forze dell’ordine cedendo dati privati e nell’assenza di moderazione nelle chat è eloquente. Il modello a cui si guarda è il sistema di credito sociale cinese con cui il governo del colosso asiatico traccia l’affidabilità di cittadini e corporazioni, riducendo di fatto i diritti a concessioni revocabili. L’intelligenza artificiale e le nuove tecnologie digitali aprono a nuove possibilità ma ha anche dei lati oscuri e quello per cui possano diventare uno strumento di sorveglianza e repressione su larga scala non è certo da sottovalutare.
Riferimenti
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10171128
https://www.hdblog.it/applicazioni/articoli/n634956/chatgpt-13enne-arrestato-uccidere-amico/
https://www.hdblog.it/applicazioni/articoli/n634956/chatgpt-13enne-arrestato-uccidere-amico/
