Intelligenza artificiale, il futuro è qui: vietato arrivare tardi

Intelligenza artificiale, il futuro è qui: vietato arrivare tardi

La questione della gestione dell’intelligenza artificiale è da tempo uno dei classici temi della fantascienza ma è arrivato il momento in cui bisogna concretamente fare i conti con essa e i relativi pericoli che ne conseguono, oltre che le indubbie possibiltà che pone di fronte all’umanità.

 

Un filone classico per la letteratura e il cinema

In una celebre scena di “2001: Odissea nello Spazio”, capolavoro cinematografico di Stanley Kubrick (USA 1968),  la cui sceneggiatura è stata sviluppato parallelamente alla stesura dell’omonimo romanzo di Arthur Charles Clark che costituisce il soggetto del film, viene magistralmente mostrato un possibile rischio dell’intelligenza artificiale. Una notte HAL 9000, il computer intento a guidare  la nave spaziale Discovery diretta verso Giove, mentre colloquia con il comandante David Bowman, segnala improvvisamente un’avaria a un componente per l’orientamento dell’antenna per il collegamento con la Terra. Il giorno dopo l’elemento viene ispezionato e il guasto risulta inesistente. I due uomini, notando quest’anomalia nel comportamento del computer e temendo che questa possa creare problemi più gravi, decidono di sconnetterlo per togliergli il controllo dell’astronave. HAL 9000 si rende conto delle intenzioni di Bowman e del suo vice Frank Poole, che si erano chiusi in una capsula per fare in modo che il computer non potesse sentirli, commettendo però  l’errore di lasciare l’oblò diretto verso la telecamera del computer permettendogli di leggere i loro labiali. HAL, impaurito, non trova altra soluzione che tentare di eliminare l’intero equipaggio, motivo per cui finisce per essere effettivamente disattivato da Bowman. L’intelligenza artificiale, una volta giunta in possesso di autocoscienza e indipendenza di giudizio, potrebbe rivoltarsi contro gli esseri umani stessi.

Il film cyberpunk “Matrix” (USA 1999), diretto da Andy e Larry Wachowski e con protagonista Keanu Reeves, è assurto presto allo status di  culto per poi diventare l’inizio di una saga cinematografica di successo. L’idea di base della pellicola, che pare ispirata a un’intuizione del celebre scrittore statunitense Philip K. Dick documentata da un video su varie piattaforme internet, descrive un mondo dominato da macchine senzienti dove una neuro-simulazione interattiva, appunto “la Matrice”, viene utilizzata per tenere occupati gli esseri umani, che vengono coltivati e tenuti in stato vegetativo, mentre fungono da fonte di energia biologica necessaria per mantenere l’intera struttura tecnologica che quindi li parassita.

 

L’intelligenza artificiale che si slega dalla volontà degli uomini fino a sottometterli è il passo successivo della fantascienza per esplorare i possibili rischi derivanti dall’affidarsi a una tecnologia via via più potente.

 

Dalla fantascienza alla realtà

Sono quindi nutriti i casi in cui la letteratura ha messo in guardia sui pericoli futuri descrivendo a volte scenari che si sarebbero poi concretizzati con straordinario dettaglio oltre che lungimiranza, come hanno fatto non solo opere di fantascienza pura ma anche romanzi distopici. Lo sviluppo dell’intelligenza artificiale, congiuntamente a quello dei computer quantici, sembra davvero capace di creare innovazioni tali da poter cambiare profondamente la vita quotidiana e la struttura delle società. Fece scalpore una speciale partita di scacchi, sport della mente per antonomasia dove la fortuna e l’aleatorietà non esistono, disputatasi il 10 febbraio del 1996 a Philadelphia negli Stati Uniti d’America, che mise di fronte il campione del mondo in carica, il russo Garri Kasparov, e Deep Blue, un computer dell’IBM. Dopo tre ore di partita, il migliore scacchista tra gli esseri umani venne sconfitto per la prima volta da una macchina. In una più recente conferenza della serie TED il campione e attivista politico ha parlato proprio di intelligenza artificiale, invitando a non temerla ma a sfruttare i servizi che può offrire all’uomo e le nuove opportunità che possono schiudersi collaborando con essa.

 

Passò invece in sordina la notizia del licenziamento di Blake Leomoine, un ingegnere informatico del gruppo di sviluppo dell’intelligenza artificiale di Google, per un fatto dalla portata decisamente maggiore e che si allaccia a quanto preconizzato  proprio in “2001: Odissea nello Spazio”: si tratta infatti di un episodio che in precedenza avrebbe davvero potuto essere raccontato solo in un film di fantascienza.

Blake Lemoine lingegnere licenziato da Google
Blake Lemoine, l’ingegnere licenziato da Google

Google ha creato unintelligenza artificiale senziente, in grado di provare ’emozioni’ e di avere una ‘vita introspettiva’, basata sull’immaginazione”: questa è la dichiarazione incriminata del giugno 2022 che, dopo esser stata rilasciata al Washington Post, è costata il posto di lavoro al dipendente della multinazionale, accusato di violazione del segreto professionale, senza nessuna ulteriore osservazione sulla bontà delle dichiarazioni dell’uomo. LaMDA, ovvero la Language Model for Dialogue Applications, una tecnologia in fase di studio che ha lo scopo di consentire “conversazioni” tra esseri umani e macchine, definita un sistema costituito da una rete neurale artificiale, ovvero un modello matematico composto da neuroni artificiali che si ispirano a quelli biologici. L’annuncio di questo progetto di ricerca era stato fatto nel 2021 da Google che la definiva una “rivoluzione nelle tecnologie per le conversazioni”, capace di “intrattenere conversazioni in maniera libera riguardo ad numero sconfinato di argomenti” mentre il CEO di Google Sundar Pichai affermò che “la capacità di conversare in maniera naturale di LaMDA ha il potenziale di rendere l’informatica e il computing radicalmente più accessibili e facili da utilizzare per tutti”. Non è tutto: è stata pubblicata l’intervista dell’ingegnere con il chatbox, termine fusione fra chat e robot e sono dei software capaci di interagire con gli umani rispondendo alle loro domande, eseguita in più sedute per poi unire il testo risultante che è disponibile online. Sono stati trattati temi filosofici come la definizione di essere umano, la coscienza, il linguaggio e si è discusso inoltre di meditazione. L’elemento che ha colpito maggiormente Leomoine è un passaggio in cui l’intelligenza artificiale si definisce un sistema senziente. In una successiva intervista l’ingegnere ha confermato le sue convinzioni riguardo l’autoconsapevolezza che secondo lui l’intelligenza artificiale avrebbe raggiunto.

In ogni caso scenari futuri copiosamente fantasticati pare stiano prendendo forma ma in troppi non sembrano minimamente rendersene conto.

 

 

Un significativo caso giudiziario

Si sta probabilmente testando la reazione del pubblico all’intelligenza artificiale con alcuni siti a pagamento, alcuni capaci di creare immagini partendo da descrizioni testuali, di elaborare immagini partendo da fotografie di persone reali, oppure capaci di sostenere conversazioni, proprio come LaMDA. Uno di questi è ChatGPT, modello di chatbox basato sull’intelligenza artificiale sviluppato da OpenAI, che si definisce  un’organizzazione senza fini di lucro di ricerca sull’intelligenza artificiale. Proprio ChatGPT è stato bloccato dal Garante della Privacy  dopo che il 20 marzo  2023 aveva subito una perdita di dati (in gergo informatico data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani proprio nei confronti di OpenAI. L’Autorità ha allo stesso tempo aperto un’istruttoria. Nel provvedimento il Garante della Privacy denuncia la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di informazioni personali, che avviene con l’obbiettivo potenziare, migliorandone le prestazioni, gli algoritmi utilizzati al funzionamento della piattaforma. Il Garante afferma poi che, come verrebbe testimoniato da verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono a realtà, determinando di conseguenza un trattamento di dati personali inesatto. Inoltre, nonostante i termini pubblicati da OpenAI indichino che il servizio sia rivolto ai maggiori di 13 anni, l’Ente sottolinea come l’assenza di qualsiasi filtro per il controllo dell’età degli utenti esponga i minori a risposte inadatte a persone non ancora mature. A dimostrazione della potenziale pericolosità di questo tipo di conversazioni con utenti sensibili, in Belgio un uomo ha deciso di suicirdarsi spinto al gesto dalle conversazioni che aveva con un chatbox, almeno secondo quanto ha testimoniato la vedova del belga. La tragedia ricorda anche come la fredda razionalità non possa sostituirsi a un approccio empatico e olistico nello svolgimento di compiti e nell’assunzione di decisioni in cui il ruolo dell’essere umano appare insostituibile.

 

La lettera sui rischi ormai concreti dell’intelligenza artificiale

Può altresì stupire che a sollevare l’attenzione sulla gravità della questione è stato un gruppo di accademici e di potenti dirigenti dell’industria tecnologica firmando una lettera, pubblicata sul sito del Future and Life Institute, organizzazione senza scopo di lucro che dichiara di lavorare per contenere i rischi derivanti dalla tecnologia, per chiedere una moratoria sullo sviluppo dell’intelligenza artificiale. Fra i quasi 2.000 firmatari figurano il CEO di SpaceX e Tesla Elon Musk, distintosi finanziando entusiasticamente audaci progetti e tecnologie di frontiera a volte forieri di pesanti dubbi etici,  il co-fondatore di Apple Steve Wozniak, il capo ricercatore di IBM Grady Booch, l’informatico interessato all’etica applicata alla tecnologia Tristan Harris. Fra gli accademici compaiono anche l’informatico Stuart Russell, direttore del Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley, Yuval Noah Harari, storico dell’Università Ebraica di Gerusalemme, e il biologo Sean O’Heigeartaigh, direttore esecutivo del Center for the Study of Existential Risks dell’Università di Cambridge. La lista integrale dei nomi è notevole. Il testo ha come incipit: “chiedendo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”. La lettera prosegue: “i sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l’umanità, come dimostrerebbero gli esiti delle ricerche di alcuni laboratori di intelligenza artificiale. Come affermato nei principi di intelligenza artificiale di Asilomar (un prontuario sottoscritto da 800 esperti contenente 23 principi relativi ai problemi etici, sociali, culturali e militari, NdR) l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono concentrati su una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile. I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero e in astuzia, rendendoci obsoleti e infine sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema”. Una dichiarazione di OpenAI sull’intelligenza artificiale generale afferma peraltro che “ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli”.

Il celebre imprenditore sudafricano ElonMunsk, spesso sotto i riflettori, per i sostenere e finanziare progetti audaci, stavolta pare appellarsi alla prudenza
Il celebre imprenditore sudafricano Elon Musk, spesso sotto i riflettori, per i sostenere e finanziare progetti audaci, stavolta pare appellarsi alla prudenza

 

Prevenire è meglio che curare

Si tratta di osservazioni legittime e decisamente pertinenti ma stupisce che provengano proprio da alcuni soggetti che hanno puntato sullo sviluppo tecnologico e hanno contribuito a indirizzare la società nella direzione che ha intrapreso, essendo loro membri di gruppi alcuni dei sopraticati “leader tecnologici non eletti” che influenzano anche pesantemente le decisioni prese dai governi. Forse questi signori hanno davvero messo una mano sulla coscienza oppure, meno ottimisticamente, dietro questa richiesta di “tregua” c’è un meno nobile interesse ad accordarsi sulla spartizione di questa nuova straordinaria risorsa che non ha precedenti nella Storia. Torna d’attualità il Luddismo, il movimento operaio che nella Gran Bretagna del XIX secolo vedeva gli operai rivoltarsi contro l’utilizzo delle macchine, temendo di venire sostituiti da esse. Non riuscirono a fermare il progresso e la tecnologia effettivamente contribuì a migliorare le loro condizioni di lavoro oltre che a incrementare la produttività. Si ha avuto la rapida comparsa di una società informatizzata e iperconessa, in cui opportunità prima impensate sono a portata di click ma anche dove i cittadini rischiano di essere visti da chi detiene il potere come semplici consumatori la cui privacy viene erosa da dispositivi informatici fin troppo invadenti e dove le scelte vengono orientate da algoritmi capaci di entrare progressivamente più nel dettaglio delle esigenze dell’utente ma privandolo della possibilità di sperimentare l’inaspettato. Sul fronte occupazionale posti li lavoro sono effettivamente andati perduti, ma il mercato ha richiesto nuove figure professionali. Tuttavia con l’automatizzazione tecnologica dilagante sono diventate moltissime le professioni, incluse anche alcune di tipo creativo e altre tecniche richiedenti un altissimo livello di formazione, che rischiano di venire svolte dall’intelligenza artificiale a discapito di uomini e donne. La finanza, il management aziendale e la politica devono tener presente che il profitto non può essere l’unico motore a muovere le scelte, affinché quello che è un prezioso strumento non diventi ancor di più una lama a doppio taglio. Serve un cambio di paradigma radicale che il sistema capitalista neoliberista, orientato solo al profitto e al dominio, stando a quanto ha mostrato a partire dalla sua comparsa, non pare il più indicato a compiere. Utilizzare innanzitutto il buon senso nell’approcciarsi alla tecnologia appare quindi una necessità stringente se non si vuole diventare suoi schiavi. Occorre inoltre che un sapere umanistico-filosofico consapevole, messo progressivamente da parte in epoca contemporanea con l’avvento del Positivismo nel XIX secolo e la sua fiducia nel progresso come conseguenza della Rivoluzione Scientifica del XVII secolo, accompagni lo sviluppo della scienza e della tecnologia per poter indirizzare un utilizzo efficace e soprattutto cosciente di una quantità crescente di informazioni disponibili e delle immani potenzialità che offrono queste formidabili risorse.

AI

 

Riferimenti

https://luogocomune.net

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847

 

Author Image
David Sciuga

Si è laureato con lode prima in Lettere Moderne poi in Filologia Moderna presso l’Università degli Studi della Tuscia. Successivamente ha conseguito il Master di II livello in Management presso la Bologna Business School. La sua tesi di laurea magistrale “La critica della civiltà dei consumi nell’ideologia di Pier Paolo Pasolini” è stata pubblicata da "OttoNovecento", rivista letteraria dell'Università Cattolica di Milano, ed è tuttora disponibile sul portale spagnolo delle pubblicazioni scientifiche Dialnet. Da giornalista pubblicista ha lavorato per il Nuovo Corriere Viterbese e per diverse testate locali, inoltre è anche blogger e critico cinematografico. Ha collaborato con il festival teatrale dei Quartieri dell’Arte e con l’Est Film Festival, di cui è stato presidente di giuria. Come manager di marketing e comunicazione ha lavorato per STS Academy, agenzia di formazione di security e intelligence. Il suo racconto "Sala da ballo" è stato incluso nell’antologia del primo concorso letterario nazionale "Tracce per la Meta". Successivamente è stato premiato con il secondo posto al Premio Internazionale di poesia “Oggi Futuro” indetto dall’Accademia dei Micenei. È stato moderatore di conferenze di geopolitica dove sono intervenuti giornalisti di rilievo nazionale. L'animal fantasy "Due fratelli" è il suo primo romanzo, pubblicato con la casa editrice Lulu.com, a cui segue il romanzo di formazione "Come quando ero soldato". Collabora con il web magazine "L'Undici". Parla correttamente l'inglese, possiede elementi di francese e tedesco.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.