Intelligenza artificiale e rischi connessi

Intelligenza artificiale e rischi connessi

Oggi l’IA (AI in inglese) è una tecnologia parecchio usata ma, come spesso accade i rischi connessi, che potrebbero portare alle situazioni descritte da Huxley in “A brave new world”, non sono ancora correttamente percepiti. 


Da “2001 Odissea nello spazio” a “A Brave new world” e “1984”

Già agli inizi degli anni ‘70, quando un minicomputer con una memoria di 32 kilobytes costava quanto una Rolls Royce e i cicli macchina si misuravano in millisecondi, si lavorava all’intelligenza artificiale, ma con progressi modesti rispetto agli altri settori. Nell’ottobre 2015 un evento eccezionale, forse non noto quanto merita, attestò il grande salto di qualità di questa disciplina.

Il programma AlphaGo(1) riuscì a battere uno dei più forti giocatori professionisti di Go. Per decenni programmatori di tutto il mondo si erano impegnati in tentativi vani di vincere il premio milionario collegato a questa sfida, faticando a raggiungere il livello di un buon dilettante. E questo quando già esistevano già da anni programmi in grado di battere inesorabilmente il campione mondiale di scacchi.

 

Intelligenza artificiale e rischi connessi

 

Il buono e il cattivo delle tecnologie

Oggi l’IA (AI in inglese) nelle sue varie accezioni è diventato un argomento comune, ma anche una tecnologia parecchio usata ed incentivata dai governi. Inoltre, grazie alle possibilità offerte dal cloud computing, molte sue funzioni sono rese accessibili a prezzi abbordabili.

L’attualità dell’argomento ha aperto il dibattito tra chi la considera una tecnologia “buona” ne vede solo vantaggi, come quello di viaggiare senza la fatica di tenere il volante e chi invece la considera “cattiva” magari influenzato dal ricordi di HAL, il computer impazzito di “2001 Odissea nello spazio”.

In realtà le tecnologie in sé non sono né buone né cattive, mentre lo può essere l’uso che se ne fa.

Per esempio l’auto elettrica è considerata “buona” dalla massa perché non inquina. In realtà, considerando il ciclo completo di vita, dalla produzione allo smaltimento, comprendendo l’estrazione delle terre rare per le batterie, inquina più delle auto a benzina; se poi pensiamo a come viene prodotta l’elettricità, in paesi come la Germania possiamo affermare che le auto elettriche vanno prevalentemente a carbone.

 

I rischi connessi all’IA

L’importante è utilizzare le tecnologie quando danno veri vantaggi e non secondo la moda del momento od il grado di innovazione. Inoltre è necessario valutare attentamente i rischi connessi, sia in sede di progettazione che di esercizio.

Per esempio, alla luce del progresso attuale il rischio del computer impazzito sembra abbastanza lontano, non mancano però rischi di altro tipo, non meno gravi se sottovalutati.

Un articolo di IEEE del 3 gennaio elenca 6 punti da prendere in considerazione.

1. La facilità di produrre tramite IA documenti, foto, video e conversazioni praticamente indistinguibili da quelli reali, al punto che talvolta non circolano solo su internet.

Questo può portare da una parte a prendere decisioni basate su dati falsi, dall’altra a perdere ogni fiducia nell’informazione, anche in quella vera.

2. La corsa per arrivare primi, specialmente nel settore della sicurezza nazionale.

Vincent Boulanin(2) avverte: possono verificarsi eventi catastrofici “quando le grandi potenze prendono scorciatoie per avere il vantaggio di arrivare per prime. Se un paese privilegia la velocità rispetto alla sicurezza, ai collaudi e al controllo umano, questa sarà una pericolosa corsa verso il fondo.”

I rischi sono di due tipi: quello che la fretta porti a lasciare inavvertitamente punti attaccabili da hackers, il secondo, anche peggiore, delegare delicate decisioni di comando a sistemi di IA per avere risposte rapide ed automatiche ad eventi critici. Abbiamo già visto Flash Crash(3) da mille miliardi di dollari avvenuto il 6 maggio 2010 della borsa di New York, ma in fondo si trattava solo di soldi.

Molto peggio sarebbe potuto accadere il 26 settembre del 1983 quando il mondo rischiò la terza guerra in seguito ad un allarme missilistico che poi si rivelò completamente errato. Ad evitare la catastrofe fu il tenente colonnello Petróv che decise di ignorare l’allarme contravvenendo al protocollo.

Il fatto fu tenuto nascosto per anni ed il colonnello Petróv prima fu punito, poi premiato, ma non con l’enfasi che meritava.

Se la responsabilità fosse stata affidata ad un algoritmo anziché ad un uomo intelligente e coraggioso cosa sarebbe successo? O meglio cosa potrà succedere in futuro?

3. La fine della privacy e del libero arbitrio.

Il nostro comportamento digitale, che sta divenendo la parte preponderante della nostra vita, viene tracciato ed archiviato. A questa mole di dati non solo hanno accesso i governi, ma soprattutto aziende private. Se aggiungiamo a questo le telecamere con il riconoscimento facciale, il tracciamento dei nostri spostamenti, la biometria, e l’analisi predittiva dell’intelligenza artificiale possiamo dire di essere esposti ad un’intrusione nelle nostre vite senza precedenti e potenzialmente pericolosa.

Ormai si sta realizzando non solo una sorveglianza più capillare di quella del “Grande Fratello”, protagonista invisibile di “1984” di George Orwell, ma addirittura il controllo delle nostre vite accettato con gioia, come aveva predetto Aldous Huxley in “Brave New World” nel 1931.

Inoltre le fonti principali di informazione oggi non sono più i giornali o la televisione, ma la rete.

Su questa è già in atto una censura (in gergo politically correct debunking o fact checking), operata da governi dispotici, ma ancora di più da pochi operatori monopolistici. Vediamo i motori di ricerca fare sparire o togliere risalto a pagine non gradite, o magari contenenti una parola considerata non corretta. Fortunatamente su internet è difficile eliminare tutte le tracce, ma sicuramente ci stanno lavorando.

 

4. Il rischio di rinchiuderci in una “Skinner Box” virtuale.

La Skinner Box, che prende il nome del suo inventore, lo psicologo Burrhus Frederic Skinner, è uno strumento per studiare il “condizionamento operante”. In uno di questi esperimenti fatto su un topo la gabbia disponeva di una leva che dava una piccola scossa elettrica, e un’altra che dava come compenso una piccola quantità di cibo. Dopo un certo numero di tentativi il topo capiva quale leva toccare e quale evitare.

Gli utenti dei social media rischiano di diventare cavie chiuse nella “Skinner Box” virtuale che si chiama smartphone. Il compenso per i click sono i like, i commenti, i follower ecc.

Dato che i social media vivono sulla pubblicità è buona norma di marketing che gli algoritmi siano ottimizzati per tenere gli utenti incollati alla piattaforma. Questo porta a vivere sempre di più in mondo virtuale, che oltretutto crea meno problemi immediati di quello reale, che però prima o poi procurerà un brusco risveglio.

5. L’assoggettamento agli strumenti di Intelligenza artificiale

Siamo sempre più dipendenti da oggetti, programmi e procedure informatiche che utilizzano strumenti di intelligenza artificiale, intesi a semplificarci la vita, indicandoci la strada migliore, guidando la nostra auto, scegliendo il volo più economico o la musica da ascoltare.

Tutto questo grazie a dei modelli matematici ai quali sono dati in pasto grandi quantità di dati da analizzare e correlare. Ma la preparazione dei modelli e la scelta dei dati dipende dai progettisti del software che umanamente hanno esperienze ed interessi limitati e che, inconsciamente o forse più spesso scientemente, sono guidati dagli interessi di chi finanzia il progetto o dalle preferenze personali.

Questo non solo lede la nostra libertà, ma tende a marginalizzare le persone che non sono nella norma individuata dalle analisi.

 

6. La paura dell’intelligenza artificiale potrebbe impedire all’umanità di godere dei vantaggi che essa può procurare.

La necessità di prevenire i rischi più gravi potrebbe portare a norme o codici etici non equilibrati che potrebbero essere di ostacolo a sviluppi utili di questa tecnologia magari lasciando spazio comunque ad applicazioni pericolose.

 

Qualche considerazione conclusiva

L’intelligenza artificiale è un elemento essenziale del progresso dell’umanità, come tutte le tecnologie comporta dei rischi che dobbiamo mitigare e dei benefici.

Fare sì che la tecnologia sia sempre al servizio dell’uomo, e non viceversa, dipende da noi che la costruiamo. Forse già oggi, sicuramente tra qualche anno potremmo progettare HAL immaginato da Arthur C. Clark, sta a noi non farlo.

Per questo sono necessari una progettazione ed un collaudo più accurato del software rispetto a quanto avviene oggi, lasciare il test agli utenti con le versioni alfa e beta su programmi così delicati è rischioso.

Sarebbe utile anche che i programmi di IA fossero tutti open source, in modo da avere un controllo capillare.

I programmi di intelligenza artificiale dovrebbero facilitare e rendere rapida la decisione finale, che dovrebbe però essere sempre di un essere umano pensante, come avviene con la diagnostica medica, dove l’IA è un aiuto impagabile, ma la responsabilità finale è del medico fedele al giuramento di Ippocrate.

Infine dovrebbe esserci una cultura più diffusa sull’argomento per evitare preoccupazioni inutili e rischi concreti.


Note

(1)  Il Go è un gioco da tavolo popolare in Oriente quanto gli scacchi da noi, più semplice come regole, ma non risolvibile con le tecniche utilizzate in precedenza dai computer per altri giochi, quali la dama e gli scacchi, a causa delle dimensioni (19×19) del GoBan. AlphaGO è il software che, combinando queste tecniche con l’utilizzo delle reti neurali, ha sconfitto i più grandi campioni di GO.

(2) Vincent Boulanin, senior researcher at the Stockholm International Peace Research Institute (SIPRI), in Sweden

(3) Alle 14.32 L’indice Dow Jones perse quasi 1000 punti (il 9%) in pochi minuti, per poi rimbalzare e recuperare quasi tutto entro le 15.08. Il caos improvviso è nato in seguito alla reazione dei sistemi automatizzati di trading ad una transazione di dimensioni anomale, pare sia dipesa da un banale errore di digitazione; qualunque sia stata l’origine scatenante, i sistemi automatizzati cominciarono a reagire immediatamente a questo stimolo errato, influenzandosi reciprocamente ed ingigantendo l’errore iniziale.

 

Bibliografia

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.