Pre-loader

Come rendere sicura l’intelligenza artificiale? Un test per gli esseri umani

di Alessandro Scassellati

La grancassa degli avvertimenti sui pericoli dell’intelligenza artificiale sta raggiungendo un nuovo livello di intensità. Mentre i ricercatori di intelligenza artificiale temono da tempo che l’IA possa spingere le persone a lasciare il lavoro, manipolarle con video falsi e aiutare gli hacker a rubare denaro e dati, alcuni avvertono sempre più che la tecnologia potrebbe prendere il sopravvento sull’umanità stessa.

Ad aprile, i principali protagonisti del mondo tecnologico digitale hanno pubblicato una lettera aperta esortando tutti i laboratori di intelligenza artificiale a interrompere l’addestramento dei loro sistemi più potenti per almeno sei mesi. Il mese scorso, centinaia di ricercatori di intelligenza artificiale e altri hanno firmato una dichiarazione in cui si suggerisce che l’umanità dovrebbe affrontare il “rischio di estinzione” per mano della tecnologia con la stessa priorità che ora dà alla guerra nucleare e alle pandemie.

L’idea che questa roba diventerà più intelligente di noi e potrebbe effettivamente sostituirci, mi ha preoccupato solo pochi mesi fa“, ha detto il pioniere dell’IA Geoffrey Hinton a Fareed Zakaria della CNN l’11 giugno. “Pensavo che il cervello fosse migliore e che noi stavamo solo cercando di recuperare il ritardo con il cervello. All’improvviso mi sono reso conto che forse l’algoritmo che abbiamo è già migliore del cervello. E quando lo miglioreremo ancora, otterremo cose più intelligenti di noi”. Hinton ha lasciato il suo lavoro a Google a maggio, dice, per poter parlare liberamente di tali pericoli.

Altri scienziati scherzano su questi discorsi apocalittici. Il vero pericolo, dicono, non è che l’umanità costruisca accidentalmente macchine troppo intelligenti, ma che cominci a fidarsi di computer che non sono abbastanza intelligenti. Nonostante i grandi progressi che la tecnologia ha fatto e i potenziali vantaggi che offre, fa ancora troppi errori per fidarsi ciecamente, aggiungono.

Eppure i confini tra questi scenari sono sfocati, soprattutto perché i computer basati sull’intelligenza artificiale diventano rapidamente più capaci di risolvere problemi, senza però avere le capacità di ragionamento morale degli umani. Il denominatore comune sono le questioni legate alla fiducia: quanta ne meritano le macchine? Quanto sono vulnerabili gli esseri umani alla fiducia mal riposta nelle macchine?

In effetti, i sistemi sono così complessi che nemmeno gli scienziati che li costruiscono sanno con certezza perché danno le risposte che danno, che sono spesso sorprendenti e, a volte, completamente false. Sostengono che spesso è praticamente impossibile capire effettivamente perché stiano producendo una determinata stringa di testo. Riconoscono che questo è il problema più grande, gli stessi ricercatori nell’area della IA sanno che non possono assolutamente fidarsi di niente. Ma riconoscono che è molto facile per le persone essere ingannate.

Si stanno già accumulando esempi di sistemi di intelligenza artificiale che ingannano le persone:

  • un avvocato che ha presentato una dichiarazione giurata citando sei casi giudiziari fasulli, con nomi inventati, ha detto a un giudice di New York in un’udienza l’8 giugno di essere stato ingannato dal sistema di intelligenza artificiale su cui faceva affidamento;
  • un conduttore radiofonico della Georgia ha citato in giudizio OpenAI, la società che produce il popolare ChatGPT, sostenendo che il sistema di intelligenza artificiale ha creato dal nulla una denuncia legale accusandolo di appropriazione indebita;
  • sospettando che i suoi studenti stessero usando ChatGPT per scrivere i loro saggi, un professore della Texas A&M University ha eseguito i loro documenti attraverso lo stesso sistema e ha dato uno zero a quelli che il sistema di intelligenza artificiale ha detto di aver scritto. Ma il sistema non può riconoscere in modo affidabile ciò che ha scritto. L’università è intervenuta, assicurando che nessuno degli studenti fosse bocciato o escluso dalla laurea.

 

Questi sono solo accenni ai rischi in serbo, avvertono gli scienziati dell’IA. Bisogna gettare via le visioni fantascientifiche di robot tipo Terminator che conquistano il mondo – quelle sono ancora inverosimili con la tecnologia odierna – ma i rischi di estinzione umana non scompaiono. Gli scienziati indicano la possibilità che la tecnologia consenta ai malintenzionati di creare armi biologiche, o di aumentare la letalità della guerra intrapresa dagli Stati. Potrebbe anche consentire ad attori politici senza scrupoli di utilizzare immagini deepfake (falsificate) e disinformazione in modo così efficace da far crollare la coesione sociale di una nazione, vitale per affrontare le sfide ambientali e politiche.

La manipolazione degli elettori e la diffusione della disinformazione sono alcune delle maggiori preoccupazioni, soprattutto con l’avvicinarsi delle elezioni statunitensi del prossimo anno, ha dichiarato il mese scorso il CEO di OpenAI Sam Altman a una commissione del Senato statunitense. “L’intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti“.

OpenAI è il creatore di ChatGPT, che ha alimentato gran parte delle crescenti aspettative verso l’IA – sia positive che negative – sin dalla sua uscita al pubblico alla fine dell’anno scorso. Ha sollevato la speranza che i lavoratori possano diventare molto più produttivi, i ricercatori possano fare scoperte più rapide e il ritmo del progresso in generale possa aumentare. In un sondaggio tra gli amministratori delegati di grandi imprese statunitensi, il 42% ha affermato che l’intelligenza artificiale potrebbe potenzialmente distruggere l’umanità in 10 o anche cinque anni, mentre il 58% ha affermato che ciò non potrebbe mai accadere e che non sono “preoccupati“.

I legislatori di entrambe le sponde dell’Atlantico sono ansiosi di creare dei limiti per la tecnologia in espansione. L’Unione Europea ha preso l’iniziativa nelle scorse settimane accettando la bozza di un atto che classificherebbe le tecnologie IA dal rischio “minimo” a “inaccettabile“. L’intelligenza artificiale ritenuta inaccettabile verrebbe vietata e le applicazioni considerate “ad alto rischio” sarebbero strettamente regolamentate. Molte delle principali tecnologie di intelligenza artificiale oggi sarebbero probabilmente considerate a rischio elevato o inaccettabile.

Negli Stati Uniti, il National Institute of Standards and Technology ha creato un framework di gestione del rischio IA. Ma molti al Congresso vogliono andare oltre, soprattutto alla luce della percepita incapacità di aver regolamentato i social media in modo tempestivo. Molti senatori dicono esplicitamente: “non vogliamo fare gli stessi errori con l’IA“. Vogliono essere proattivi al riguardo, che è l’atteggiamento giusto da avere.

Come regolamentare il settore è ancora un’incognita. Molti responsabili politici stanno cercando di imporre una maggiore trasparenza alle aziende su come costruiscono i loro sistemi di intelligenza artificiale, un requisito presente nella proposta di legge dell’UE. Un’altra idea che viene lanciata è la creazione di un’agenzia internazionale di regolamentazione che sorvegli le aziende che sviluppano la tecnologia e mitighi i rischi.

Noi come società stiamo trascurando tutti questi rischi. Addestriamo e facciamo ogni sforzo per far crescere un sistema di IA che è estremamente potente ma che rimane una ‘scatola nera‘ anche per i suoi progettisti. Ciò significa che non possiamo allinearlo in modo affidabile con i nostri obiettivi, sia che si tratti dell’equità nella giustizia penale o di non causare la nostra estinzione.

Come rendere sicura l’intelligenza artificiale? Un test per gli esseri umani

La casa dei diritti è anche casa tua

sostienici Diventa Volontario!