ChatGPT e l’importanza di conoscere l’AI che dialoga con noi
In questi giorni si discute molto della lettera appello che è stata pubblicata dal Future of life institute e che una numerosa comunità di esperti di Intelligenza Artificiale (AI) ha firmato per chiedere una moratoria nello sviluppo di sistemi di AI generativa che saranno i successori del sistema GPT-4. Ho firmato anche io la lettera, perché ho ritenuto fosse utile e necessario avviare un dibattito molto ampio sulle tecnologie di AI generativa che si stanno sviluppando molto velocemente in questo periodo e che sono già usate da milioni di persone nel mondo.
Un esempio di ciò è dimostrato dalla diffusione e dall’impatto di ChatGPT che sono senza precedenti, mentre i sistemi che seguiranno saranno molto più veloci e più capaci. La lettera è un invito a rendere pubbliche le regole di funzionamento di questi sistemi, a stare attenti a considerare soltanto i vantaggi economici e competitivi, a lavorare per rendere queste tecnologie patrimonio della società, cercando anche di comprendere che possono esserci impatti significativi sulle popolazioni, sullo studio, sui nuovi lavori, sul ruolo degli esseri umani nella gestione e l’uso di questi sistemi.
La lettera invita all’attenzione e chiede una pausa che possa servire a conoscere meglio l’impatto di questi sistemi e a creare delle regole. Non si vuole ovviamente fermare la ricerca e lo sviluppo dell’AI in generale, ma il training dei sistemi di AI generativi che si stanno realizzando. Occorre ragionare sull’uso di questo tipologia di sistemi informatici che funzionano come black box, come accade con molti sistemi di AI basati sul Deep learning: vere e proprie ‘scatole nere’ il cui funzionamento è molto complesso (dipende da miliardi di parametri) e del tutto opaco.
Spesso queste dinamiche non sono note neanche a chi le sviluppa. Possono non esserci problemi quando questi sistemi funzionano, ma occorre considerare che non sono infallibili. ChatGPT sa fare alcune cose, ma non sa fare tutto, eppure risponde sempre. Il rischio è che realizziamo sistemi di cui non conosciamo il funzionamento e i cui effetti potrebbero essere molto negativi sulle persone, sulle organizzazioni, sulla società.
Il rischio di eventi dannosi per persone e organizzazioni
In questo momento storico le grandi aziende informatiche preferiscono non rispondere ai cittadini dei loro sviluppi tecnologici e sono in forte competizione, soprattutto per ragioni di rivalità economica e finanziaria. Con l’uso intensivo dei social media si è diffuso l’uso di fake news, deep fake, la manipolazione delle informazioni online. Ma questa fase di sviluppo di sistemi di AI generativa è ancora più critica, perché questi strumenti sono molto più potenti: permettono un ragionamento automatico che può sostituire in tanti aspetti quello umano, ma del quale non si conosce bene il funzionamento. Una sorta di ragionamento che si basa sulla combinazione probabilistica di parole per comporre discorsi di cui le macchine che li generano non conoscono il significato.
L’uso incontrollato e spesso inconsapevole per gli utenti potrebbe portare a eventi dannosi per le persone e per le organizzazioni che li usano. È una tecnologia sviluppata in grandissima parte solo le Big tech che giocano un ‘campionato’ a sé, offrendo questi prodotti in maniera (apparentemente) gratuita a milioni di persone, le quali non conoscono quasi per nulla il loro funzionamento. Tutto ciò comporta una serie di effetti sul lavoro, sulle relazioni professionali e sociali, sulle regole democratiche, sui diritti delle persone. In questo momento questi eventi non si conoscono del tutto ed è necessario riflettere per fare un uso consapevole di questi strumenti che faranno certamente parte della vita di miliardi di persone in un futuro molto prossimo. È sufficiente pensare al mondo della scuola, della formazione, al mondo del lavoro. Tutti questi contesti potrebbero cambiare per sempre.
L’evoluzione e l’innovazione, ovviamente, non sono il problema. La questione è che viviamo un momento critico di questo cambiamento e lo stiamo affrontando senza riflettere abbastanza sull’impatto che le tecnologie possono avere sulle persone: lasciare solo a pochi la possibilità di decidere e mettere le innovazioni tecnologiche nelle mani di molti, che le possono usare in maniera impropria, è un rischio enorme. Dobbiamo agire perché queste tecnologie molto potenti siano un patrimonio di tutti e non solo dei pochi attori che le hanno in mano in questo momento e ne fanno strumento di guerra commerciale. I sistemi di AI come ChatGPT, Bard e altri dovrebbero essere usati senza creare danni ai cittadini e facendo in modo che i loro effetti siano di gran lunga positivi, mentre i loro rischi devono essere gestibili. Perché questo accada servono conoscenza e consapevolezza.
Conciliare gli sviluppi tecnologici con i principi etici
L’AI oggi è utilizzata abbondantemente. La usiamo in campo medico, in agricoltura, nell’industria, nel settore finanziario e bancario, nei sistemi di risparmio energetico, nella gestione aziendale. È quella che riconosce le immagini, il parlato, quella che ci guida in macchina. Queste sono funzionalità che usiamo da tempo. È un’AI accurata, certamente non perfetta, ma funziona abbastanza bene. È certamente un fatto storico avere un’AI che dialoga con noi e che lavora per noi, come accade in tanti lavori intellettuali.
Tuttavia, i suoi avanzamenti devono essere condivisi con le persone, devono diventare patrimonio della società, ma perché questo accada non devono essere realizzati per rubare i dati personali a milioni di persone, violare i diritti di privacy personale; devono essere regolamentati; devono essere rispettosi dei principi etici collettivi. Soltanto così diventano elementi di progresso sociale, invece di divenire strumenti di manipolazione delle persone e di dominio tecnologico nel mondo del lavoro, dell’educazione, del tempo libero.
Domenico Talia è Professore Ordinario di Ingegneria Informatica all’Università della Calabria e Co-Founder dello spinoff DtoK Lab. Svolge attività di ricerca nei settori del Cloud computing, del Machine learning, della Social media analysis e dei Big data. È autore dei libri: L’impero dell’algoritmo e La società calcolabile e i Big data, pubblicati da Rubbettino.
Intelligenza artificiale, ai, Chat GPT