L’Intelligenza Artificiale e l’era 4.0: eticità, privacy e discriminazioni

La tecnologia semplifica la vita quotidiana, ma nasconde anche lati oscuri.

Nel 1942 lo scrittore Isaac Asimov postulava le tre leggi assolute della robotica1 che hanno alimentato per decenni l’immaginazione fantascientifica. Oggi, nell’era della grande rivoluzione digitale, la domanda da porsi non è se e quando robotica e Intelligenza Artificiale (AI) cambieranno la società, ma come lo faranno (Floridi, 2018). Durante i primi studi e prime prototipazioni, i robot erano rigidamente programmati per operare in condizioni ristrette, ambienti controllati e quasi deterministici.

Oggi l’estensione delle attività umane attraverso l’AI ha raggiunto ambiti applicativi e una profondità cognitiva molto raffinata, che sta modificando profondamente la realtà in cui viviamo. L’utilizzo di strumenti di AI è in crescita esponenziale: riconoscimento visivo, acustico e linguistico; interazione con l’ambiente e con l’umano; oggetti intelligenti, robot e veicoli autonomi; assistenti virtuali e chatbot; analisi predittive, gestione e analisi di Big data.

Insomma, nella sua definizione ampia, questa tecnologia sta giocando un ruolo sempre più importante nella nostra vita quotidiana con un impatto già ben visibile su sistemi sanitari e giuridici, lavoro e ricerca di lavoro, prestiti e servizi finanziari. Sono innumerevoli i vantaggi del processo decisionale algoritmico in generale e dell’AI in particolare.

Violazione della privacy e scelte discriminatorie

Tuttavia, le decisioni algoritmiche non sono prive di aspetti negativi. Diverse ricerche (Mann e O’Neill, 2016; d’Alessandro, O’Neil e LaGatta, 2017) hanno discusso, per esempio, gli aspetti etici dell’uso degli algoritmi per le assunzioni nel mondo del lavoro oppure dei sistemi di polizia predittiva, sostenendo la loro ‘disposizione’ a scelte discriminatorie.

Il caso Cambridge Analytica ha reso evidenti le problematiche legate all’analisi dei dati e alla privacy. Le inchieste giornalistiche di The Guardian e The New York Times hanno evidenziato come Cambridge Analytica abbia raccolto dati personali da più di 50 milioni di utenti Facebook, senza autorizzazione, al fine di creare profili psicologici da usare in campagne di marketing super mirate.

Le successive inchieste di The Wall Street Journal – e quella giudiziaria condotta dal procuratore speciale Robert Mueller – hanno indagato sulla possibilità che la società, incaricata dal comitato elettorale di Trump per la gestione della raccolta dati, abbia utilizzato tali dati per costruire un sistema in grado di influenzare l’esito delle elezioni presidenziali negli Stati Uniti del 2016 (Greenfield, 2018).

Il danno – intenzionale o meno – che potenzialmente potrebbe derivare dal processo decisionale algoritmico indica che non solo è necessaria una riflessione etica, ma che fondamentale e urgente è l’elaborazione di un solido ‘sistema’ etico, che possa poi essere tradotto dalle autorità competenti in normative e legislazione (Floridi, 2018).

L’AI non pensa come noi. Utilizza regole e linguaggi diversi e, soprattutto, non ha valori che ne guidano l’azione. Essa fa esattamente ciò che gli si chiede, ma quando non si definiscono parametri precisi crea da sola i propri bias che possono, però, risultare inaccettabili se posti all’interno di un sistema morale più ampio. È importante sottolineare, dunque, come il problema etico non sia intrinseco allo strumento tecnologico, ma piuttosto all’output prodotto che diviene oggetto di valutazione morale da parte degli esseri umani.

Inoltre, sviluppare algoritmi di AI non è più prerogativa solo di grandi organizzazioni con enormi disponibilità economiche, ma sta dilagando tra un numero sempre più elevato di persone, in piccole realtà nei luoghi più disparati, rendendo difficile controllarne le sorti in assenza di una regolamentazione chiara (black box).

È necessario e urgente strutturare una riflessione nuova, globale e complessa sulle implicazioni etiche delle nuove tecnologie: se lo sviluppo di strumenti di AI riproduce alcuni dei processi cognitivi tipici dell’intelligenza umana, tanto da modificarne la realtà, occorre anche inserire paradigmi regolatori, non frammentati, delle scelte morali nelle fasi di sviluppo, calcolo e output prodotto.

Princìpi guida sull’etica delle macchine

Negli ultimi anni, diversi gruppi di esperti in tutto il mondo si sono attivati per elaborare linee guida e sistemi morali che guidino e accompagnino l’impatto dell’AI nella società. Ne deriva un numero crescente di princìpi, raccomandazioni, piani e riflessioni. Va ricordato, a questo proposito, che il livello di conoscenza di questi strumenti, da parte dei non addetti ai lavori e dell’opinione pubblica, è ancora in fase embrionale, poco scientifica e spesso basata su credenze, miti, e immagini che generano confusione, posizioni divergenti e contrastanti oscillanti tra tecnofilia e tecnofobia e comunque caratterizzate da poca obiettività. Per chi propone e utilizza sistemi di AI diventa, dunque, necessario dare e ricevere informazioni chiare, obiettive e solide attraverso processi trasparenti, eticamente e normativamente definiti.

Uno studio recente ha individuato 84 importanti documenti contenenti princìpi etici o linee guida per l’AI (Vayena, 2019) e ha confermato il recentissimo interesse e lo sviluppo del tema. Dal 2016 la produzione annuale di questi testi è cresciuta esponenzialmente, tanto che l’88% delle pubblicazioni analizzate è stato redatto proprio negli ultimi tre anni.

La maggior parte di esse (il 22,6%) è stata prodotta da aziende private, mentre enti governativi e istituti accademici e di ricerca hanno scritto rispettivamente il 21,4% e il 10,7% della documentazione. Vi sono poi dichiarazioni etiche e liste di princìpi proposti da organizzazioni intergovernative o sovranazionali (9,5%), o senza scopo di lucro (8,3%), da associazioni professionali-scientifiche (8,3%), da alleanze del settore privato (4,8%) e da altre tipologie di soggetti.

Con l’obiettivo di comprendere meglio come si sta sviluppando questo ampio e frammentato framework di linee etiche, abbiamo selezionato i principali 16 documenti che contengono princìpi etici per l’utilizzo e sviluppo dell’AI (Figura 1). I primi cinque della lista sono riconosciuti come tali nella letteratura internazionale e i restanti sono il risultato di una selezione di documenti, che vuole offrire un’ampia varietà di punti di vista. Questi testi elaborano una riflessione etica sull’AI mediante princìpi generali e approfondimenti che sono stati sviluppati utilizzando un approccio multi-stakeholder, frutto della cooperazione tra comunità scientifica, istituzioni governative e non e società civile.

Anche il mondo corporativo privato sta mettendo in atto una serie di iniziative etiche. Si tratta però di un panorama frammentato di sforzi che non ha ancora avuto risultati dimostrabili al di là dell’accensione di un dibattito sul tema dell’AI.

Alla lista dei documenti è stato incluso anche l’importante e inedito documento voluto dalla Chiesa Cattolica del febbraio 2020 Rome call for AI ethics, frutto di una delle partnership probabilmente più innovative dell’attualità. Infatti, tale documento è stato steso e firmato al termine della collaborazione tra Pontificia Accademia per la Vita, Ibm e Microsoft.

1 Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno; un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge; un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima e con la seconda legge.

*L’articolo è stato scritto da Giovanni Vaia ed Elisa Gritti
L’articolo integrale è pubblicato sul numero di Luglio-Agosto 2020 di Sistemi&Impresa.
Per informazioni sull’acquisto di copie e abbonamenti scrivi a daniela.bobbiese@este.it (tel. 02.91434400)

Intelligenza artificiale, etica, ai, privacy, Giovanni Vaia, Elisa Gritti

space economy

L’occasione della Space economy

/
Per capire la portata dei dati legati allo Spazio, Roberto ...
Microsoft AI Tour

Attacchiamoci all’AI (per rilanciarci)

/
Sarà pur vero che è ancora poco utilizzata. L’Intelligenza Artificiale ...
Pil_Italia_Crisi

Chi dorme non piglia Pil

/
Nella nostra incapacità strategica di cambiare i paradigmi del nostro ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano