L’approccio umanistico all’Intelligenza Artificiale
Di questi tempi si parla molto delle responsabilità riguardanti lo sviluppo delle nuove piattaforme, ma il tema viene trattato principalmente da un punto di vista passivo. Significa che, quando accade qualcosa di negativo, pensiamo a una possibile conseguenza della guida autonoma delle macchine oppure a effetti collaterali in strumenti dove la spina dorsale è un algoritmo. C’è, cioè la tendenza a cercare responsabilità retroattive che in diversi casi guardano all’utilizzo di uno strumento.
Interessante è invece un approccio che guardi alla responsabilità attiva, perché già dalle fasi iniziali bisogna pensare a sistemi che non presentino conseguenze negative e che, eventualmente, possano portare effetti benefici. Quindi non bisogna solo cercare di prevenire gli effetti negativi, ma anche ricercare gli effetti positivi.
Occorre rendersi conto che stiamo parlando di problemi molto complessi che non hanno una soluzione unica, corretta e data una volta per tutte, ma ci sono elementi che possono aiutare e penso, per esempio all’interdisciplinarità.
Oltre all’unione di competenze diverse, il secondo elemento è che questa collaborazione deve essere attivata fin dall’inizio, quando le scelte progettuali sono ancora aperte, per orientare lo sviluppo futuro della tecnologia. Progettisti, tecnici, designer, filosofi, sociologi, esperti di etica e di diritto, policy makers devono lavorare insieme da subito.
Inoltre, è fondamentale anche la formazione dei futuri tecnologi, che non devono diventare degli esperti di etica, ma che devono affinare la loro sensibilità per la complessità di questi temi e anche la loro capacità di lavorare in maniera interdisciplinare con esperti di etica.
La direzione intrapresa dall’Europa
L’Unione europea ha già fatto diversi passi in questa direzione, con la creazione di due framework inseriti nell’ambito del progetto Horizon 2020. Si tratta della Responsible Research Innovation (RRI) e del Value Sensitive Design (VSD).
La RRI implica che i vari attori della società lavorino insieme nei processi di ricerca e innovazione, in modo da allineare i risultati con valori, bisogni e aspettative. Un approccio che migliora l’engagement nella ricerca e rende i risultati scientifici di più facile accesso.
Il VSD, invece, è un approccio che considera i principi e i valori degli esseri umani quando si sta progettando una piattaforma tecnologica.
Per quanto riguarda chi crea le nuove piattaforme, è necessario pensare a una sorta di capovolgimento della prospettiva. Cercare di valutare le conseguenze che una piattaforma tecnologica può avere significa orientare la progettazione e quindi stimolare conseguenze positive. È impossibile fare questo senza che la ricerca abbia un approccio interdisciplinare.
L’Europa in questo senso stimola la condivisione, in particolare con la RRI, che vuole coinvolti tutti gli attori. L’ingegnere deve lavorare insieme con l’utente e con i policy maker. La politica, infatti, deve avere un ruolo attivo, perché il ruolo di indirizzo è fondamentale e non può prescindere da una preparazione di un certo tipo. A livello europeo c’è molta attenzione a questi temi, nell’ottica di uno sviluppo integrato della piattaforme di domani.
Formare i nuovi professionisti di domani
Pensando al futuro è inevitabile pensare alle nuove generazioni, per le quali è importante considerare che c’è bisogno di un cambio di impostazione rispetto alle precedenti. Per esempio, il Politecnico di Milano ha avviato un processo per la formazione di nuovi professionisti che devono avere la consapevolezza che i problemi esistono, vanno affrontati e non si può pensare di superarli senza un approccio che veda coinvolta una molteplicità di attori.
Esistono già da tempo al Politecnico di Milano corsi di etica per singole lauree: io per esempio insegno Computer ethics nella laurea magistrale in Ingegneria Informatica oppure Piercarlo Maggiolini insegna Etica digitale nella laurea magistrale di Ingegneria Gestionale.
Da quest’anno è stato proposto il nuovo corso di Ethics for Technology per tutti quei corsi di laurea in Ingegneria che non erano ancora coperti da insegnamenti di etica. Si tratta di un corso più generale, perché nasce per rivolgersi a un pubblico di studenti più ampio, ma sempre focalizzato sulle nuove tecnologie.
A oggi si può dire che il ‘terreno’ è buono, perché nell’ambiente universitario si vede che c’è già una consapevolezza sugli impatti che le tecnologie possono avere sulla vita. In questo senso è necessario lavorare con un focus preciso sulla responsabilità, che viene percepita come funzionamento, ma va allargata al tema fondamentale dell’impatto.
Il caso del trasporto automatizzato
Facciamo l’esempio dei veicoli autonomi. Ragionando a livello tecnologico si può guardare alla massima evoluzione, cioè il livello 5 di autonomia. In questo caso il sistema è in grado di gestire tutte le situazioni che altrimenti sarebbero gestite dall’essere umano.
Adesso però, non si guarda più solo a questo, perché l’evoluzione nel settore dei trasporti si è allargata a un contesto diverso che guarda in particolare alla sostenibilità ambientale e sociale e a un tipo di spostamento diverso da quello che arriva dal passato.
Se dal punto di vista strettamente tecnologico il livello 5 di autonomia è un risultato auspicabile, considerando la questione da una prospettiva più ampia non è detto che lo sia. Ecco perché questo caso va inserito in un dibattito più ampio sulla revisione del sistema dei trasporti attuale.
La tecnologia potrebbe portare a un processo di deresponsabilizzazione che non è positivo. Oggi bisogna ammettere che la complessità c’è, ma senza dimenticare che sono gli uomini a scrivere gli algoritmi.
Il rischio può partire da quello che già accade, cioè che i compiti complessi vengono delegati alle macchine, creando quindi un elemento di invisibilità che può portare a una difficoltà nel controllo degli eventi futuri. Per questo serve una maggiore trasparenza per quanto riguarda le machine decision. Non stiamo parlando di strumenti magici con vita propria e l’azione umana a monte deve rimanere fondamentale.
È vero che diversi aspetti critici riguardano la fruizione delle nuove tecnologie da parte degli utenti. Anche qui entra in campo la responsabilità, perché ognuno è tenuto a conoscere il più possibile lo strumento che utilizza e avere quindi una consapevolezza consolidata.
Serve una maggiore consapevolezza sulle possibili conseguenze
Di questi tempi un aspetto tanto importante quanto trascurato è il tema della privacy. Per troppo tempo è stato sottovalutato e oggi va riportato al centro della discussione. I tecnici hanno la responsabilità di essere informati a riguardo, perché si tratta di un bene comune. I cittadini hanno bisogno di una presa di coscienza maggiore.
Si tende a dimenticare l’importanza della riservatezza, perché senza privacy si vanno a perdere autonomia e libertà. Oggi ci sono molti utenti che fanno questo tipo di ragionamento: “Cedo i miei dati per ottenere qualche beneficio”. È una cosa molto pericolosa, serve cautela e bisogna evitare di semplificare. Certo, nell’ultimo periodo è cresciuta la percezione che i dati personali sono diventati un prodotto. Quello che manca, però, è la consapevolezza sull’impatto che questa cessione ha a livello personale e sulla società.
Anche in questo senso, l’innovazione tecnologica dovrebbe correre di pari passo con la politica, intesa nel senso più puro del termine, cioè l’organizzazione della vita pubblica. Dobbiamo chiederci se i modelli novecenteschi su cui ci basiamo sono ancora validi.
Qui, in una visione più larga, è fondamentale mettere al centro la scuola. Può essere il luogo dove si sperimentano le cose e dove ci si pone domande sulle modalità diverse di fruizione di una piattaforma. Il valore aggiunto della scuola, e qui ritorno alla consapevolezza necessaria nell’utente, è dare ai giovani strumenti per indagare e capire le cose nel profondo, andando oltre un utilizzo quasi passivo di strumenti come Siri o Alexa.
Bisogna partire da una domanda di base: “Cosa significa insegnare?”. Oggi gli algoritmi classificano grandi moli di dati e nel tempo possono restituire risultati sempre più specifici e precisi, grazie al Machine learning.
Quando però parliamo di Intelligenza Artificiale siamo nel campo delle etichette di convenzione. I termini sono “appealing”, attirano e sono molto diffusi ora, ma si parla di cose ben diverse dall’intelligenza e dall’apprendimento umano. Anche qui si ritorna alla conoscenza, necessaria per evitare errori.
La politica deve guidare il cambiamento
È difficile dare una riposta su una questione così complessa. Leggiamo ovunque numeri, dichiarazioni e previsioni su come sarà e come cambierà il mondo del lavoro. Ma come si fa a saperlo? Credo che sarebbe necessario fare un passo indietro e, prima di andare nel campo indefinito dei pronostici, ragionare sulla forma che vogliamo dare alla società di domani, indagare su come vogliamo vivere nel futuro.
Qui ribalterei la questione: è giusto chiedersi come sarà il futuro, ma nel presente è necessario fare delle scelte che ci permettano di arrivare a un obiettivo definito. Meglio mettere sul tavolo un discorso costruttivo, più pragmatico e non vincolato solo al campo delle ipotesi.
Situazioni di questo tipo hanno bisogno di un solo attore: la politica. E questa deve intervenire in modo forte, essendo anche l’unica realtà che lo può fare, per porre dei limiti e cambiare le cose. Non possono essere né i manager né i progettisti a decidere le regole nel mondo del lavoro.
Possiamo anche tralasciare il sindacato nel suo ruolo classico. Al centro c’è il Legislatore che, in uno Stato di diritto, è insignito del potere che arriva attraverso il processo democratico. Il problema arriva quando un’azienda riesce a riformare il lavoro in maniera così radicale a partire dalla progettazione di uno strumento che, apparentemente, è solo tecnologico. C’è un ribaltamento del sistema che solleva delicate questioni morali.
Si interviene al livello della formazione, della consapevolezza, ma anche –e forse soprattutto– al livello della politica, non considerando solo l’innovazione di per sé, ma una più ampia cultura dell’innovazione.
Ciò significa tenere presente non solo la tecnologia, ma tutti gli elementi che abbiamo detto, e guidare le scelte odierne e future educando tutti noi cittadini alla responsabilità.
Per informazioni sull’acquisto di copie e abbonamenti scrivi a daniela.bobbiese@este.it (tel. 02.91434400)
Intelligenza artificiale, responsabilità sociale, rapporto uomo-macchina, cambiamento culturale, approccio umanistico