Intelligenza Artificiale, l’Ue si muove (a rilento)
Si chiama AI Act ed è la regolamentazione internazionale sull’Intelligenza Artificiale (AI) promossa dall’Unione europea, affinché le nuove tecnologie siano sviluppate in linea con i valori dell’Ue. Per il momento l’accordo è ancora in fase di trattativa da parte di Bruxelles, ma è probabile che nelle prossime settimane – si ipotizza entro la fine del 2023 – possa essere ufficializzato: numerosi sono i punti chiave su cui si cerca l’intesa e nonostante su alcuni aspetti sia complesso arrivare a una sintesi, su altri c’è già un orientamento comune (l’accordo dovrà poi essere votato dal parlamento Ue e dal Consiglio europeo in coordinamento con la Commissione europea).
Che ci sia bisogno di un regolamento per l’AI è chiaro da tempo e ne discutiamo anche su MIT Sloan Management Review Italia, la rivista della casa editrice ESTE dedicata proprio alla leadership e alle nuove tecnologie: che l’Ue abbia accelerato lo si deve al fatto che nel 2024 sono in programma le elezioni europee e rimandare l’accordo ai nuovi eletti rischierebbe di rallentare l’iter di discussione e di approvazione. Nelle bozze dell’AI Act dovrebbero esserci le prescrizioni per lo sviluppo dei modelli di AI che sono considerati a “rischio sistemico”: chi vorrà operare all’interno dell’Ue dovrà ottenere una ‘licenza’ che tenga conto di parametri come la capacità di calcolo della tecnologia e la presenza di un comitato scientifico; chi utilizzerà questi modelli, invece, dovrà esplicitare le modalità di addestramento dell’AI; infine chi svilupperà l’AI attraverso la modalità ‘open’ potrà avere l’esenzione (salvo casi particolari).
Tra gli altri aspetti inseriti dell’AI Act ci sono quelli che riguardano i limiti etici. Per esempio non si potrà applicare l’AI in ambiti come le tecniche subliminali oppure manipolative; saranno vietate le applicazioni per sfruttare la vulnerabilità di alcuni individui e l’utilizzo per il riconoscimento facciale massivo. Su questo punto c’è ancora molta distanza all’interno dell’Ue, perché ci sono Governi che vorrebbero ottenere eccezioni per applicare l’AI per tutelare la sicurezza nazionale.
Di certo il tentativo dell’Ue è necessario, ma le linee guida dovranno tenere conto che l’innovazione ha bisogno di libertà per svilupparsi: norme troppo stringenti rischierebbero di porre un freno alla tecnologia. Senza dimenticare che le big company dell’AI agiscono in altre realtà, approfittando del vuoto legislativo (per esempio, negli Usa il Presidente Joe Biden ha emanato un atto sull’AI, ma questo potrebbe essere cancellato o modificato dal suo eventuale successore nel caso non fosse confermato alla presidenza alle elezioni del 2024). In ogni caso il tentativo dell’Ue per regolare l’AI è encomiabile e uno scatto di ‘civilità’ in un momento nel quale c’è il forte rischio di cedere il controllo a poche società, che già detengono una mole spropositata dei nostri dati.