Innovazione e diritti per un futuro dell’AI sicuro ed etico
È ormai noto a tutti: l’Unione Europea ha proposto nel 2021 un regolamento sull’Intelligenza Artificiale (AI) per garantire che i sistemi di AI siano sicuri, trasparenti e non discriminatori. Il regolamento (AI Act) è stato approvato dal Parlamento europeo nel giugno 2023 e dal Consiglio dell’Unione europea (Ue) a dicembre 2023. Il percorso verso il disciplinamento dell’AI nell’Ue è stato e sarà difficile, a causa di divergenze tra gli Stati membri su alcuni aspetti salienti e cruciali.
Molte sono le preoccupazioni per l’impatto che la normativa potrà sortire sull’innovazione e sulla competitività dell’Ue. Il voto finale di giugno 2023 poi, ha aperto la discussione coi Governi, stimolando il miglioramento del testo e sollevando istanze sempre più distillate. Un piccolo esempio di area di ‘emendamento’ è stato l’obbligo di verifica di impatto da parte degli utilizzatori intermedi dei foundation models (le aziende): l’Italia (e non solo) non è convinta che tale ulteriore previsione di ‘controllo’ possa giovare all’alveo normato.
Promuovere l’innovazione responsabile
Non tutto quello che è possibile è lecito, o democraticamente sostenibile, e non esiste soluzione perfetta alla tempesta perfetta dell’AI.
L’Ue è uno dei primi paesi al mondo a legiferare sull’AI (da non dimenticare: “Tech is global, law is local”), e l’AI Act rappresenta un passo importante nella direzione di una tecnologia sicura e affidabile. Le norme previste dall’AI Act sono in linea con le migliori prassi internazionali, e possono contribuire a proteggere i cittadini europei e a promuovere un’AI responsabile.
La concorrenza con Paesi nei quali l’AI non è regolamentata è una sfida concreta: di certo in futuro il rispetto dei diritti dovrà rappresentare una risorsa e non un costo per le aziende, trasformandosi in fattore competitivo (chi rispetta di più i diritti deve ‘vincere’ in uno scenario ideale, esattamente come nel caso del mercato delle auto a basse emissioni). Solo in questo modo le aziende saranno indotte a rispettare le regole per conquistarsi clienti, e sarà proprio il mercato a produrre questo risultato, se la cultura dei diritti ci spingerà verso la direzione giusta.
L’AI Act non è pensato per sacrificare l’innovazione, ma piuttosto per promuoverla in modo responsabile. Le norme previste dall’AI Act sono progettate per garantire che l’AI sia sviluppata e utilizzata in modo sicuro e rispettoso dei diritti fondamentali, senza ostacolare il progresso (l’innovazione è un mezzo, il benessere il fine). Sotto l’ombrello democratico, infatti, non c’è spazio per diritti tiranni, e nemmeno il diritto all’innovazione esula da questo assioma. Si arriverà dunque a un bilanciamento tra diritti.
Come analizzato, l’AI Act comporta una serie di eccezioni e deroghe che consentiranno agli sviluppatori di sperimentare nuove tecnologie e di ‘innovare’ nell’accezione più ampia di questo termine… del resto, i 24 mesi di ‘decompressione’ necessari a garantire la piena applicazione dell’AI Act apriranno scenari evolutivi ancora del tutto imprevedibili.
Intelligenza artificiale, var group, AI Act, regole AI