AI_Regolamento_globale

AI, c’è il primo regolamento internazionale

Il 5 settembre 2024, è stato firmato a Vilnius in Lituania, il primo trattato internazionale giuridicamente vincolante sull’Intelligenza Artificiale (AI), noto come la “Convenzione quadro del Consiglio d’Europa sull’AI, i diritti umani, la democrazia e lo Stato di diritto”. Tra i firmatari figurano il Regno Unito, l’Unione europea, gli Stati Uniti, Israele e altri Paesi come Norvegia, Islanda e San Marino. Questo trattato rappresenta un passo significativo nella regolamentazione dell’AI a livello globale, con l’obiettivo di garantire che lo sviluppo e l’uso di queste tecnologie non compromettano gli aspetti oggetto della convenzione.

Il trattato è il risultato di anni di negoziati avviati nel 2019 dal Consiglio d’Europa. In seguito alla crescente diffusione dei sistemi di AI e alle preoccupazioni sul loro impatto sui diritti umani e sulla governance democratica, è emersa la necessità di creare un quadro internazionale che affrontasse questi rischi. La Convenzione cerca dunque di fornire una risposta, stabilendo linee guida comuni che i Paesi firmatari devono seguire. Pur essendo giuridicamente vincolante, il trattato si focalizza soprattutto sulla protezione dei diritti umani, della democrazia e dello Stato di diritto nel contesto dell’AI.

Il trattato rappresenta comunque un passo storico nella regolamentazione dell’AI a livello globale. Mentre alcuni vedono questo accordo come un simbolo di progresso verso una AI etica e responsabile, altri ritengono che le sue lacune normative e le scappatoie previste ne limitino l’efficacia. In ogni caso, si tratta di un importante punto di partenza che invita a una riflessione più ampia sulla necessità di trovare un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali. Resta però una domanda che merita una riflessione: in un mondo in cui l’innovazione corre più veloce della regolamentazione, possiamo davvero affidarci a un trattato o a più strumenti che rincorrono sempre e lasciano così tanto spazio all’interpretazione?

Una nuova portata geografica del regolamento

In attesa di trovare un’adeguata risposta alla precedente domanda, è certamente utile, per comprendere meglio la portata della Convenzione, confrontarla con l’AI Act dell’Ue. Sebbene le due iniziative abbiano obiettivi simili, ci sono alcune differenze fondamentali: portata geografica; focus normativo; ambiti di applicazione; esclusioni.

In merito alla portata geografica, mentre l’AI Act si applica solo ai Paesi membri dell’Ue, la Convenzione è aperta anche ai Paesi non europei, ampliandone la portata a livello globale. Inoltre l’AI Act si concentra principalmente sulla classificazione dei sistemi di AI in base al livello di rischio e sulla regolamentazione del loro utilizzo all’interno dell’Ue, mentre il nuovo trattato internazionale si propone di regolamentare l’intero ciclo di vita dei sistemi di AI, con un’enfasi sulla protezione dei diritti fondamentali.

Bene poi sottolineare che l’AI Act disciplina in modo specifico il mercato e l’uso commerciale dell’AI, mentre la Convenzione si focalizza maggiormente sugli aspetti legati al settore pubblico, anche se include disposizioni sul settore privato. Infine, si rileva che il trattato permette esenzioni legate alla sicurezza nazionale: è questo un punto critico che non è presente nell’AI Act.

Valutare l’impatto dell’AI sui diritti umani

Al di là del confronto con l’AI Act, si possono evidenziare i punti ‘forti’ della Convenzione. Per prima cosa si sottolinea la cooperazione internazionale: rappresenta un importante passo avanti nella cooperazione globale sulla regolamentazione dell’AI, con la partecipazione di paesi chiave come Stati Uniti e Israele.

Inoltre, il nuovo trattato fornisce un quadro giuridico per garantire che l’uso dell’AI non violi i diritti umani fondamentali, prevenendo la discriminazione e proteggendo la privacy. Pur regolando i rischi, la Convenzione promuove il progresso dell’AI, incoraggiando un’innovazione che rispetti i principi democratici e lo Stato di diritto.

C’è poi l’aspetto relativo alla trasparenza e all’accountability: le entità pubbliche e private sono obbligate a valutare l’impatto dei loro sistemi di AI sui diritti umani e sulla democrazia, e rendere queste informazioni pubbliche.

Obblighi troppo vaghi e difficile applicazione

Nonostante l’importanza del trattato, non sono mancate critiche da parte di esperti e gruppi della società civile: il testo è stato criticato per la sua genericità linguistica e per la mancanza di prescrizioni chiare. Per esempio, secondo Francesca Fanucci, esperta legale, il trattato è stato “annacquato” durante i negoziati, rendendo difficile la sua applicazione concreta.

Sono poi previste diverse esenzioni, specialmente per i sistemi di AI utilizzati per scopi di sicurezza nazionale, creando una potenziale scappatoia per gli Stati. Inoltre il settore privato non è adeguatamente coperto dal trattato, e sono emerse critiche rivolte al doppio standard applicato rispetto al settore pubblico.

Ultima questione è quella che riguarda l’implementazione incerta: gli osservatori sono scettici riguardo alla reale implementazione della Convenzione, soprattutto a causa del linguaggio poco vincolante e della vaghezza degli obblighi.

Intelligenza artificiale, Convenzione AI


Fausto Turco

Fausto Turco

Fondatore e Presidente dell’Accademia dei Commercialisti e CEO di Si-Net e MyDigit.

Pil_Italia_Crisi

Chi dorme non piglia Pil

/
Nella nostra incapacità strategica di cambiare i paradigmi del nostro ...
Premio_EY_Vincitori

A Giovanna Vitelli il Premio EY L’Imprenditore dell’anno 2024

/
È andato a Giovanna Vitelli, l’edizione 2024 del Premio EY ...
Blackberry

Quando il colpevole è il management

/
Due differenti generi di ansietà si scontrano in una riunione ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano