Chi ha paura dell’Intelligenza Artificiale?
Quello dell’Intelligenza Artificiale (AI) è un tema molto discusso in ambito aziendale. Se molto spesso ci si concentra sui benefici di questa tecnologia, è necessario riflettere anche su come sia possibile limitarne i potenziali effetti negativi.
A sollevare la questione è stato l’Amministratore Delegato di Google e Alphabet, Sundar Pichai, il quale ha chiesto nuove norme apposite per il mondo dell’AI. I pericoli sociali portati dall’uso scorretto di tecnologie come il riconoscimento facciale e i veicoli a guida autonoma, per esempio, richiedono una regolamentazione specifica.
“Non c’è dubbio che l’Intelligenza Artificiale debba essere regolata. È troppo importante per non farlo, l’unica domanda è come”, ha affermato Pichai a Bruxelles, dove ha incontrato alcuni rappresentanti delle istituzioni europee. “Vediamo che il riconoscimento facciale comporta molti rischi, perciò da parte nostra c’è un periodo di attesa fino a quando non vedremo come viene utilizzato”.
Secondo il numero uno di Google e Alphabet, che aveva già anticipato il suo pensiero sulle colonne del Financial Times, il regolamento europeo sulla protezione dei dati è un modello a cui ispirarsi. “Le norme esistenti come il Gdpr possono costituire una base solida” anche riguardo all’AI, per “bilanciare i potenziali danni e le opportunità sociali” della tecnologia.
Quest’ultima deve essere considerata un mezzo per raggiungere degli obiettivi, non il fine. Per riflettere sul tema dell’etica e della progettazione delle tecnologie, condividiamo un approfondimento che propone un approccio umanistico all’AI.
Intelligenza artificiale, sundar pichai, google alphabet, regole tecnologia