L’assistente virtuale ci spia? Il confine tra privacy e AI

Gli assistenti vocali sono sempre più diffusi, e basta pronunciare “Hey Siri”, oppure “Ok Google” o “Hi, Alexa” per attivarli, in base alla casa tecnologica che li produce. Il problema è che in certi casi questi dispositivi ascoltano anche quello che non dovrebbero. Da tempo ci si sta chiedendo come gestire la cosa e quanto sia importante l’etica nell’era dell’Intelligenza Artificiale (AI).

In uno studio ancora in corso nel Regno Unito, alcuni ricercatori spiegano che gli assistenti vocali che si attivano involontariamente, e registrano in automatico, lo fanno perché “ascoltano” delle parole foneticamente simili a quelle che li fanno accendere. Ad esempio, in inglese, la pronuncia della parola “seriously” è simile a quella di “Siri”, il software di assistenza di Apple. Oppure basta che venga pronunciata la parola “Google” per attivare un dispositivo Google Home. Non è vero, quindi, che ascoltano tutto quello che diciamo 24 ore su 24.

Per ovviare a questi inconvenienti, però, ci sono varie opzioni. Una di queste è stata raccontata dal New York Times: due coniugi di Chicago, entrambi professori universitari d’informatica, in seguito a una discussione sull’opportunità di usare un assistente vocale perché “il microfono è sempre acceso”, hanno progettato e costruito, con l’aiuto di un altro accademico, uno speciale braccialetto del silenzio. Il braccialetto presenta 24 piccoli altoparlanti che, se accesi, emettono speciali ultrasuoni che impediscono la registrazione agli assistenti vocali o a qualsiasi altro microfono nelle vicinanze. Gli ultrasuoni sono impercettibili alla maggior parte delle persone, fatta eccezione per bambini e adolescenti.

In attesa di leggi chiare a livello internazionale che fissino modalità di utilizzo rispettose della privacy, dal 28 giugno 2019 è possibile chiederle di eliminare le registrazioni vocali su tutti i dispositivi integrati ad Alexa pronunciando la frase: “Alexa, cancella quello che ho appena detto” o “Alexa, cancella tutto quello che ho detto oggi”.

Fonte: The New York Times

Intelligenza artificiale, etica e tecnologia, Alexa

Albanese

In Australia puoi ignorare il tuo capo (finito il lavoro)

/
Da lunedì 26 agosto, in Australia, è entrata in vigore ...
L'approccio sistemico per proteggere l'OT: rivivi il webinar

L’approccio sistemico per proteggere l’OT: rivivi il webinar

/
L’aumento dei cyberattacchi in Italia – secondo il Clusit sono ...
Sicurezza sul lavoro, dalle parole ai fatti

Sicurezza sul lavoro, dalle parole ai fatti

/
Se è vero che il lavoro nobilita l’uomo, non è ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano