Tomorrow Augmented

Riconoscimento facciale: cosa significa per noi e per la nostra privacy (e cosa sta accadendo in Cina e negli Usa)

L’uso delle tecnologie di riconoscimento facciale sta sollevando molti interrogativi per la privacy. Ma il settore, con un giro d’affari che potrebbe triplicare, fa gola a tanti.

Tempo di lettura: 6 minuti

 

È stata una decisione che ha fatto scalpore. San Francisco, la metropoli californiana a due passi dalla Silicon Valley, è stata la prima città statunitense a mettere al bando le sofisticate tecnologie di riconoscimento facciale, ossia i sistemi di intelligenza artificiale usati in biometria per identificare automaticamente una persona attraverso una o più immagini del volto. Secondo il Consiglio di sorveglianza di San Francisco, queste tecnologie non solo minacciano la privacy, ma potrebbero anche mettere a rischio i diritti delle minoranze: quindi nella “Golden Gate City” non potranno più essere utilizzate da nessun ente pubblico, polizia compresa.

Una scelta drastica, quella di San Francisco, che tuttavia non incrina il business delle tecnologie di riconoscimento facciale, che sono in forma smagliante: secondo le stime di Allied Market Research il giro d’affari del settore è destinato a più che triplicare dai 3,01 miliardi di dollari del 2016 a 9,58 miliardi entro il 2022, con una crescita media annua del 21,3%. Accanto a player del calibro di Amazon o Microsoft, stanno emergendo diverse aziende europee come le tedesca Cognitec System, la francese Idemia, la spagnola Herta Security, le svizzere nViso e KeyLemon e l’olandese Gemalto. Assieme ai fatturati stanno tuttavia crescendo anche le polemiche.

Cittadini sotto controllo in Cina

In Cina per esempio, questo tipo di tecnologia ha giocato un ruolo di primo piano nel controllo generale della popolazione e soprattutto nella sorveglianza (e persecuzione) delle minoranze religiose, come nel caso di milioni di musulmani Uiguri nella regione occidentale dello Xinjiang. Una recente inchiesta del New York Times ha rivelato come in alcune aree la popolazione venga sottoposta a mezzo milione di scansioni biometriche al mese proprio per tracciare i movimenti degli Uiguri. Il che si traduce anche in un giro d’affari enorme, in cui svettano giganti cinesi come SenseTime, CloudWalk, Yitu e Megvii, ex startup ormai arrivate a valere più di un miliardo di dollari ciascuna a partire dall’anno scorso, quando Pechino ha avviato colossali investimenti nella “sorveglianza elettronica” attraverso i progetti governativi Skynet e Sharp Eyes.

Ma in Occidente le polemiche sull’utilizzo delle tecnologie di riconoscimento facciale non sono solo legate all’uso repressivo che ne viene fatto in Cina. Il problema è che questi sistemi di intelligenza artificiale spesso sbagliano. Negli Stati Uniti i ricercatori dell’American Civil Liberties Union hanno dimostrato come il software Rekognition di Amazon abbia indicato come “di colore” circa il 39% dei membri del Congresso, anziché il 20% reale. Un gruppo di scienziati di Facebook, Google e Microsoft, assieme a ricercatori universitari statunitensi, ha poi chiesto ad Amazon in una lettera aperta di bloccare la vendita del suo software ai corpi di polizia, senza successo.

Memorabile, inoltre, la cantonata presa da questi sistemi durante la finale di Champions League del 2017. A Cardiff, in Gran Bretagna, oltre 170mila tifosi in arrivo per la finale del 3 giugno 2017 tra Juventus e Real Madrid erano stati sottoposti a riconoscimento facciale: dei 2470 soggetti individuati dai software e fermati dalla polizia, ben 2297 (il 92%) si sono rivelati “falsi positivi”, ossia persone al di sopra di ogni sospetto indicate per errore dall’intelligenza artificiale come potenzialmente pericolose.

 

I problemi legati alla privacy

Le tecnologie di riconoscimento facciale sono tutto fuorché infallibili, insomma, come ha ammesso la stessa Microsoft, che pure è attiva nel settore. I software di intelligenza artificiale infatti, che teoricamente sono in grado di riconoscere agevolmente un volto in una foto ad alta definizione chiara e ben illuminata, faticano molto a identificarlo nelle sue “variabili” (per esempio se indossa occhiali, copricapi, se cambia il taglio di capelli, l’abbronzatura, il trucco). In particolare, faticano se si tratta di immagini “rubate” da una telecamera di sorveglianza, quindi non nitidissime e con il viso solo parzialmente visibile.

Da qui le preoccupazioni, anche perché in tutto il mondo sarebbero milioni e milioni i volti di privati cittadini caricati da varie fonti (internet, social network, telecamere di sorveglianza) in enormi database per gli scopi più eterogenei, dalla prevenzione antiterrorismo alla ricerca scientifica, dall’addestramento degli stessi sistemi di facial recognition fino alle vendite commerciali attraverso software che nei negozi rilevano le emozioni dei volti dei potenziali clienti. Il tutto senza chiedere il consenso degli interessati, poiché i volti caricati da internet - oltre a essere spesso ripresi da luoghi pubblici - sarebbero soggetti alla licenza Creative Commons  che solleverebbe dal rispetto delle norme sulla privacy.

 

L’Italia e le tecnologie di riconoscimento facciale

Anche in Italia queste tecnologie sono ampiamente utilizzate dalla Polizia di Stato, che dall’inizio del 2017 ha adottato il SARI (Sistema Automatico per il Riconoscimento delle Immagini), con un database di volti che secondo alcune fonti avrebbe già raggiunto ben 16 milioni di individui: sette milioni di persone già segnalate per attività criminali o per essere state trovate prive di documentazione, e altri nove milioni classificati come “soggetti diversi”. Ma in Italia per fortuna, tra leggi nazionali e Direttiva GDPR , la privacy non è un concetto astratto: per esempio, per le riprese effettuate con telecamere di videosorveglianza esiste un obbligo di informativa preventiva e il Garante della privacy ha già chiarito nel 2010 che i filmati vanno conservati per non più di sette giorni, con ulteriori richieste specifiche che vanno motivate.

 

Scopri di più: L’ultima mission della Silicon Valley: neutralizzare la morte

Per il disclaimer clicca qui: Informazioni importanti