GDPR

Rivoglio la mia faccia – la campagna contro le tecnologie di sorveglianza biometrica

È partita la campagna ReclaimYourFace  proposta da European Digital Rights  e portata avanti in vari Paesi Europei da altrettante ONG nazionali.

L’obiettivo è quello di opporsi all’impiego di tecnologie biometriche di massa (riconoscimento facciale, dell’iride, vocale…), il cui utilizzo sta diventando sempre più pervasivo anche in Europa.

La campagna Reclaim Your Face è spinta dal desiderio di un futuro digitalizzato, democratico e incentrato sulle persone, in cui tutti possano vivere con dignità e nel rispetto dei nostri diritti umani.

Le tecnologie per la sorveglianza biometrica sono incredibilmente invasive. Attraverso i sistemi di riconoscimento facciale, dell’andatura, o della voce, è possibile seguire virtualmente ogni cittadino in ogni momento della sua vita pubblica.

È come essere costantemente pedinati.

La sorveglianza di massa distrugge la libertà di pensiero, la libertà di movimento, e la libertà di manifestare pacificamente.

Il riconoscimento facciale e altre tecnologie biometriche utilizzate per la sorveglianza indiscriminata, o arbitrariamente mirata, negli spazi pubblici stanno trasformando ognuno di noi in un potenziale sospetto; guardandoci e analizzandoci tutto il tempo; violando gravemente i nostri diritti alla privacy e alla protezione dei dati.

Il nostro comportamento cambia automaticamente quando sappiamo di essere osservati.

Inoltre rischiamo anche di essere considerati una minaccia perché l’algoritmo di videosorveglianza giudica erroneamente un gesto o un’espressione facciale che facciamo. Alcuni di noi potrebbero persino essere considerati sospettati di reato per il modo in cui sono vestiti, per il colore della pelle o semplicemente perché hanno partecipato a una protesta.

A causa di questi sistemi di sorveglianza “intelligenti” ognuno di noi diventa un potenziale sospetto. È sufficiente un errore del software per abbinare il tuo viso a quello di un sospetto ricercato.

Quel che è peggio è che non sapremo nemmeno di essere osservati, chi ci sta guardando, per quale motivo e per quanto tempo lo farà.

In tutta Europa forze di polizia, autorità locali e aziende private stanno segretamente diffondendo tecnologie sperimentali e invasive che tracciano, analizzano e trasformano in oggetti i nostri volti e i nostri corpi mentre ci muoviamo negli spazi pubblici. Questi ultimi sono da difendere affinché in essi i nostri diritti, le nostre libertà e le nostre comunità siano protetti.

Il riconoscimento facciale, insieme ad altre tecnologie biometriche utilizzate negli spazi pubblici, agisce proprio in questo modo, trasformando ognuno di noi in un potenziale sospetto.

uomo di colore accusato ingiustamente da un algoritmo

Il caso più eclatante lo abbiamo avuto in America dove un uomo di colore è stato accusato ingiustamente da un algoritmo. Un errore di riconoscimento facciale ha portato all’arresto di un uomo del Michigan per un crimine che non ha commesso.

In Italia

In Italia, così come in molti paesi europei, stiamo già assistendo alla silenziosa introduzione di questi sistemi di sorveglianza di massa, sotto il pretesto della maggiore sicurezza.

Nel nostro Paese l’impiego di tecnologie di riconoscimento biometrico e facciale è già ampiamente diffuso su due diversi livelli: uno nazionale e uno locale. Nel primo caso, il Ministero dell’Interno ha acquistato e attivato il sistema SARI per il riconoscimento automatico dei volti. Ogni immagine raccolta dalle milioni di videocamere distribuite nelle nostre città può finire all’interno di questo sistema durante le indagini della polizia scientifica. La polizia ha già dimostrato di non avere alcun interesse affinché il Garante privacy intervenga: nel provvedimento del Garante, infatti, il Ministero ha sbrigativamente affermato che il riconoscimento facciale è un mero upgrade al riconoscimento manuale compiuto in precedenza.

Eppure la comunicazione iniziale dei volti contenuti nel database di SARI ha subito mostrato la scarsa valutazione dei rischi del riconoscimento facciale e l’incapacità di controllare adeguatamente il sistema da parte della polizia: dai 16 milioni di volti inclusi nel sistema si è scesi a 9 milioni, senza però offrire un dettaglio granulare delle tipologie di persone che sono incluse nel database—non è chiaro capire, ad esempio, quanti di queste siano migranti o persone di colore. Allo stesso tempo, in risposta a un’interrogazione parlamentare, il Ministero dell’Interno ha dichiarato che SARI non crea nessun nuovo database ma questa affermazione è facilmente smentita dai documenti tecnici e di collaudo ottenuti e pubblicati online in diverse inchieste giornalistiche.

Inoltre, la richiesta di informazioni sull’accuratezza e i bias del sistema non vengono ascoltate: le uniche valutazioni di uno degli algoritmi sono vecchie di anni. E come se non bastasse, da due anni rimane ancora aperta l’istruttoria del Garante privacy per valutare l’impiego del sistema SARI nella sua versione Real-Time, ovvero da utilizzare durante manifestazioni di piazza e negli spazi pubblici. D’altronde, stessa sorte è toccata all’istruttoria aperta nei confronti del sistema CRAIM usato per il riconoscimento vocale delle voci dei cittadini presenti sui video disponibili online.

Ma l’esperimento più distopico che riassume l’approccio locale al riconoscimento facciale è offerto dalla città di Como: a fronte di una completa distorsione della percezione di sicurezza in alcuni spazi cittadini, il comune di Como ha sprecato soldi pubblici per installare un sistema di riconoscimento facciale che è stato giudicato illegale da un provvedimento del Garante privacy. Il sistema è quindi spento ma dimostra come una valutazione miope dei rischi del riconoscimento facciale e la mancanza di trasparenza siano endemici: nella valutazione d’impatto sulla privacy dei cittadini il comune di Como aveva infatti trattato il riconoscimento facciale come un vecchio strumento di videosorveglianza classica.

promotori della campagna reclaimyourface sono:

Hermes Center for Transparency and Digital Human Rights (Italia), Bits of Freedom (Paesi Bassi), Iuridicum Remedium (Repubblica Ceca), SHARE Foundation (Serbia), Chaos Computer Club (Germania), Homo Digitalis (Grecia), Access NowARTICLE 19EDRi Privacy International.

Se vuoi essere coinvolto Firma la petizione e mettiti in contatto.

 

Fonte: European Digital RightsHermes Center for Transparency and Digital Human Rights 

0 0 vote
Article Rating
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments
0
Mi piacerebbe sapere cona ne pensix
()
x