Pervasive Facial Recognition

Si dà per scontato che le macchine siano neutrali e c’è addirittura la speranza che la tecnologia che creiamo avrà meno pregiudizi di noi. Ma non abbiamo equipaggiato questi sistemi con gli strumenti necessari a sconfiggere i nostri bias.

Mit Joy Buolamwini

Dalla sorveglianza di massa orwelliana della Repubblica popolare cinese fino all’Ungheria, gli stati autoritari hanno trovato nelle nuove tecnologie di profilazione il loro miglior alleato. Con quali rischi per i cittadini?

Aaron Peskin, membro dell’amministrazione comunale di San Francisco, ha un obiettivo ambizioso: bandire dalla sua città la tecnologia per il riconoscimento facciale. Resa possibile dai network neurali alla base dell’intelligenza artificiale, questa tecnologia è in grado di confrontare i volti delle persone riprese dalle telecamere di sicurezza e confrontarli con un database, individuando in tempo quasi reale i ricercati che vengono filmati, o dando un’identità al colpevole se un crimine è stato compiuto da qualche volto noto alle forze dell’ordine.

Come ha spiegato la ricercatrice del Mit Joy Buolamwini durante un Ted Talk, gli algoritmi per la computer vision replicano inevitabilmente i pregiudizi consci o inconsci delle persone che li creano e li addestrano.

Una delle ragioni più importanti (tanto che anche Microsoft si sta spendendo per una sua regolamentazione più severa) va sotto il nome di pregiudizio dell’algoritmo.

Un altro grosso problema è quello dei falsi positivi. Il gruppo britannico per le libertà civili Big Brother Watch ha scoperto che le correlazioni individuate dal sistema di riconoscimento facciale usato dalla polizia di Londra sono sbagliate nel 98% dei casi. Questo non solo significa che i poliziotti umani devono compiere un enorme lavoro per correggere gli errori del software, ma anche che migliaia di persone vengono schedate negli archivi della polizia senza che abbiano combinato nulla.

Una delle più clamorose vicende sugli errori del riconoscimento facciale ha come protagonista il software Rekognition, venduto da Amazon alle forze di polizie di tutto il mondo. Un test condotto dalla Aclu (American Civil Liberties Union) ha mostrato come questo software abbia non solo confuso 28 parlamentari statunitensi con dei criminali presenti nel suo database, ma anche come i deputati di colore avessero il doppio della possibilità che ciò avvenisse.

Social sharing: