Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Come la nuova regolamentazione del riconoscimento facciale a Detroit protegge i diritti civili

Scopri le nuove regole adottate dal dipartimento di polizia di Detroit per prevenire arresti ingiusti e promuovere la giustizia razziale grazie all'accordo con Robert Williams.
  • Divieto di arresti basati esclusivamente sul riconoscimento facciale: La polizia di Detroit non potrà più effettuare arresti basandosi unicamente sui risultati del riconoscimento facciale.
  • Formazione obbligatoria: Tutti gli agenti riceveranno formazione sui limiti del riconoscimento facciale, con particolare attenzione ai pregiudizi razziali.
  • Audit retroattivo: Saranno condotti audit su tutti i casi dal 2017 in cui la tecnologia di riconoscimento facciale è stata utilizzata per ottenere un mandato di arresto.

Il 9 gennaio 2020, Robert Williams, un uomo afroamericano di Farmington Hills, Michigan, è stato arrestato ingiustamente a causa di un errore di un software di riconoscimento facciale (FRT). Williams è stato accusato di rapina in un negozio di orologi a Detroit, nonostante al momento del crimine fosse a casa sua. Dopo 30 ore di detenzione, le accuse contro di lui sono state ritirate. Questo caso ha attirato l’attenzione di numerose testate giornalistiche, tra cui il Free Press, il New York Times e il Washington Post.

Williams ha citato in giudizio la città di Detroit, sostenendo che l’arresto illegale e l’utilizzo del software FRT violavano i suoi diritti. La denuncia, presentata il 13 aprile 2021 presso la Corte distrettuale degli Stati Uniti per il distretto orientale del Michigan, accusava la città di non aver formato adeguatamente gli ufficiali del Dipartimento di Polizia di Detroit (DPD) sulle carenze del software di riconoscimento facciale, che presenta alti tassi di errore nell’identificazione delle persone di colore.

L’accordo sul riconoscimento facciale: nuove regole per il dipartimento di polizia di Detroit

L’accordo raggiunto tra Robert Williams e la città di Detroit è stato elogiato come un passo fondamentale per la giustizia razziale e la tutela dei diritti civili. Mira a affrontare i pregiudizi della tecnologia di riconoscimento facciale e a ridurre il rischio di arresti ingiusti, in particolare per le persone di colore. Tra le nuove regole definite nell’accordo:

  • Divieto di arresti basati esclusivamente sul riconoscimento facciale: La polizia non potrà arrestare basandosi unicamente sui risultati del riconoscimento facciale o su foto segnaletiche generate dalla tecnologia.
  • Necessità di prove indipendenti: La polizia non potrà utilizzare il riconoscimento facciale a meno che prove indipendenti e affidabili non colleghino il sospettato al crimine.
  • Formazione obbligatoria sul riconoscimento facciale: Gli agenti dovranno ricevere formazione sui pericoli e i limiti del riconoscimento facciale, con particolare attenzione ai pregiudizi razziali.
  • Audit sull’utilizzo del riconoscimento facciale: Saranno condotti audit su tutti i casi dal 2017 in cui la tecnologia di riconoscimento facciale è stata utilizzata per ottenere un mandato di arresto.
  • Monitoraggio della corte: Un tribunale federale supervisionerà l’attuazione dell’accordo per quattro anni.

La discriminazione razziale nei sistemi di riconoscimento facciale

L’accordo non affronta completamente la questione della discriminazione razziale intrinseca nei sistemi di riconoscimento facciale. La formazione obbligatoria per gli agenti sui limiti e le imprecisioni della tecnologia è necessaria, ma non basta a contrastare i pregiudizi algoritmici che identificano erroneamente le persone di colore a tassi più alti rispetto ai bianchi.

La storia di Robert Williams non è un caso isolato. Anche Michael Oliver, un uomo di colore di 25 anni, è stato accusato ingiustamente di furto aggravato nel maggio 2019 a causa di un errore del software di riconoscimento facciale. Oliver è stato scagionato dalle accuse dopo che un’ulteriore indagine ha rivelato che l’immagine utilizzata per il riconoscimento facciale era di scarsa qualità e non permetteva un’identificazione accurata.

Un altro caso riguarda Porcha Woodruff, una donna afroamericana di 32 anni, arrestata ingiustamente a febbraio 2024 mentre era incinta all’ottavo mese. L’algoritmo aveva compiuto uno scambio di persona, portando a un arresto traumatico e a gravi conseguenze fisiche e psicologiche per Woodruff.

L’impatto del riconoscimento facciale: studi e rapporti

L’ascesa del riconoscimento facciale basato sull’intelligenza artificiale (IA) ha alimentato un dibattito pubblico sulle potenziali conseguenze negative, tra cui discriminazione e ingiustizia razziale. Uno studio del National Institute of Standards and Technology (NIST) del 2019 ha confermato che gli algoritmi di riconoscimento facciale presentano “differenziali demografici” che peggiorano la precisione in base all’età, al genere o alla razza. Gli asiatici e gli afroamericani avevano cento volte più probabilità di essere identificati erroneamente rispetto agli uomini bianchi.

La mancanza di diversità nei dataset di training, la scarsa trasparenza e la difficile individuazione delle responsabilità sono aspetti critici che affliggono i sistemi di rilevamento biometrico. L’utilizzo diffuso del riconoscimento facciale esercita un impatto significativo sui diritti e le libertà fondamentali degli individui, con il rischio di creare una società di sorveglianza in cui ogni mossa è monitorata e registrata.

Bullet Executive Summary

L’arresto ingiusto di Robert Williams e altri casi simili evidenziano le gravi lacune e i pericoli associati all’uso della tecnologia di riconoscimento facciale da parte delle forze dell’ordine. Nonostante l’accordo raggiunto con la città di Detroit rappresenti un passo avanti, rimangono molte questioni irrisolte, in particolare la discriminazione razziale intrinseca nei sistemi di riconoscimento facciale.

Una nozione base di intelligenza artificiale correlata a questo tema è il concetto di Human in the Loop (HITL), che sottolinea l’importanza di avere un intervento umano nei processi decisionali automatizzati per evitare errori e pregiudizi. Un’ulteriore nozione avanzata è l’uso di algoritmi di apprendimento automatico che possono essere addestrati su dataset più equilibrati e diversificati per migliorare l’accuratezza e ridurre i bias.

In conclusione, mentre la tecnologia di riconoscimento facciale può offrire vantaggi significativi, è essenziale implementare misure di controllo rigorose e garantire che i sistemi siano equi e trasparenti. Solo così possiamo sperare di utilizzare l’intelligenza artificiale in modo responsabile e giusto, proteggendo i diritti e le libertà di tutti.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
1 Comment
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
1
0
Ci interessa la tua opinione, lascia un commento!x