Profilazione etnica, l’allarme del Consiglio d’Europa

"Ampiamente diffusa nelle attività di polizia, nuovo rischio con algoritmi. Servono leggi ad hoc ed educazione"

La profilazione etnica o razziale nelle attività di polizia è ancora “un fenomeno ampiamente diffuso nei Paesi del Consiglio d’Europa”, “nonostante la crescente consapevolezza sulla necessità di contrastarlo, supportata da una giurisprudenza in evoluzione”. Lo scrive Dunja Mijatović, Commissaria per i diritti umani del Consiglio d'Europa, puntando il dito contro le pratiche di controllo, sorveglianza e investigazione basate su fattori come la razza, il colore, la lingua, la religione, la nazionalità o l’origine nazionale o etnica. 

In uno Human Rights Comment pubblicato pochi giorni fa, Mijatović ricorda che la profilazione etnica è favorita dall’eccessivo potere discrezionale lasciato alle forze dell’ordine, ma, soprattutto, da taciti pregiudizi, che per esempio portano a fermare più spesso per i controlli minoranze e stranieri, in particolare alle frontiere e in hub come aeroporti o stazioni. Inoltre, nei sistemi penali, ora le minoranze rischiano pene più severe a causa di pregiudizi perpetuati da algoritmi di intelligenza artificiale. 

Nell’articolo si citano diverse ricerche condotte in Paesi europei. Una di queste, per esempio, dimostra che in Francia i giovani maschi di origine araba o africana hanno un probabilità di essere fermati e perquisiti venti volte maggiore rispetto a quelli di altri gruppi etnici. Un’altra, che in Inghilterra e Galles questo succede ai neri nove volte e mezzo in più rispetto ai bianchi. La profilazione etnica sembra, inoltre, colpire i rom in tutta Europa, mentre controlli di identità arbitrari verso persone nel Nord Caucaso risultano all’ordine del giorno nella Federazione Russa. 

Si moltiplicano, intanto, le sentenze nazionali e internazionali che censurano queste pratiche, citano espressamente la profilazione etnica nei controlli di polizia e arrivano a parlare di “razzismo istituzionale”, come ha fatto la Corte Europea per i Diritti dell’Uomo in un giudizio che vedeva da un lato una famiglia rom, dall’altro la Romania. In più di un caso, i giudici hanno stabilito che, una volta dimostrata la differenza di trattamento, sta ai governi l’onere di provare che è giustificata. 

Mijatović parla anche dell’applicazione di algoritmi di machine learning ai sistemi penali, che ha già visto alcune sperimentazioni nel Regno Unito, Olanda, Germania e Svizzera, in particolare nel campo della polizia “preventiva”. Il rischio è che l’intelligenza artificiale agisca secondo i pregiudizi presenti nei dati sui quali ha appreso il proprio ‘mestiere’. È già successo, per esempio, con il sistema COMPAS, che negli Usa stimava il rischio di recidiva dei pregiudicati in modo da orientare le decisioni sulla libertà condizionata: a parità di precedenti, per i neri c’era una più alta probabilità di falso positivo (“alto rischio”), per i bianchi una più alta probabilità di falso negativo (previsione di ‘basso rischio”). 

Mijatović, evidenzia l’importanza di “statistiche sulle attività di polizia disaggregate per nazionalità lingua, religione e background nazionale o etnico” e di cause pilota per far emergere queste pratiche e trovare soluzioni. “Gli Stati – aggiunge - dovrebbero dotarsi di leggi che definiscano chiaramente e proibiscano la profilazione discriminatoria e che circoscrivano i poteri discrezionali degli agenti delle forze dell’ordine”. Queste vanno formate e bisogna anche definire standard di “ragionevole sospetto” da applicare per controlli e perquisizioni, le cui motivazioni andrebbero sempre spiegate a chi le subisce. 

La polizia, nei rapporti con i media, dovrebbe anche essere attenta a non diffondere pregiudizi legando condotte criminali a etnie, nazionalità o condizione di migrante. “I media, da parte loro, dovrebbero evitare di stereotipizzare le persone che appartengono alle minoranze, come migranti , rifugiati e richiedenti asilo, perché questo può alimentare il razzismo e contribuire alla normalizzazione di pratiche discriminatorie”. Al contrario, andrebbe raccontato correttamente “il contributo positivo delle minoranze alle comunità nelle quali vivono”.

Quanto agli algoritmi, la guardia deve essere alta sui dati che li alimentano, che non devono contenere pregiudizi, e le persone dovrebbero essere informate sull’utilizzo dei propri dati. In generale, non ci si dovrebbe affidare solo alle statistiche per prevedere la commissione di crimini. La Commissaria per i diritti umani sottolinea anche l’importanza dell’accesso a rimedi giudiziari ed extragiudiziari contro i casi di profilazione etnica, anche da parte di intelligenze artificiali. “I governi – conclude – dovrebbero investire in consapevolezza pubblica e in programmi educativi perché ognuno sviluppi le competenze necessarie per rapportarsi positivamente con quelle tecnologie e capire meglio le loro implicazioni sulla propria vita”. 

(14 maggio 2019)