Diritto Criminologia e criminalistica

L’interpretazione delle Statistiche in ambito criminologico e forense

(di Lucio Tonello, Ferdinando Zamprogno, Massimo Cocchi, Glenda Cappello, Alfredo De Filippo, Fabio Gabrielli – L.U.de.S. University, Lugano, Svizzera).

La statistica è una disciplina matematica, spesso usata a scopo descrittivo per estrarre da dati storici delle informazioni sintetiche e chiare. Per questo tipo di impiego, è uno strumento che può essere estremamente diretto ed efficace. Tuttavia, occorrerebbe considerare che non sempre è così immediato ed intuitivo capire ciò che i risultati di una statistica possono esprimere. In alcuni casi, dati male interpretati possono indurre a conclusioni assolutamente non corrette, addirittura opposte alla realtà dei fatti. Questo aspetto, se considerato in ambito criminologico e forense, può tradursi in situazioni drammatiche.

Gerd Gigerenzer, psicologo tedesco, ha studiato in modo approfondito il problema. I suoi risultati lo hanno portato fino a redigere proposte di legge atte a limitare la manipolazione numerica in ambito processuale col fine di non confondere la giuria. Egli mostrò, ad esempio, come sia molto più facile fraintendere un valore espresso in percentuale piuttosto che una cifra espressa in termini assoluti. Uno dei metodi che utilizzò per dimostrare la sua affermazione fu un interessante esperimento: reclutò 127 studenti di legge ai quali chiese di valutare gli atti di un processo penale. Si trattava di un caso di stupro seguito da omicidio e la documentazione processuale comprendeva la descrizione delle analisi sulle tracce dell’assassino, trovate sulla vittima. Le cifre disponibili negli atti (tutte relative alle analisi sulle tracce trovate), furono fornite a metà degli studenti in termini percentuali, all’altra metà come numeri assoluti. Sostanzialmente gli studenti furono divisi in due gruppi ai quali furono dati gli stessi identici elementi, con la sola differenza che i medesimi valori numerici furono forniti in termini percentuali ad un gruppo ed assoluti all’altro.
Gigerenzer chiese ad ogni studente di analizzare gli atti e di esprimere un giudizio sull’imputato. Gli studenti che avevano a disposizione le cifre assolute sentenziarono la colpevolezza solo nel 30% dei casi, mentre gli studenti che avevano a disposizione i valori percentuali si dichiararono convinti della colpevolezza nel 55% del campione: esprimendo le cifre in percentuale, si era ribaltata la maggioranza ed anzi, erano quasi raddoppiati i “colpevolisti”!

Dunque, la stessa informazione numerica, solo espressa in modo diverso, aveva completamente cambiato il verdetto dei giurati!

L’esperimento di Gigerenzer ammonisce che occorre prestare estrema attenzione ai dati statistici, che possono essere forvianti se considerati con superficialità. Di fronte al dato statistico occorre sempre riflettere a fondo sul suo significato. Un caso reale, che potrebbe essere esemplare in questo senso, è il noto processo a O.J. Simpson. [2].

Il celebre sportivo ed attore americano era accusato dell’omicidio della moglie (e del suo presunto amante) col movente della gelosia. Al processo, l’accusa basò la sua strategia iniziale dimostrando che prima dell’omicidio, Mr. Simpsons era stato violento con la moglie, documentando episodi di violenza domestica. L’abilissima difesa, per far crollare questa strategia mostrò alcuni dati statistici.

In particolare, uno degli avvocati di O.J., Alan Dershowitz spiegò che ogni anno circa quattro milioni di donne subivano violenze (dati USA) da parte dei compagni (mariti o conviventi). Se si contavano gli omicidi attribuibili agli stessi individui autori delle violenze, questi erano solo 1432 (anno di riferimento al processo, 1992). Pertanto, concluse la difesa, la percentuale di soggetti vittime di violenza che vengono poi uccisi dal compagno sono solo lo 0.04%. Dunque, non vi sarebbe relazione tra violenze domestiche ed omicidi: le violenze perpetrate dall’accusato non sarebbero ammissibili come prove dell’omicidio.
Questo risultato, documentato da fonti assolutamente attendibili, fu certamente influente agli occhi della giuria.

In realtà, l’analisi statistica mostrata, seppur matematicamente corretta, non implicava esattamente quanto asserito dalla difesa. Detta analisi infatti permetteva solo di affermare che se una donna subisce violenza in casa, la probabilità di essere uccisa dal partner è molto bassa (0.04%). La vittima di Simpson aveva subito violenza domestica e, se fosse stata ancora viva, le si sarebbe potuto applicare la statistica mostrata e dire che avrebbe avuto la probabilità di essere uccisa solo dello 0.04%. Il punto è che lei era stata uccisa: non rientrava più in quella probabilità e la statistica proposta non era adatta.

Dunque, in sede processuale sarebbero state opportune altre considerazioni di natura matematico-statistica, ma l’accusa si trovò impreparata e non replicò. Alla fine l’imputato fu dichiarato non colpevole, anche se condannato a diversi risarcimenti, in una controversa sentenza che continua a far discutere.

Il caso fu molto studiato e solo tempo dopo furono proposte analisi statistiche più opportune. In particolare, si osservò che se su un campione di 100.000 donne si consideravano quelle assassinate e che erano precedentemente state picchiate dal compagno (cioè il nostro caso), si contavano 45 donne. Di queste, ben 40 risultavano uccise dal proprio marito, e solo 5 da persone estranee. In termini percentuali, si traduce affermando che se una donna è vittima di violenze da parte del compagno e poi viene assassinata, la probabilità che il colpevole sia lui è quasi del 90%: un risultato in contrasto con quello asserito dalla difesa al processo ed in effetti, più opportuno.

Si osservi anche in questo caso come, dati relativi allo stesso fenomeno, diversamente considerati, possano portare a risultati apparentemente opposti. Sembra quasi che alcune statistiche siano bugiarde o quantomeno forvianti. In realtà, a meno di errori di calcolo, le statistiche non sono mai “false”, i risultati non sono mai scorretti. Piuttosto è l’interpretazione che si da ad essere corretta o scorretta. Nell’esempio di OJ Simpson infatti, emerge che quando si interpretano dati statistici in modo impreciso, superficiale, comunque non corretto, si può arrivare a conclusioni assolutamente false.[3]

A tale proposito, vale la pena riflettere su un ulteriore esempio che si propone come un “classico” della letteratura statistica perché considerato illuminante dal punto di vista didattico.
Nel 1970, presso l’Università della California a Berkeley, si osservò che il numero di soggetti maschi ammessi erano il 44% degli aspiranti mentre le femmine solamente il 35%. Il numero di maschi ammessi era notevolmente superiore alle femmine e fu mossa l’accusa di discriminazione di genere. Un’analisi più approfondita valutò come fossero distribuite le richieste di ammissione nei diversi corsi di laurea. Si osservò che le femmine sceglievano con maggior frequenza corsi di laurea più impegnativi, con numero superiore di non ammessi. Non era dunque un problema di discriminazione quanto un effetto della tendenza dei due sessi a scegliere corsi di laurea diversi, caratterizzati da differenti livelli di difficoltà, cioè con maggiore o minore facilità di ammissione. In particolare, le femmine avevano la propensione a cercare l’ammissione in corsi di laurea più difficili, con maggiore tasso di respinti. Questa tipologia di errore statistico è noto come “paradosso di Simpson” dal nome dello studioso che ne mise in luce ogni dettaglio [4].

Anche in questo caso, si osservi che l’errore non è nella statistica: è innegabile che vi sono molti più ammessi tra i maschi che tra le femmine. L’errore è nel dedurre che ciò che causa questa differenza sia la discriminazione di genere: è sbagliata l’interpretazione del dato, non il dato stesso! L’errore nasce solo quando si attribuisce un significato, una motivazione al risultato che si ottiene.Ogni buon statistico conosce questi tipi di errore e utilizza tutte le strategie opportune per limitarli. Tuttavia è un problema molto più frequente di quanto si possa pensare. Volendo rimanere nell’ambito della discriminazione si riporta un ulteriore e più recente esempio che dovrebbe apparire più chiaro del precedente.

Nel 2003, la Polizia di Oakland (California, USA) era molto attenta nei confronti di possibili atteggiamenti razzisti da parte dei propri agenti [5]. A tal fine, delegò un’agenzia, la RAND ad analizzare le informazioni relative alle auto fermate dagli agenti per evincere eventuali tendenze a controllare con maggior frequenza quelle guidate da persone di colore. Vennero analizzati 7607 interventi (tra giugno e dicembre del 2003) per trovare eventuali indicazioni di possibili profiling razzisti. Il dato che sembrava confermare questa tendenza fu che i fermi ed i controlli riguardavano persone di colore nel 56% dei casi nonostante questa minoranza costituisse solo il 35% dei residenti. La tendenza a fermare maggiormente le persone di colore sembrava evidente. Tuttavia, un’analisi più approfondita, evidenziò che Oakland, come molte altre città, ha delle aree in cui il tasso di criminalità è più alto rispetto ad altre. E’ altresì vero che la polizia aveva ordine di pattugliare maggiormente quelle zone, considerate più insicure. Poiché le aree a maggior criminalità erano quelle con maggior presenza di minoranze etniche, il maggiore tasso di controlli in quelle aree si traduceva in un maggior numero di controlli nei confronti delle minoranze stesse. Per questo, il risultato non fu considerato una prova convincente di comportamenti razzisti da parte della polizia e la RAND attuò altri tipi di analisi per studiare il fenomeno.

Ancora una volta, il dato statistico non è scorretto: i numeri non mentono quando mostrano che il numero di automobilisti di colore fermati è superiore. L’errore nasce quando si vuole attribuire una causa, in questo caso la natura razziale della differenza.

Le analisi statistiche sono uno strumento fondamentale sia in ambito criminologico che forense. Spesso possono essere potenti armi nelle mani della giustizia e pertanto se ne auspica un largo utilizzo. Tuttavia occorre prestare molta attenzione al loro impiego. In questo testo abbiamo riportato solo alcuni dei molti errori che continuamente si verificano e di come frettolose interpretazione possano portare a pericolose conclusioni, assolutamente scorrette. Pertanto si vorrebbe esortare quanti operano nei vari ambiti del diritto e della giustizia ad essere più attenti di fronte ad un dato statistico, senza dare per scontato il suo significato e senza accettare passivamente l’interpretazione proposta. Si vorrebbe esortarli, in caso di dubbio, a non esitare a consultare un esperto. Perché si ricordi che l’errore, se presente, raramente è nel dato. Più spesso è nella superficialità di chi lo osserva.

Bibliografia

[1] Gigerenzer G. Quando i numeri ingannano, Raffaello Cortina Editore, Milano 2003.

[2] Lucarelli C. Picozzi M. Scena del Crimine. Mondadori, Milano 2005.

[3] Tomatis M. Numeri assassini. Kowalski, Milano 2011.

[4] E.H. Simpson. “The Interpretation of Interaction in Contingency Tables,” Journal of the Royal Statistical Society, Ser.B, 13 (1951) 238-241.

[5] Devlin K. Lorden G. (2007). The numbers behind NUMB3RS: solving crime with mathematics. Plume.

Download PDF