di Lucia Abbatantuono.
Questo avveniristico sistema di polizia predittiva, (ossimoro che agli amanti dell’etica legale non andrà tanto a genio), sarà presto a disposizione delle questure italiane con una duplice finalità: da una parte sarà utilizzato nella prevenzione e nella repressione dei veri e propri crimini, come furti in abitazione, rapine in esercizi commerciali e banche, truffe ai danni di persone vulnerabili e anche violenze sessuali o molestie; dall’altra potrà essere di supporto nelle fasi relative alle indagini preliminari. In futuro il sistema potrebbe anche essere impiegato, col potenziamento delle sue capacità, nel più ampio campo del terrorismo. Giove non è presentato come un dispositivo informatico che dirà alla Polizia l’ora e il luogo in cui avverrà il crimine per poter così sventarlo prima che l’atto sia compiuto, ma come un aiutante capace di analizzare i dati generali del territorio per consentire alle forze dell’ordine di attuare una migliore dislocazione in area del personale, dedurre quali siano gli orari e i momenti più critici in base alle diverse fasce orarie della giornata, e molto altro ancora. Un esempio pratico? Giove potrebbe catalogare il modus operandi di una specifica banda di rapinatori collezionando e interpolando le caratteristiche dei colpi già messi a segno, indirizzando così la Polizia verso il prossimo bersaglio con un margine di prevedibilità tecnicamente valido. I detective potranno quindi contare su un algoritmo di intelligenza artificiale controllato. Ma da chi? E come?
Gli addetti ai lavori chiamano questo sistema crime linking, cioè “collegamento di crimini“. In termini informatici questa procedura è diversa dalla cosiddetta hotspot analysis, perché piuttosto che segnalare aree con alta incidenza di reati andando a criminalizzare le zone stesse senza però risolvere il problema, punta alla ricerca di comportamenti ripetuti suscettibili di condurre direttamente a rintracciarne i responsabili.
A dire il vero non si tratta di un fulmine a ciel sereno: già nel 2008 la Questura di Milano aveva sperimentato il sistema informatico denominato Keycrime, al fine di contrastare soprattutto le rapine compiute a danno di farmacie ed esercizi commerciali. In seguito i tecnici hanno ripreso questo progetto iniziale e dal 2020 si erano già impegnati nel suo sviluppo, arrivando oggi alla piena operatività di Giove che, per quanto di notevole ausilio alle forze dell’ordine, apre un serio dibattito sulla privacy e sull’uso dei dati personali.
Infatti se è vero che Giove dovrà essere costantemente alimentato per migliorarne capacità e precisione con dati sensibili che gli saranno ovviamente offerti in pasto, altrettanto vero è che questi dati dovranno essere adeguatamente protetti per evitare che finiscano nelle mani sbagliate, andando così a danneggiare invece che agevolare la giustizia. Inoltre, sarebbe opportuno che la procedura necessaria al suo corretto utilizzo precluda la creazione quasi automatica di liste nere nelle quali l’intelligenza artificiale decida di inserire determinati soggetti o determinate fasce di popolazione (i cosiddetti “bias”).
Francesco Messina, Capo della Direzione Centrale Anticrimine della Polizia di Stato, è subito intervenuto per smorzare questo genere di timori, assicurando la presenza fondamentale degli operatori umani che saranno predisposti al controllo di Giove, e garantendo la limitazione strutturale nell’uso dei dati, che saranno nella sostanza legati solo a reati e denunce, e nella forma comunque crittografati.
Sul tutto incombe però la regolamentazione europea sull’intelligenza artificiale, di cui si discuterà tra poche settimane sia a Bruxelles che a Montecitorio, e che potrebbe cambiare sia lo scenario sia il raggio d’azione di Giove.
Intanto il Garante della privacy sta già valutando se dare o meno il suo assenso all’utilizzo del sistema: altre esperienze già attuate altrove in giro nel mondo sembrano dimostrare che troppo spesso questi sistemi non funzionino correttamente, o che comunque non siano in grado di trovare corrispondenze affidabili con la realtà, finendo perfino con l’operare sulla base di forti pregiudizi.
Ad oggi, del resto, non risulta che siano stati diffusi comunicati stampa ufficiali dal Dipartimento di pubblica sicurezza finalizzati a chiarire quali banche dati e quali dati saranno utilizzati per addestrare l’algoritmo di Giove, né alcuna autorità ha dichiarato finora se le vittime di reato saranno obbligate o meno a rispondere ai set di domande usati per l’addestramento del nuovo super-poliziotto; e nessuna comunicazione ufficiale ha finora reso note le generalità di chi ne sarà il responsabile del trattamento dei dati.
Non sappiamo neanche se Giove potrà interagire col sistema di riconoscimento facciale Sari, già in dotazione alle nostre forze dell’ordine, né quali siano le misure di sicurezza informatica implementate per proteggere dati e sistema, o se saranno create unità operative speciali appositamente addestrate per il corretto utilizzo del sistema e la relativa verifica dei risultati. Soprattutto, non sappiamo se l’uso del sistema comporterà o meno arresti preventivi, o solo azioni dissuasive appositamente messe in campo dagli agenti di sicurezza. Di fronte a simili non balzani quesiti, torna in mente la saggia ironia di Isaac Asimov quando ammoniva “i robot potrebbero diventare così intelligenti da riuscire a sostituirci. Con un tocco di cinismo, visto il curriculum dell’umanità, potrebbe essere una buona cosa“. Non ci resta che attendere gli eventi, con la lucidità necessaria a poter affrontarli se il caso (o la sventatezza) lo richiedesse.