quando a Mirandola arriva una cosa “intelligente”, bisogna subito metterla al lavoro per rimediare ai pasticci di chi fin qui ha governato molto peggio di quanto racconti.

Il 1° aprile 2026 la Giunta approva il pacchetto della nuova religione amministrativa: FRIA, valutazione dei rischi IA, informativa privacy aggiornata e benedizione politica finale. In italiano corrente: il Comune mette il cappello giuridico a sistemi di intelligenza artificiale già “in uso o in fase di implementazione” e aggiorna i cittadini sul fatto che adesso non ci sono più solo le telecamere. Adesso ci sono le telecamere che pensano. O meglio: fingono di pensare, mentre qualcun altro finge di governarle.
L’informativa racconta che videosorveglianza, lettura targhe e fototrappole usano IA per analizzare automaticamente le immagini, rilevare situazioni di rischio e comportamenti anomali. Però, con quella faccia tosta vellutata tipica del burocratese, ti rassicura pure dicendo che la videoanalisi “non avviene in diretta, ma esaminando la registrazione delle immagini” e che non ci sono decisioni automatizzate, perché ogni decisione resta sottoposta al controllo umano. Cioè: tranquilli cittadini, non vi inseguono in tempo reale; vi riguardano con calma dopo, con il medesimo zelo con cui da anni non riescono a chiudere un cantiere in tempo.
Poi però uno apre davvero la FRIA, e lì la sceneggiata si incrina. Perché il sistema “VideoAnalisi LIVE” viene descritto come capace di rilevare in tempo reale comportamenti anomali o potenzialmente critici, con osservazione automatica e continua delle immagini e generazione di alert. Dunque il cittadino dovrebbe scegliere a quale favola credere: a quella per cui la videoanalisi non è in diretta, o a quella per cui il sistema osserva in tempo reale. È il solito capolavoro locale: due documenti, due versioni, una sola certezza. Quando il Comune parla di tecnologia, la prima cosa che va in crash è la coerenza.
Il vero spettacolo, però, è la lista delle funzioni già attive. Non stiamo parlando della telecamerina che registra la piazza e poi si addormenta. No. Qui risultano già attivi il rilevamento di comportamento anomalo, il filtro ambientale AI, gli oggetti dimenticati o persi, le analitiche tripwire, la classificazione e verifica degli oggetti, il conteggio persone e veicoli, il monitoraggio della densità, il distanziamento sociale e analisi gruppi, il rilevamento gruppi e folle, lo stazionamento di persone, la ricerca forense negli avvisi, l’offuscamento automatico dei volti e il riconoscimento targhe. In pratica non una videosorveglianza, ma una specie di guardone pubblico con il gestionale. Il Comune la chiama sicurezza urbana. Il resto del mondo la chiamerebbe, più sobriamente, fame di controllo con interfaccia web.
La cosa più ridicola è che la stessa FRIA cerca pure di minimizzare. A un certo punto scrive che il sistema “non raccoglie dati personali”. Magnifico. Peccato che l’informativa comunale dica l’opposto, e cioè che il sistema tratta dati personali costituiti da immagini e video. E peccato anche che la stessa FRIA ammetta rischi legati ai movimenti delle persone, al tempo trascorso vicino a edifici o aree specifiche, agli spostamenti, agli incontri, alle soste. Cioè riescono nel prodigio amministrativo di descrivere un sistema che segue comportamenti, conta presenze, osserva gruppi, intercetta traiettorie e legge targhe, salvo poi raccontare con aria innocente che non tratta davvero dati personali. Siamo oltre la contraddizione: siamo alla supercazzola regolatoria con allegato tecnico.
E non è finita. La funzione “comportamento anomalo” viene spiegata dicendo che il sistema “impara la condizione di movimento ordinaria” e segnala ciò che esce dalla norma. Però poche righe prima la FRIA giura che il sistema “non apprende dai dati osservati”. È l’intelligenza artificiale di Mirandola: apprende senza apprendere, osserva senza guardare, classifica senza classificare, tratta dati personali senza trattare dati personali. Non un sistema tecnologico, ma un Giano bifronte tecnico-amministrativo: tutto e il contrario di tutto, purché timbrato, protocollato e approvato in Giunta.
E allora sì, viene da dirlo in modo più brutale. La Ducale arruola l’intelligenza artificiale non perché sappia cosa farsene davvero, ma perché il potere di paese ha sempre avuto un debole patologico per qualsiasi cosa gli permetta di vedere di più, spiegare di meno e schermarsi dietro una sigla inglese. FRIA, AI, LIVE, alert, deployer, provider: basta il lessico da convegno per far sembrare moderno anche il solito vecchio istinto del piccolo apparato che vorrebbe controllare tutto, soprattutto quando viene messo in ridicolo. E così eccoci qua: la Polizia Ducale con la macchina che rileva anomalie, conta gruppi, traccia soste, cataloga oggetti e legge targhe. Il sogno erotico di ogni amministrazione mediocre: non risolvere i problemi, ma sorvegliarli.
Naturalmente, da nessuna parte c’è scritto che il sistema serva a trovare il Fico. Sarebbero stati troppo onesti. Però la tentazione poetica resta irresistibile: se hai un apparato che fiuta comportamenti anomali, controlla gli stazionamenti, scandaglia le registrazioni, ricerca forense negli avvisi e sogna pure il riconoscimento facciale “su richiesta del fornitore”, è difficile non immaginare la Ducale mentre spera che da qualche pixel, da qualche targa, da qualche sosta troppo lunga, salti finalmente fuori il mostro che la perseguita. Il problema è che il Fico, purtroppo per loro, non è un oggetto smarrito, non è una folla, non è un alert, non è una targa. È il riflesso più fastidioso che possano incontrare: quello di qualcuno che legge le carte con cui cercano di proteggersi.
Il risultato finale è quasi tenero, se non fosse tragicomico. Una Giunta che il primo aprile si mette in posa davanti alla modernità digitale. Una FRIA piena di parole grosse e contraddizioni piccole ma letali. Un’informativa che prova a tranquillizzare mentre l’allegato tecnico allarga il perimetro del controllo. E la solita Mirandola di sempre, dove quando arriva l’innovazione non serve a rendere più trasparente il potere, ma solo a renderlo più permaloso, più occhiuto e più ridicolo. La Ducale arruola l’intelligenza artificiale. Il Fico, per ora, resta non rilevato. Ma soprattutto resta non addomesticabile. E questa, per loro, è l’unica vera anomalia che il sistema non riuscirà mai a correggere.
Un momento di serietà: visto che qui sono in gioco i diritti delle persone, sarebbe stato opportuno discutere questo documento in Consiglio Comunale. L’argomento è troppo importante e troppo carico di possibili conseguenze per essere lasciato a un allegato — la FRIA — sostanzialmente scritto dal fornitore del sistema e recepito quasi tale e quale dentro una delibera di Giunta.
Fonti: Deliberazione di Giunta n. 68 del 01/04/2026; FRIA “Fundamental Rights Impact Assessment – Sistema di Video Analisi”; Informativa sul trattamento dei dati personali aggiornata con integrazione AI. (informativa e fria trasformati in pdf dal momento che sul sito erano caricati in word)

Lascia un commento