InOnda Novità


L’intelligenza artificiale è già legge in Europa. L’Italia lo sa?

da 14 Aprile 2026Internet, Politica0 commenti

Ad agosto 2026 scatta la piena applicazione dell’AI Act: stessa scadenza del PNRR, stesse domande su chi governerà la transizione nei territori

di Francesco Giannetta — Aprile 2026


C’è una data che dovrebbe stare sulla scrivania di ogni sindaco, ogni assessore, ogni dirigente di ente pubblico in Italia: 2 agosto 2026. Tra meno di quattro mesi, il Regolamento Europeo sull’Intelligenza Artificiale — il cosiddetto AI Act — diventa pienamente applicabile. Obblighi, classificazioni, sanzioni, responsabilità. Non ipotesi. Legge.

È la stessa data in cui scade formalmente il PNRR.

Due scadenze europee che arrivano insieme. E mentre sul PNRR il dibattito esiste — anche se spesso si riduce a comunicati stampa — sull’AI Act c’è quasi silenzio. Soprattutto nei territori del Mezzogiorno.


Cosa dice la legge

Il Regolamento (UE) 2024/1689, entrato in vigore il 1° agosto 2024, è il primo quadro giuridico organico al mondo sull’intelligenza artificiale. Non una raccomandazione, non un codice etico: un regolamento direttamente applicabile in tutti gli Stati membri, senza bisogno di recepimento, che riguarda chiunque sviluppi, distribuisca o utilizzi sistemi di intelligenza artificiale nell’Unione Europea.

La logica è quella del rischio graduato: quattro livelli, dal rischio inaccettabile (sistemi vietati — come il social scoring alla cinese, la manipolazione comportamentale, il riconoscimento facciale in tempo reale negli spazi pubblici), all’alto rischio (sistemi che operano in sanità, selezione del personale, credito, giustizia, trasporti, infrastrutture critiche), fino al rischio limitato e minimo, che riguarda la stragrande maggioranza delle applicazioni attuali.

Il calendario dell’applicazione è già in parte scattato: dal 2 febbraio 2025 sono vietati i sistemi a rischio inaccettabile. Dal 2 agosto 2025 sono entrate in vigore le regole per i modelli di intelligenza artificiale general purpose — i grandi modelli linguistici come quelli alla base dei sistemi più noti. Dal 2 agosto 2026 si applica la disciplina completa per i sistemi ad alto rischio. Dal 2 agosto 2027, anche i sistemi integrati in prodotti regolamentati dovranno essere conformi.

Le sanzioni sono significative: fino a 35 milioni di euro o il 7% del fatturato mondiale annuo per l’uso di sistemi vietati. Fino a 15 milioni o il 3% per altre violazioni.


L’Italia: prima in Europa, ancora indietro nell’attuazione

Sul piano formale, l’Italia ha fatto qualcosa di raro: è stato il primo Stato membro ad approvare una legge nazionale organica in materia. La Legge 23 settembre 2025, n. 132, entrata in vigore il 10 ottobre 2025, integra l’AI Act europeo con disposizioni specifiche per sanità, lavoro e pubblica amministrazione.

Sul piano istituzionale, la legge assegna all’Agenzia per la Cybersicurezza Nazionale (ACN) i poteri ispettivi e sanzionatori, ad AgID il ruolo di autorità di notifica, e mantiene il Garante Privacy per i profili di trattamento dati connessi all’AI.

Ma tra il testo di legge e l’attuazione concreta nei territori c’è una distanza che dovrebbe preoccupare. I decreti legislativi attuativi sono ancora attesi. Le autorità nazionali sono operative, ma la rete di vigilanza a livello locale è quasi assente.

Nel frattempo, i dati dicono che la transizione sta già accadendo, con o senza governance. Secondo i dati ISTAT del dicembre 2025, la quota di imprese italiane con almeno 10 addetti che utilizza tecnologie di intelligenza artificiale è passata dal 5% del 2023 all’8,2% del 2024, fino al 16,4% nel 2025: un raddoppio in un anno. Chi controlla che questi sistemi rispettino le regole? Chi verifica che i sistemi usati nella sanità pubblica, nella selezione del personale, nella valutazione dei crediti siano registrati nel database europeo obbligatorio?


Il nodo del Mezzogiorno

Quello che colpisce, guardando la mappa dell’AI Act dal basso, è che il regolamento non distingue tra Nord e Sud. Gli obblighi si applicano a tutti, ovunque. Ma la capacità di rispondervi — in termini di competenze digitali, strutture di compliance, consulenza specializzata, formazione del personale pubblico — non è distribuita in modo uniforme nel Paese.

Le regioni del Mezzogiorno, e il Salento in particolare, sono già in ritardo strutturale su quasi ogni indicatore di transizione digitale. La banda larga non copre uniformemente i comuni. I piccoli enti locali non hanno uffici dedicati alla transizione digitale. Gli investimenti del PNRR sulla digitalizzazione della PA — che avrebbero dovuto colmare parte di questo gap — sono tra le linee con il tasso di attuazione più basso.

Eppure l’AI Act non aspetta. Dal 2 agosto 2026, un comune che usa un sistema di AI per la gestione delle pratiche di assistenza sociale, o un’ASL che si affida a strumenti automatizzati per la valutazione delle priorità sanitarie, dovrà avere documentazione, supervisione umana, registrazione nel database europeo.

Chi li ha formati? Chi li sta accompagnando?


La domanda che il Salento dovrebbe porsi

C’è qualcosa di paradossale in questa storia. L’Europa ha scritto le regole più avanzate al mondo sull’intelligenza artificiale. L’Italia è stata la prima a recepirle con una legge organica. Ma nei territori, soprattutto nel Mezzogiorno, l’AI Act è ancora quasi sconosciuto ai soggetti che saranno chiamati ad applicarlo.

Non si tratta di un problema tecnico per gli addetti ai lavori. Si tratta di sapere chi decide, in una ASL del Salento, quale sistema di intelligenza artificiale viene usato per supportare le diagnosi. Chi valuta che quel sistema non discrimini, che la supervisione umana sia garantita, che i dati dei cittadini siano protetti. Si tratta di capire se i servizi pubblici locali saranno attrezzati per tutelare i diritti delle persone nell’era dell’AI — o se anche questa transizione avverrà senza che il territorio ne sia protagonista consapevole.

Come scrisse Don Lorenzo Milani: “Ho imparato che il problema degli altri è uguale al mio. Sortirne tutti insieme è la politica. Sortirne da soli è l’avarizia.” La transizione digitale è una sfida collettiva. Lasciare che i territori più fragili la affrontino da soli — senza strumenti, senza formazione, senza governance — non è incapacità. È una scelta.


Il territorio che non vuole restare indietro

Chi guarda il Salento da qui — con gli occhi di chi studia lo sviluppo territoriale da oltre vent’anni — sa che il problema non è mai stata la mancanza di regole. Il problema è sempre stato chi le fa applicare, chi forma le persone, chi costruisce le condizioni perché anche i territori più lontani dai centri di potere possano essere protagonisti di una transizione e non semplici destinatari passivi di norme scritte altrove.

Il progetto Salento Dinamico, elaborato tra il 2000 e il 2009, aveva già individuato nell’infrastruttura digitale e nelle competenze tecnologiche una delle leve fondamentali per lo sviluppo integrato del territorio. Quello che non si immaginava allora — o forse sì, guardando lontano — è che vent’anni dopo avremmo avuto un regolamento europeo sull’intelligenza artificiale e un territorio che ancora non sa bene come rispondergli.

La scadenza di agosto 2026 arriva tra quattro mesi. Tre domande rimangono aperte: gli enti pubblici del Salento sanno che esiste l’AI Act? Hanno fatto l’inventario dei sistemi AI che già usano? E c’è qualcuno che li sta aiutando a prepararsi?


Fonti: Regolamento (UE) 2024/1689 — Gazzetta Ufficiale UE 12 luglio 2024, Commissione Europea — digital-strategy.ec.europa.eu, Legge 23 settembre 2025 n. 132 (Disposizioni in materia di intelligenza artificiale), ISTAT — “Le imprese italiane e l’intelligenza artificiale” dicembre 2025, Comunicato stampa Commissione Europea 9 aprile 2026 (AI Continent Action Plan), AI4Business.it, BSDLegal.it, ACN — Agenzia per la Cybersicurezza Nazionale, AgID — Agenzia per l’Italia Digitale.

EU AI ACT

Leggi anche:

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Pin It on Pinterest