InOnda Novità


L’Europa ha scritto le regole dell’intelligenza artificiale — ma chi la produce siede altrove?

da 9 Maggio 2026Europa Strategica, Politica0 commenti

L’AI Act entrerà in vigore ad agosto. Ma ieri è già stato allentato. E i modelli che contano non sono europei

di Francesco Giannetta — Maggio 2026


«Sortirne tutti insieme è la politica. Sortirne da soli è l’avarizia.» — Don Lorenzo Milani, Lettera a una professoressa, 1967


Ieri, a Bruxelles, l’Europa ha già cambiato idea

Il 7 maggio 2026 — ieri — il Parlamento europeo, il Consiglio e la Commissione hanno raggiunto un accordo politico su quello che viene chiamato Digital Omnibus: un pacchetto normativo che, tra le altre cose, ha spostato in avanti le scadenze più impegnative dell’AI Act. Le norme per i sistemi di intelligenza artificiale ad alto rischio — il cuore pulsante del regolamento, ciò per cui l’Europa è stata a lungo celebrata come avanguardia mondiale della governance tecnologica — non scatteranno più ad agosto 2026 come previsto. I sistemi indipendenti avranno tempo fino al 2 dicembre 2027. Quelli integrati in prodotti regolamentati fino al 2 agosto 2028.

L’AI Act non è ancora pienamente in vigore, ed è già stato rinegoziato.

Non è un dettaglio tecnico. È un segnale politico preciso: le pressioni dell’industria — preoccupata per i costi di conformità, per la competitività rispetto agli Stati Uniti e alla Cina, per la velocità con cui il mercato AI si muove — hanno prevalso sul calendario normativo. L’unica vera novità portata dall’accordo di ieri è il divieto delle applicazioni di cosiddetta “nudificazione”, gli strumenti che generano immagini sessuali non consensuali di persone reali. Una norma giusta. Ma, come ha scritto L’Indipendente, rischia di restare più simbolica che sostanziale, perché la norma lascia margini di ambiguità nella definizione stessa del divieto.

L’Europa, nel frattempo, continua a fare ciò che sa fare meglio: scrivere regole. La domanda che resta senza risposta è un’altra.

Chi produce l’intelligenza artificiale?

Nel 2026, il panorama globale dell’AI è dominato da un numero ristretto di attori. OpenAI — azienda privata americana, nata come no-profit e rapidamente diventata uno dei soggetti tecnologici più capitalizzati della storia — ha rilasciato GPT-5, un modello che ha alzato ulteriormente l’asticella delle capacità generative. Google ha Gemini. Meta ha reso disponibile Llama 4 con licenza permissiva per uso commerciale. Dalla Cina, DeepSeek ha sorpreso il mondo con prestazioni competitive costruite su un’infrastruttura computazionale notevolmente più contenuta rispetto agli standard americani; Alibaba ha pubblicato Qwen 2.5, particolarmente forte in matematica e programmazione.

L’Europa? Ha Mistral AI. È una startup fondata a Parigi nel 2023 da tre ricercatori trentennali usciti da Google DeepMind e Meta. È l’unico attore europeo che, a febbraio 2026, può competere direttamente con i modelli di frontiera americani. Il suo modello di punta, Mistral Large 3, ha 675 miliardi di parametri in architettura Mixture-of-Experts, una finestra di contesto da 256.000 token e licenza Apache 2.0 — il che significa che chiunque può scaricarlo, modificarlo, usarlo senza pagare royalty. I benchmark indipendenti lo collocano in diretta competizione con GPT-4 su numerosi compiti, con un vantaggio misurabile nell’efficienza computazionale e nel supporto multilingue.

Nel settembre 2025, ASML — la società olandese che produce le macchine indispensabili per fabbricare i chip più avanzati del mondo, e che è di fatto un monopolio tecnologico globale in quel segmento — ha investito 1,3 miliardi di euro nella Serie C di Mistral, portando la valutazione della startup a 11,7 miliardi e acquisendone l’11%. È un segnale industriale importante: il cuore del sistema produttivo europeo dei semiconduttori scommette sull’unico campione europeo dell’AI generativa.

Ma Mistral è una, e le sue risorse restano incomparabili rispetto a quelle di OpenAI o Google. Il resto del panorama europeo — Aleph Alpha in Germania, EuroLLM, TildeOpen in Lettonia, i modelli italiani Minerva e Velvet sviluppati da Almawave sul supercomputer Leonardo di Bologna — rappresenta sforzi validi ma ancora lontani dalla frontiera globale, spesso orientati a nicchie specifiche come il settore pubblico, la conformità normativa o il multilinguismo europeo.

Il paradosso dei campioni che lavorano altrove

C’è un dato che racconta il problema meglio di qualsiasi analisi. I tre fondatori di Mistral — Arthur Mensch, Timothée Lacroix, Guillaume Lample — sono europei. Venivano da Google DeepMind e da Meta, dove avevano costruito la loro competenza. Prima di fondare Mistral, quella competenza l’avevano sviluppata lavorando per aziende americane. Il movimento è quasi sempre in quella direzione: i ricercatori europei più brillanti nellno formati nelle università del continente — spesso con fondi pubblici europei — e poi trovano le opportunità più stimolanti e meglio remunerate a San Francisco, a Seattle, a New York.

Non è una questione di talento. È una questione di ecosistema. Gli Stati Uniti hanno capitale di rischio in quantità incomparabile. Hanno infrastrutture computazionali — i data center, le GPU — su una scala che l’Europa non ha ancora costruito, nonostante l’EuroHPC Joint Undertaking abbia messo in rete i principali supercomputer europei, tra cui Leonardo a Bologna e LUMI in Finlandia. Hanno mercati privati capaci di assorbire e remunerare l’innovazione in tempi brevissimi. Hanno un mercato del lavoro tecnologico dove lo stipendio di un senior AI researcher è strutturalmente tre o quattro volte quello europeo.

Il GDPR — la legge europea sulla protezione dei dati — ha dimostrato che l’Europa può costruire standard globali: oggi è il riferimento de facto per la privacy digitale in buona parte del mondo, anche fuori dall’Unione. Il cosiddetto “Brussels Effect” — la capacità delle normative europee di diventare standard globali per il solo peso del mercato interno — ha funzionato egregiamente sulla privacy. Funzionerà anche con l’AI Act? Molti analisti ne dubitano. La competizione geopolitica è diversa, le pressioni politiche degli Stati Uniti sono più intense, e soprattutto: il GDPR regolava qualcosa che le aziende americane facevano già in Europa. L’AI Act ambisce a regolare qualcosa che le aziende americane e cinesi stanno costruendo altrove, con dinamiche di sviluppo che sfuggono per definizione al perimetro normativo europeo.

Il ritardo che l’Italia non ha ancora nominato

In Italia, la situazione è ulteriormente complicata da un quadro istituzionale ancora incompleto. L’autorità nazionale competente per la vigilanza sull’AI Act è stata designata nell’ottobre 2025 nell’ACN — l’Agenzia per la Cybersicurezza Nazionale — con la Legge 132/2025. Ma a marzo 2026, il quadro di governance non era ancora completamente definito: AgID, il Garante per la protezione dei dati e l’AGCM hanno competenze che si sovrappongono parzialmente nell’ambito dei sistemi AI, e la delimitazione chiara dei ruoli è ancora in corso.

Nel frattempo, le aziende italiane che usano sistemi AI — e oggi quasi tutte le usano, spesso senza saperlo, integrate in software gestionali, CRM, strumenti di marketing — si trovano in una zona grigia: la legge c’è, le sanzioni ci sono (fino a 35 milioni di euro o il 7% del fatturato globale per le violazioni più gravi), ma l’autorità che dovrebbe farle rispettare non è ancora pienamente operativa.

Quello che la Regione Puglia potrebbe fare — e che ancora nessuno fa

La partita dell’intelligenza artificiale non si gioca solo nei laboratori di ricerca e nei board delle startup. Si gioca anche nelle pubbliche amministrazioni, negli ospedali, nelle scuole, negli uffici che ogni giorno gestiscono servizi essenziali per i cittadini.

La Puglia ha una pubblica amministrazione regionale che, negli ultimi anni, ha dimostrato capacità progettuale superiore alla media nazionale. Ha un sistema sanitario — per quanto sotto pressione — che gestisce volumi significativi di dati clinici. Ha università che formano informatici, matematici, fisici. Ha il CNR con i suoi istituti. Ha, insomma, le condizioni per diventare un laboratorio di adozione critica e sovrana dell’intelligenza artificiale nella PA meridionale: non un laboratorio di sperimentazione tecnologica fine a se stessa, ma un modello di come si usano strumenti AI nel rispetto dei diritti dei cittadini, con supervisione umana, trasparenza degli algoritmi, protezione dei dati sanitari e sociali.

Questo significa dotarsi di competenze interne per valutare i sistemi AI prima di adottarli — non affidarsi ciecamente alle valutazioni dei fornitori. Significa costruire linee guida regionali per l’uso dell’AI nei servizi pubblici, anticipando e non inseguendo la normativa nazionale. Significa partecipare attivamente ai processi di consultazione europei — la Commissione ne ha aperto uno proprio l’8 maggio 2026 sugli obblighi di trasparenza — portando il punto di vista di una regione meridionale che conosce cosa significa essere periferia di un sistema di potere che si decide altrove.

Don Milani lo avrebbe capito subito: nell’AI come nella scuola, il problema degli altri è uguale al nostro. Sortirne tutti insieme — con regole condivise, competenze diffuse, istituzioni capaci — è la politica. Aspettare che qualcun altro decida per noi è qualcos’altro.

Salento Dinamico nell’era degli algoritmi

Salento Dinamico ha sempre sostenuto che un territorio che non capisce le tecnologie che lo attraversano non è in grado di governarle. L’intelligenza artificiale non è un tema per specialisti: è la nuova infrastruttura del potere — economico, amministrativo, sociale. Chi la controlla decide chi riceve un mutuo, chi viene selezionato per un lavoro, come vengono allocate le risorse sanitarie, come viene sorvegliato lo spazio pubblico.

L’Europa ha scelto di regolare questa infrastruttura prima di costruirla. È una scelta coraggiosa e, per certi versi, storicamente coerente con il modello sociale europeo. Ma ieri ha già mostrato i suoi limiti: la regola si piega alle pressioni industriali, le scadenze slittano, le ambizioni si ridimensionano.

La risposta non è rinunciare alla governance. È costruire, parallelamente, la capacità di produrre — e non solo di consumare — intelligenza artificiale. E farlo partendo dai territori, dalle università, dalle istituzioni locali che ancora possono scegliere come stare in questa storia, prima che la storia sia già scritta altrove.


Fonti: Commissione Europea – AI Office, comunicato 8 maggio 2026; L’Indipendente, 8 maggio 2026 (Digital Omnibus); Agenda Digitale, marzo 2026; aipia.it, marzo 2026; ICT Security Magazine, febbraio 2026; ProcessoCivileTelematico.it, dicembre 2025; MarkTechPost, agosto 2025; aipia.it benchmark AI, marzo 2026; Legge 132/2025 (ACN); Regolamento UE 2024/1689 (AI Act)

Ai Act 2026

Leggi anche:

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Pin It on Pinterest