Verso un’Europa innovativa: l’IA come infrastruttura critica

In un’era in cui l’incessante flusso di informazioni viaggia ormai più veloce del tempo stesso, l’intelligenza artificiale (IA, o AI in inglese) si è affermata come una presenza sempre più pervasiva in diversi ambiti, dal più banale dei dilemmi quotidiani alla complessa gestione delle infrastrutture globali. Questa tecnologia, che un tempo era solo un sogno di pochi visionari, ora permea la società con la sua capacità di processare dati con una velocità e precisione straordinarie. L’IA promette di rivoluzionare interi settori, migliorare la qualità della vita e affrontare sfide globali, ma solleva anche questioni cruciali di sicurezza, etica e governance. È fondamentale monitorare attentamente il suo sviluppo per mitigarne i rischi, poiché la sua natura ibrida, che trascende la semplice categorizzazione come strumento hardware o software, presenta sfide uniche nella sua analisi e nel suo inquadramento normativo. La vigilanza costante è necessaria per assicurare che l’IA, mentre prosegue nel suo cammino di progresso, rimanga uno strumento al servizio dell’umanità.

 

Le strategie dell’Unione Europea

In questo contesto si inserisce con il suo quadro etico e regolatorio l’Unione Europea, che già dal 2018 ha riconosciuto l’intelligenza artificiale come un’area di importanza strategica con il potenziale di diventare un motore chiave dello sviluppo economico, pur riconoscendone i rischi.[1] Sempre nel 2018 la Commissione Europea ha annunciato il Coordinated Plan on Artificial Intelligence (Piano Coordinato sull’Intelligenza Artificiale), che si è posto l’obiettivo di rafforzare la cooperazione intra-UE sul tema, condividere i dati (materia prima dell’IA) e massimizzare l’impatto degli investimenti nell’intelligenza artificiale, con il traguardo a lungo termine di garantire che l’UE nel suo complesso possa competere a livello globale.[2] Il Piano è stato aggiornato nel 2021 con lo scopo di allinearlo alle priorità digitali derivate dalla pandemia di COVID-19, proponendo un quadro d’azione per sfruttare il potenziale dell’IA tramite la creazione di condizioni politiche favorevoli per la sua implementazione, sostenendo l’UE come luogo d’eccellenza negli investimenti per la ricerca e le infrastrutture, e sviluppando una leadership strategica in settori cruciali ad alto impatto, inclusi la salute, i cambiamenti climatici e la sicurezza interna.[3] Nell’evoluzione dell’approccio dell’Unione Europea all’intelligenza artificiale, l’High Level Expert Group on Artificial Intelligence o AI HLEG (Gruppo di Esperti di Alto Livello sull’IA), nominato nel 2018 dalla Commissione Europea per fornire assistenza sulle strategie da seguire, ha avuto un ruolo determinante. Tra le raccomandazioni enunciate dal gruppo, importanti sono le 7 chiavi per un approccio human-centric (centrato sull’uomo) che i sistemi di IA dovrebbero soddisfare per essere ritenuti affidabili, e i requisiti etici che hanno aiutato ad orientare le fasi legislative successive, inclusa la Communication on Building Trust in Human Centric Artificial Intelligence (Comunicazione sulla Costruzione della Fiducia nell’IA Centrata sull’Uomo) e il White Paper on Artificial Intelligence (Libro Bianco sull’IA). Il gruppo ha inoltre lavorato in stretta collaborazione con l’AI Alliance, un forum online composto da oltre 4000 membri tra accademici, rappresentanti del mondo industriale, cittadini e politici, che ha fornito feedback essenziali e contribuito significativamente non solo alla definizione degli obiettivi dell’AI HLEG ma anche alla versione aggiornata del 2021 del Coordinated Plan on AI.[4]

 

L’AI Act

Con queste premesse è poi stato trovato un accordo, a dicembre 2023, per la nascita del fiore all’occhiello dell’Unione Europea, l’AI Act (Regolamento sull’intelligenza artificiale), il primo quadro giuridico al mondo sull’intelligenza artificiale (che entrerà effettivamente in vigore dal 2026), che mira a “rafforzare la posizione dell’Europa come hub globale di eccellenza nell’IA, dal laboratorio al mercato, garantire che l’IA rispetti i valori e le regole Europee, e sfruttare il potenziale dell’IA per uso industriale” (World Economic Forum 2023), ponendo l’UE alla guida a livello mondiale delle regolamentazioni riguardanti l’intelligenza artificiale.[5] Mentre il Coordinated Plan on Artificial Intelligence mirava a stimolare gli investimenti e l’adozione dell’IA, nonché ad allineare le politiche degli Stati Membri per prevenire la frammentazione, l’AI Act è stato creato per garantire che i sistemi immessi sul mercato europeo siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. Infatti, questa norma si distingue per il suo approccio basato sul rischio, classificando i sistemi di IA in base al loro potenziale pericolo e stabilendo requisiti rigorosi per i sistemi considerati ad alto rischio.

La classificazione dei sistemi di IA in base al rischio è la seguente: (rischio) inaccettabilealtolimitatominimo o nessuno. I sistemi inaccettabili sono illegali, come quelli che riconoscono le emozioni in contesti lavorativi o educativi. I sistemi ad alto rischio, dunque ad alto impatto sui diritti fondamentali, includono quelli per la valutazione del credito e la diagnosi medica, e sono soggetti a requisiti rigorosi quali il controllo sulla qualità dei dati o la presentazione di documentazione tecnica che ne dimostri la conformità. I sistemi a rischio limitato, come i chatbot, richiedono trasparenza sull’uso dell’IA tramite la divulgazione del fatto che un contenuto è stato generato da un intelligenza artificiale, permettendo agli utenti di prendere decisioni informate sull’ulteriore utilizzo. I sistemi a rischio minimo o senza rischio, come i filtri dei social media, sono liberi da vincoli regolamentari significativi. Sono ovviamente presenti delle eccezioni all’uso di sistemi ad alto rischio per le autorità di contrasto in circostanze specifiche, come la prevenzione del terrorismo o la ricerca di criminali.[6]

Con l’AI Act, l’Unione Europea fa un salto qualitativo nella regolamentazione dell’intelligenza artificiale, perseguendo un equilibrio tra il sostegno all’innovazione e la protezione della sicurezza e dei diritti umani, simile a quanto avvenuto con il GDPR nell’ambito della privacy dei dati. Da un lato, l’AI Act si impegna a delineare un contesto normativo trasparente per chi sviluppa e utilizza l’IA, mirando a ridurre gli oneri amministrativi e finanziari, in particolare per le piccole e medie imprese. Questa direzione non solo mira a salvaguardare individui e aziende, ma anche a stimolare l’adozione e gli investimenti nelle tecnologie IA, favorendo l’innovazione all’interno dell’UE. Dall’altro lato però, la precisione e la rigidità di certe clausole dell’AI Act hanno suscitato dubbi. L’enfasi su specifici casi d’uso può essere utile in alcune circostanze, ma potrebbe restringere la ricerca e lo sviluppo in aree non previsti dalla normativa. C’è anche la possibilità che queste regolamentazioni possano, senza volerlo, rallentare l’innovazione nell’ambito della trustworthy AI (IA affidabile), un settore in continua evoluzione e di vitale importanza per il progresso tecnologico.[7]

Nel contesto internazionale, tuttavia, l’AI Act emerge come un faro normativo, distinguendosi per il suo approccio olistico e dettagliato alla regolamentazione dell’intelligenza artificiale. A differenza della Cina, che privilegia l’innovazione industriale con una regolamentazione centralizzata, l’AI Act si propone come un modello di equilibrio tra la promozione dell’innovazione e la tutela dei diritti fondamentali. Se il Canada e il Giappone si concentrano su principi etici e linee guida, e il Regno Unito e la Corea del Sud stanno ancora definendo i loro percorsi normativi, l’UE si distingue per la sua visione proattiva e preventiva, mirando a stabilire standard elevati di affidabilità e sicurezza per i sistemi di IA, che potrebbero ben presto diventare un riferimento globale. Diverso è il caso degli Stati Uniti, dove le amministrazioni Trump e Biden hanno entrambe riconosciuto il valore strategico dell’intelligenza artificiale, ma hanno adottato approcci distinti. L’amministrazione Trump aveva puntato sulla competitività e l’innovazione libera da vincoli, mentre l’amministrazione Biden ha introdotto un maggiore equilibrio tra innovazione, sicurezza e affidabilità, enfatizzando la cooperazione internazionale. In particolare, con l’Ordine Esecutivo del 30 ottobre 2023, ha preso misure per assicurare uno sviluppo sicuro dell’IA, riflettendo un impegno verso una governance che rispetti i diritti fondamentali e promuova la fiducia nell’uso delle tecnologie ad IA, in linea con gli sforzi dell’UE per creare un ambiente digitale sicuro e etico.[8] Nonostante ciò, con l’AI Act l’Unione Europea non solo si è posizionata all’avanguardia nella regolamentazione dell’IA, ma si è candidata anche a influenzare le future politiche internazionali in materia.

Sul piano normativo, quindi, l’Unione Europea sembra essere l’unica ad essersi mossa concretamente, ma quali sono le sue attuali condizioni riguardo lo sviluppo e gli investimenti in intelligenza artificiale?

 

La situazione degli investimenti

Sono numerosi, in questo momento, i progetti che sfruttano la tecnologia dell’intelligenza artificiale finanziati direttamente dall’Unione Europea e dal suo programma Horizon Europe, riflettendo l’impegno di quest’ultima nel promuovere l’innovazione e la competitività nel campo dell’IA. Degno di nota è sicuramente il progetto SAFERS, che impiega algoritmi di intelligenza artificiale di ultima generazione per creare mappe di rischio e sistemi di allarme anticipato per anticipare la diffusione degli incendi forestali, analizzando le previsioni delle condizioni atmosferiche, fino a stimarne l’impatto economico. Altri progetti affrontano comunque temi fondamentali in settori quali la salute, la sicurezza stradale, la democrazia, la sicurezza e l’istruzione.[9]

Ma se i progetti dell’UE sono numerosi, gli investimenti per raggiungere i loro obiettivi sono meno corposi rispetto ai competitor globali. Il mercato globale dell’intelligenza artificiale ha superato quota 130 miliardi di euro nel 2023 tra investimenti pubblici e privati, ed è destinato a crescere ancora, con previsioni che stimano il raggiungimento di quasi 1,9 triliardi di euro entro il 2030. Le cifre sono importanti, ma le quote di mercato sono sbilanciate. Se consideriamo i soli investimenti privati nel 2022, gli Stati Uniti sono in testa, con una quota di 44 miliardi di euro, seguiti dalla Cina (12 miliardi) e dall’UE con il Regno Unito (10,2 miliardi). In comparazione con il resto del mondo gli investimenti privati negli Stati Uniti sono quattro volte superiori, e rappresentano circa il 40% del totale degli investimenti globali. Tra il 2018 e il terzo trimestre del 2023, le aziende europee di IA hanno attratto quasi 32,5 miliardi di euro, a fronte dei 120 miliardi investiti nelle aziende statunitensi. I dati dunque riferiscono una disparità tra l’UE e il resto del mondo con (soprattutto) gli Stati Uniti nell’attrarre investimenti privati in IA, mentre l’Unione deve ricorrere a corposi finanziamenti pubblici per riuscire a tenere il passo dei competitors. Ad esempio con il programma Digital Europe, il quale prevede un finanziamento di 2,1 miliardi di euro per l’intelligenza artificiale nel periodo 2021-2027.[10]

A sottolineare l’attuale disparità di liquidità del settore privato tra Unione Europea e Stati Uniti, è interessante far notare come nel caso della generative AI (IA generativa), l’azienda leader mondiale del settore è la statunitense OpenAI finanziata principalmente da Microsoft. Quest’ultima ha poi comunque deciso, ad inizio 2024, di investire circa 15 milioni di euro in Mistral AI, start-up francese tra le più promettenti in Europa.[11] L’intero mercato dell’intelligenza artificiale generativa è infatti dominato da poche entità, per la maggior parte statunitensi, tra cui appunto OpenAI, Google, e Meta. Questo monopolio di aziende con risorse significative guida lo sviluppo delle tecnologie in questo settore, e rappresenta un ostacolo in più per un’Europa che cerca di emergere con i propri mezzi.

Nonostante tutto, l’UE nel 2018 si era posta l’obiettivo di incrementare progressivamente la somma degli investimenti pubblici e privati nell’intelligenza artificiale, per raggiungere un totale di 20 miliardi di euro all’anno nel corso di questo decennio. Le aspettative verranno probabilmente superate, perchè tra il 2018 e il 2020 gli investimenti hanno già raggiunto una cifra intorno al 63-80% del target di 20 miliardi, di cui oltre due terzi proveniente dal settore privato. Continuando con questo livello di crescita, gli investimenti supererebbero addirittura i 30 miliardi dal 2025.[12]

Per quanto i progressi nel volume degli investimenti sia privati che pubblici siano tangibili, la strada per mantenere il passo con gli Stati Uniti (e in misura minore con la Cina) è ancora lunga, e sono necessari ulteriori impulsi finanziari, considerando anche che gli investimenti negli Stati Uniti continuano a crescere, con previsioni che stimano il raggiungimento di circa 80 miliardi di euro di soli investimenti privati nel 2025.[13]

 

L’Unione Europea raggiungerà mai un’autonomia strategica sull’IA?

Le misure messe in campo dall’UE, sia normative che in termini di investimento, hanno dunque un chiaro obiettivo, quello di raggiungere un’autonomia strategica nello sviluppo diversificato e nel finanziamento di progetti e aziende che si occupano di intelligenza artificiale. Un obiettivo che si intreccia con le ambizioni di sovranità tecnologica dell’Unione che non sono racchiuse nella sola IA. La sfida è però decisiva, e la domanda da porsi è se l’UE riuscirà a raggiungere i propri traguardi in un futuro non troppo lontano.

Per consolidare la sua autonomia strategica nell’IA, l’Unione Europea dovrebbe innanzitutto ridurre le dipendenze da fornitori e tecnologie non europei. Questo richiede un investimento strategico in ricerca e sviluppo all’interno dei confini europei, nonché il sostegno a startup e imprese che lavorano su soluzioni di IA innovative. In realtà la Commissione Europea si è già mossa in questo senso tramite il recente AI innovation package, che mira a fornire alle startup accesso privilegiato ai supercomputer europei per l’addestramento di modelli di trustworthy AI, e a promuovere un ecosistema europeo di IA innovativo dove startup e innovatori possano lavorare a stretto contatto con gli utenti industriali, attrarre investimenti nell’Unione e avere accesso agli elementi chiave dell’IA, quali dati e algoritmi. Inoltre, ed è un positivo passo in avanti, grazie all’iniziativa GenAI4EU l’innovation package mira a sostenere lo sviluppo di nuovi casi d’uso e applicazioni emergenti nei quattordici ecosistemi industriali europei (tra cui robotica, clima, salute e mobilità), spingendo così verso un avanzamento tecnologico che possa tradursi in benefici tangibili per l’industria e la società nel suo complesso.[14]

Raggiungere l’autonomia nell’ambito dell’IA generativa deve essere infatti un obiettivo centrale per l’Unione Europea. Questa è una tecnologia chiave per garantire la sicurezza dei dati, promuovere la sovranità tecnologica e stimolare la competitività economica, ed è alla base di sistemi che al giorno d’oggi consideriamo quasi indispensabili, come ChatGPT. Utilizzando algoritmi di deep-learning addestrati su grandi set di dati, questi sistemi permettono la creazione di molte applicazioni innovative, quali la creazione di arte digitale, la scrittura di testi o la sintesi vocale. Nonostante l’UE abbia un importante pool di talenti scientifici e tecnici, mancano ancora le condizioni per colmare il divario tecnologico con i competitors globali in questo settore. Le sfide includono non solo questioni finanziarie, di accesso alla potenza computazionale e ai dati, ma anche la capacità di attrarre e trattenere talenti competitivi a livello internazionale. In aggiunta, non sono poche le preoccupazioni legate all’utilizzo di prodotti di intelligenza artificiale generativa “non sovrani”, soprattutto riguardo la sicurezza dei dati personali e strategici che rischierebbero di finire in mani sbagliate.[15]

In secondo luogo, per raggiungere l’autonomia, è imperativo superare la frammentazione interna. L’UE dovrebbe continuare a promuovere una collaborazione più stretta tra gli stati membri, che a loro volta dovrebbero coordinare le politiche e condividere le risorse per evitare la duplicazione degli sforzi e massimizzare l’efficacia degli investimenti. E’ soprattutto attraverso un approccio unitario e coordinato che l’Unione Europea potrà aspirare a diventare un leader indipendente e sovrano nel campo dell’intelligenza artificiale.

Infine, c’è il bisogno di garantire una sicurezza e un’integrità etica continuativa delle tecnologie ad IA. Ciò implica un aggiornamento costante di un quadro normativo come visto già forte, che guidi l’innovazione e l’applicazione dell’IA anche in futuro, assicurando che i sistemi operino sempre in maniera trasparente, equa e senza pregiudizi, e che rispettino i diritti fondamentali e i valori europei. Quanto l’UE sta facendo per stabilire standard etici che possano fungere da modello globale è già un grande passo verso la giusta direzione, ma con la velocità dell’avanzamento tecnologico odierno c’è la necessità di farsi trovare pronti all’azione in qualsiasi momento.

[1]  Commissione Europea, Communication to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions, Artificial Intelligence for Europe, COM (2018) 237 final, cap. 1.

[2] Commissione Europea, Communication to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions, Coordinated Plan on Artificial Intelligence, COM (2018) 795 final, cap. 2, 2.1.

[3] Commissione Europea, Communication to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Fostering a European approach to Artificial Intelligence, COM (2021) 205 final, cap. 4.

[4] Commissione Europea, High-level expert group on artificial intelligence [sito web], https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai.

Per riferimenti:
Communication: Building Trust in Human Centric Artificial Intelligence, 2019, https://digital-strategy.ec.europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence.

White Paper on Artificial Intelligence, 2020, https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.

[5] World Economic Forum, The European Union’s Artificial Intelligence Act, explained [sito web], https://www.weforum.org/agenda/2023/06/european-union-ai-act-explained/.

[6] Commissione Europea, AI Act [sito web], https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.

[7] Microsoft, A Balancing Act: Regulating AI to boost responsible innovation in Europe [sito web], https://blogs.microsoft.com/eupolicy/2021/09/16/a-balancing-act-regulating-ai-to-boost-responsible-innovation-in-europe/

[8] The White House, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence [sito web], https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.

[9] Agenzia Esecutiva Europea per la Ricerca, Research and Artificial Intelligence [sito web], https://rea.ec.europa.eu/research-and-artificial-intelligence_en.

[10] Parlamento Europeo, AI investment: EU and global indicators.

[11] CNBC, Microsoft invests in Europe’s Mistral AI to expand beyond OpenAI [sito web], https://www.cnbc.com/2024/02/26/microsoft-invests-in-europes-mistral-ai-to-expand-beyond-openai.html.

[12] JRC Technical Reports, AI Watch: Estimating AI Investments in the European Union, pag. 7-9.

[13] Goldman Sachs, AI investment forecast to approach $200 billion globally by 2025 [sito web], https://www.goldmansachs.com/intelligence/pages/ai-investment-forecast-to-approach-200-billion-globally-by-2025.html.

[14] Commissione Europea, Communication to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, on boosting startups and innovation in trustworthy artificial intelligence, COM (2024) 28 final, pag. 1.

[15] Commissione Europea, Alleanza europea per l’IA, Towards Sovereignty in AI: A 7-Tier Strategy for Europe’s Technological Independence in Generative Artificial Intelligence [blog], https://futurium.ec.europa.eu/en/european-ai-alliance/blog/towards-sovereignty-ai-7-tier-strategy-europes-technological-independence-generative-artificial.

Per riferimenti alle misure della Commissione Europea sull’utilizzo consapevole dell’IA generativa per la ricerca: Commissione Europea, 2024, https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en.

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

You May Also Like