Sebbene l’evoluzione dell’intelligenza artificiale (IA) costituisca uno dei principali orizzonti del XXI secolo, capace di incidere profondamente sulle dinamiche economiche, sociali e politiche globali, come è stato sottolineato dalla Dott.ssa Alessia Virgili nel suo contributo presentato alla Tavola Rotonda “Youth and Digital Diplomacy in a Fragmented World”, il dibattito pubblico tende spesso a privilegiare l’aspetto tecnico e innovativo dell’IA – algoritmi, automazione, potenza computazionale – trascurandone le implicazioni etiche, sociali e geopolitiche.
L’intervento ha articolato la riflessione attorno a tre sfide centrali: il bias algoritmico, la tutela dei dati personali e il divario digitale, questioni che definiscono i contorni di una nuova responsabilità collettiva nell’era dell’intelligenza artificiale.
Accanto a questa prospettiva, il contributo della Dott.ssa Chiara Passanante ha messo in rilievo l’altra faccia della questione: non soltanto i rischi, ma anche le opportunità che l’IA offre per costruire sistemi educativi più accessibili, inclusivi e orientati alle competenze, capaci di ridurre le disuguaglianze e promuovere una cittadinanza digitale consapevole. In questo dialogo tra criticità e potenzialità, l’intelligenza artificiale emerge dunque come un campo di azione complesso, nel quale l’innovazione tecnologica deve necessariamente accompagnarsi a una riflessione etica e pedagogica condivisa.
Il pregiudizio nascosto nei dati
Il primo nodo affrontato ha riguardato la tendenza dei sistemi di IA a replicare, e talvolta amplificare, le distorsioni presenti nei dati da cui apprendono. L’esempio del sistema di reclutamento sviluppato da Amazon nel 2018 – poi ritirato per discriminazioni sistematiche nei confronti delle candidate donne – rappresenta un caso emblematico. L’algoritmo, “allenato” su curriculum prevalentemente maschili, aveva dedotto che il genere maschile costituiva un criterio di selezione preferenziale. Tale episodio dimostra come il bias non derivi necessariamente da intenzionalità discriminatoria, ma dall’assenza di una consapevolezza critica nella costruzione e nella validazione dei dataset.
Data privacy e potere informativo
La seconda sfida portata in esame si è rivolta alla gestione e la protezione dei dati personali. Richiamando il celebre caso Cambridge Analytica (2018), è stato messo in evidenza come l’analisi dei comportamenti digitali – like, condivisioni, preferenze – possa essere trasformata in uno strumento di manipolazione dell’opinione pubblica e di influenza elettorale. In tale prospettiva, l’IA non appare come una tecnologia neutrale, ma come un vero e proprio dispositivo di potere, capace di incidere sui processi decisionali individuali e collettivi, ridefinendo i confini stessi della sfera pubblica digitale.
Il divario digitale come disuguaglianza strutturale
Un ulteriore elemento critico affrontato ha riguardato il digital divide, ossia la diseguale distribuzione di competenze e infrastrutture tecnologiche. Come è stato ricordato, in Kenya alcuni agricoltori utilizzano applicazioni basate sull’IA per ottimizzare i raccolti e prevedere le condizioni climatiche; tuttavia, molte donne impegnate nell’agricoltura locale spesso restano escluse per mancanza di accesso a dispositivi e connessioni adeguate. Tale divario, se non affrontato attraverso politiche inclusive e programmi di alfabetizzazione digitale, rischia di accentuare disuguaglianze economiche e sociali già radicate.
Governance dell’IA: convergenze e divergenze tra UE e ASEAN
Sul piano istituzionale, è stato proposta un’interessante riflessione comparativa tra due modelli emergenti di regolazione dell’intelligenza artificiale: quello dell’Unione Europea e quello dell’ASEAN.
L’IA Act europeo introduce un approccio centralizzato, basato sulla classificazione dei sistemi di IA in funzione del rischio potenziale (risk-based approach) per i diritti fondamentali, imponendo standard più rigorosi per le applicazioni considerate ad alto impatto. Più alto è il rischio per i diritti fondamentali, la sicurezza o i valori democratici, più stringenti sono gli obblighi previsti per sviluppatori e utilizzatori.
L’ASEAN, dal canto suo, privilegia una strategia decentrata, che lascia ai singoli Stati membri la libertà di sviluppare normative nazionali coerenti con i rispettivi contesti socioeconomici.
Come è stato evidenziato, le strategie adottate da UE e ASEAN divergono per struttura e grado di vincolatività, ma convergono nella finalità ultima di promuovere un ecosistema di IA affidabile e sicuro, capace di coniugare innovazione tecnologica e responsabilità sociale.
Il ruolo dei giovani nella diplomazia digitale
Nella parte conclusiva del primo intervento è stato posto l’accento sul ruolo attivo che le giovani generazioni devono assumere nel plasmare il futuro dell’intelligenza artificiale. Informarsi, comprendere i meccanismi dei sistemi algoritmici, interrogarsi sulla trasparenza e sull’equità delle applicazioni tecnologiche rappresentano atti fondamentali di cittadinanza digitale consapevole.
Solo attraverso una partecipazione informata e critica sarà possibile costruire un ecosistema digitale fondato non soltanto sull’efficienza, ma anche su principi di equità, dignità e responsabilità condivisa.
In un mondo sempre più interconnesso ma al tempo stesso fortemente frammentato, la diplomazia digitale giovanile si configura non solo come canale di dialogo interculturale, ma anche come spazio etico di negoziazione tra tecnologia, società e valori umani.
L’IA come strumento di inclusione e crescita educativa: l’altra faccia della medaglia
Come è stato puntualizzato nel secondo intervento, quando sviluppata e regolata in modo responsabile, l’IA può però diventare un potente livellatore, capace di ridurre le barriere fisiche, linguistiche e cognitive che ancora impediscono a milioni di persone di accedere a un’istruzione di qualità.
Questa visione è pienamente in linea con l’ASEAN Guide on AI Governance and Ethics (2024), che promuove un’innovazione umano-centrica e inclusiva, e con l’AI Act dell’Unione Europea (2024).
In questa prospettiva, l’applicazione dei principi in essi delineati potrebbe contribuire a costruire ecosistemi educativi più equi e aperti, in cui l’intelligenza artificiale agisca come motore di accesso e innovazione sociale.
Tecnologie adattive e apprendimento personalizzato
L’IA può supportare studenti con disabilità attraverso tecnologie adattive: sistemi di text-to-speech e speech-to-text permettono a chi ha deficit visivi o uditivi di partecipare pienamente alla vita scolastica.
Algoritmi di apprendimento personalizzato, come quelli sperimentati nel programma finlandese Elements of AI, consentono di adattare ritmo, formato e contenuti delle lezioni alle esigenze di ogni studente — aiutando chi fatica a tenere il passo e stimolando al contempo i più avanzati.
Nell’approccio europeo, questi strumenti rientrano tra i sistemi a “rischio limitato”, per i quali è comunque richiesta trasparenza, mentre l’ASEAN consente ai singoli Paesi, come Singapore, di testare soluzioni inclusive in ambienti sperimentali (sandbox) prima di adottare regole vincolanti.
IA e apprendimento linguistico
Un altro ambito di grande potenziale è quello dell’educazione linguistica. Grazie alla traduzione automatica, al riconoscimento vocale e agli agenti conversazionali, l’IA può rendere l’insegnamento multilingue più efficace e inclusivo.
In Vietnam, ad esempio, strumenti di traduzione basati su IA sono stati utilizzati nelle scuole bilingui per colmare il divario tra il vietnamita e le lingue delle minoranze etniche; in Spagna, invece, chatbot educativi aiutano gli studenti a migliorare pronuncia e scrittura.
Anche qui emerge un contrasto interessante: mentre l’AI Act europeo impone obblighi chiari di trasparenza per i modelli linguistici, la Guida ASEAN incoraggia implementazioni culturalmente sensibili, senza imporre standard uniformi. Tale flessibilità favorisce l’innovazione locale, ma può generare disallineamenti etici tra gli Stati membri.
Sviluppo delle competenze e formazione continua
L’IA svolge inoltre un ruolo chiave nello sviluppo delle competenze. In un’economia in costante evoluzione, essa può facilitare l’apprendimento permanente individuando le lacune nelle competenze individuali e suggerendo percorsi di formazione personalizzati.
L’EU Digital Education Action Plan (2021–2027) investe oltre 6,4 miliardi di euro per migliorare l’alfabetizzazione digitale e l’IA literacy, mentre l’ASEAN Digital Integration Index (2021) ha registrato una media di 56/100, segnalando la necessità di rafforzare le competenze digitali nei Paesi membri.
Proprio per colmare questo divario, la EU–ASEAN Digital Partnership (2022) punta sulla trasformazione digitale, lo sviluppo infrastrutturale e la formazione giovanile, con programmi dedicati all’alfabetizzazione digitale e alla consapevolezza in materia di cybersicurezza.
Tuttavia, affinché tali opportunità producano benefici reali per tutti, è necessario che studenti, ricercatori e futuri decisori politici si facciano promotori di un’IA educativa etica e inclusiva.
Ciò significa pretendere trasparenza negli algoritmi, garantire che i dataset riflettano la diversità e assicurare che le soluzioni di IA rimangano accessibili e sostenibili anche nei contesti meno privilegiati.
Nell’Unione Europea, questo impegno si traduce nell’obbligo di supervisione umana previsto dall’AI Act, mentre in ASEAN prende forma attraverso linee guida volontarie come la Malaysia AI Roadmap (2021) e il Singapore Model AI Governance Framework, entrambi orientati a responsabilità e equità.
Un futuro più equo e umano
In conclusione, l’IA non deve sostituire gli educatori umani, ma potenziarli: aiutandoli a personalizzare l’insegnamento, liberandoli dalle attività ripetitive e consentendo loro di concentrarsi su ciò che le macchine non possono replicare — empatia, pensiero critico e creatività.
Come si diceva, se riusciremo a favorire uno spazio etico di negoziazione, allineando l’innovazione tecnologica con i valori morali – come auspicano tanto l’AI Act europeo quanto la Guida ASEAN – l’intelligenza artificiale potrà diventare un motore di accessibilità, inclusione linguistica e sviluppo delle competenze, contribuendo a plasmare un futuro non solo più intelligente, ma anche più giusto.
di: Alessia Virgili e Chiara Passanante