L’Intelligenza Artificiale nelle scuole: opportunità e rischi secondo il Regolamento UE
L’introduzione dell’Intelligenza Artificiale (IA) nelle scuole è un fenomeno ormai inarrestabile, anche se comporta sfide importanti. Attività come la correzione delle prove, l’ammissione ai corsi di studi e la sorveglianza degli esami saranno presto eseguibili tramite sistemi di IA, considerati strumenti ad alto rischio secondo il regolamento UE n. 2024/1689. Questo regolamento mira a garantire che, nonostante i rischi associati, l’utilizzo dell’IA non venga vietato, ma sia regolamentato e soggetto a numerose tutele per proteggere le persone e le libertà individuali.
Sistemi di IA ad alto rischio e obblighi nelle scuole
Il regolamento UE identifica quattro categorie di IA ad alto rischio consentite nel settore dell’istruzione e della formazione professionale, che riguardano:
- Verifica dei titoli: L’IA può essere impiegata per determinare l’accesso e l’ammissione agli istituti scolastici, svolgendo compiti come la verifica dei requisiti e dei titoli degli studenti. Tuttavia, il rischio di errori (come le allucinazioni dell’IA) potrebbe portare a esclusioni ingiustificate o discriminazioni.
- Valutazione dei risultati: L’IA potrà valutare i risultati dell’apprendimento, dalle prove intermedie a quelle finali. Anche qui il rischio è quello di valutazioni inaccurate o discriminatorie, che potrebbero compromettere gli obiettivi educativi.
- Adeguatezza dei percorsi formativi: L’IA potrà essere utilizzata per valutare l’appropriatezza del livello di istruzione a cui uno studente può accedere, e per monitorare comportamenti illegittimi, inclusi quelli non direttamente collegati agli esami. L’uso dell’IA in questi contesti solleva problemi di privacy e sorveglianza, oltre a potenziali errori che potrebbero compromettere gli esiti accademici.
Secondo il regolamento, le scuole che utilizzano sistemi di IA assumeranno il ruolo di “deployer” e saranno responsabili della sorveglianza umana sugli output prodotti dall’IA. Questo compito dovrà essere affidato a personale formato e competente, il che potrebbe comportare la creazione di nuove figure professionali specializzate, come il responsabile scolastico dell’IA, in stretto dialogo con il responsabile della protezione dei dati (DPO).
Le scuole dovranno inoltre garantire la trasparenza sull’utilizzo dell’IA, fornendo informazioni chiare a studenti e famiglie su come questi sistemi impattano sui processi decisionali. Sarà obbligatorio anche monitorare costantemente il funzionamento dell’IA e sospenderne l’uso qualora si rilevassero rischi per i diritti fondamentali.
Non tutti i sistemi di IA sono considerati ad alto rischio. Esistono sistemi destinati a compiti procedurali limitati, come il miglioramento dei risultati di attività umane già completate, che non rientrano nella categoria di alto rischio. Tuttavia, anche questi sistemi dovranno essere utilizzati con trasparenza e soggetti a supervisione umana, per garantire che non compromettano la qualità dei processi decisionali scolastici.
Le sperimentazione in Italia dell’IA
Nel frattempo, il Ministero dell’Istruzione italiano ha avviato per l’anno scolastico 2024/2025 una sperimentazione dell’IA in 15 scuole. Il progetto prevede l’utilizzo di un assistente virtuale che individua eventuali difficoltà di apprendimento degli studenti e suggerisce interventi personalizzati ai docenti.
L’integrazione dell’IA nel sistema scolastico offre molte potenzialità, ma richiede una regolamentazione rigorosa per evitare impatti negativi sugli studenti e sulla qualità dell’istruzione. La sorveglianza umana e la trasparenza saranno fondamentali per garantire che l’introduzione di queste tecnologie avvenga nel rispetto dei diritti degli individui.