Il 1° agosto 2024 è entrata in vigore l’AI Act, la legge europea sull’Intelligenza Artificiale, e primo regolamento al mondo concepito per garantire che questa sia sviluppata e utilizzata nell’UE rispettando i diritti fondamentali delle cittadine e dei cittadini dell’Unione.

Cosa prevede l’AI Act?
Il cuore dell’AI Act è la classificazione dei sistemi di AI in base al livello di rischio, con l’obiettivo di garantire la sicurezza e il rispetto dei diritti fondamentali. Vengono identificate quattro categorie:

1) Rischio minimo: la maggior parte dei sistemi, come i sistemi di raccomandazione basati sull’AI e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi.
2) Rischio limitato: i sistemi di AI come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall’AI, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente.
3) Rischio elevato: questi sistemi sono tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa agevoleranno l’innovazione responsabile e lo sviluppo di sistemi di AI conformi. Tali sistemi di AI ad alto rischio comprendono, ad esempio, i sistemi utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o a gestire robot autonomi.
4) Rischio inaccettabile: i sistemi considerati una chiara minaccia per i diritti fondamentali delle persone sono vietati. Sono compresi i sistemi o le applicazioni di AI che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, sono vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale.

Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare autorità nazionali competenti, che vigileranno sull’applicazione delle norme per i sistemi di intelligenza artificiale e svolgeranno attività di vigilanza del mercato e la maggior parte delle norme inizierà ad applicarsi il 2 agosto 2026, tranne , i divieti dei sistemi di IA che si ritiene presentino un rischio inaccettabile che si applicheranno già dopo sei mesi.

Per superare il periodo transitorio prima della piena attuazione, la Commissione ha varato il patto per l’IA che invita gli sviluppatori di AI a adottare volontariamente gli obblighi fondamentali della legge prima delle scadenze legali.

L’impatto sull’Europa e l’Italia
L’adozione dell’AI Act comporterà per le aziende europee la necessità di adeguare i propri sistemi di AI nuovi standard di sicurezza e affidabilità, una maggiore attenzione alla gestione dei rischi e alla trasparenza algoritmica e costi di conformità più elevati, in particolare per le PMI.
Per i cittadini europei l’AI Act porterà ad una maggiore tutela dei diritti fondamentali e della privacy e accrescerà la fiducia nell’utilizzo di sistemi di AI e la consapevolezza sui rischi e benefici dell’AI.
Per l’Italia, infine, le ripercussioni riguarderanno un’ accelerazione dell’adozione di soluzioni di AI sicure e conformi, la necessità di sviluppare competenze e linee guida specifiche a livello nazionale e l’opportunità per le aziende di diventare leader nell’AI responsabile.

Il futuro dell’AI in Europa e in Italia
Nei prossimi anni, ci aspettiamo che, con l’AI Act come riferimento, altri paesi e regioni adotteranno normative simili, creando un quadro globale più coerente e che le autorità competenti svilupperanno linee guida e standard tecnici più dettagliati per guidare l’implementazione dell’AI Act.
Meccanismi di controllo e sanzioni per il mancato rispetto delle regole più stringenti, porteranno un aumento degli investimenti nell’innovazione responsabile da parte di aziende e governi e nuove opportunità di mercato.

In questo contesto, l’Italia dovrà assumere un ruolo da protagonista, valorizzando il proprio ecosistema dell’innovazione e formando le competenze necessarie per guidare lo sviluppo dell’AI responsabile. Solo così potremo cogliere appieno le opportunità offerte da questa nuova era tecnologica, preservando al contempo i valori etici e i diritti fondamentali dei cittadini.

 

Foto Designed by Freepik