Dal momento in cui è oggi necessario regolamentare il settore dell’AI (Artificial Intelligence) in Europa, la Presidenza del Consiglio e i rappresentanti del Parlamento EU sono giunti ad un accordo momentaneo col nome di “Artificial Intelligenze Act”, intento a garantire migliori condizioni per lo sviluppo e l’utilizzo di questa tecnologia. La priorità del Parlamento, con questa legge, è infatti quella di assicurarsi che i sistemi di intelligenza artificiale usati all’interno dell’Unione garantiscano trasparenza, tracciabilità e siano capaci di rispettare l’ambiente. Si ha in programma di stabilire una supervisione dei sistemi di intelligenza da parte di persone, escludendo così la loro automazione con l’obiettivo di evitare rischi dannosi.
La proposta dell’Artificial Intelligenze Act pone la garanzia per i cittadini europei di potersi fidare di ciò che il sistema è in grado di fare. Nonostante la maggior parte dei sistemi di AI non comporta rischi e abbia l’obiettivo di fornire agli sviluppatori, agli operatori di IA e agli utenti chiari requisiti e obblighi relativi agli usi specifici di esso – allo stesso momento – è un sistema basato sui rischi. Infatti alcuni sistemi di IA creano rischi che è necessario affrontare per evitare risultati indesiderati.
Queste nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati: spesso infatti non è possibile comprendere perché un sistema di IA ha definito una decisione o una previsione, può quindi diventare difficile valutare se qualcuno sia stato ingiustamente svantaggiato.
Le norme proposte dal Parlamento sono necessarie a garantire un sistema capace di affrontare le sfide specifiche che i sistemi di IA possono presentare per le quali la legislazione attuale non ha una protezione sufficiente.
Le norme proposte sono:
- affrontare i rischi creati specificamente dalle applicazioni di IA;
- proporre un elenco di domande ad alto rischio;
- stabilire requisiti chiari per i sistemi di IA per applicazioni ad alto rischio;
- definire obblighi specifici per gli utenti di IA e i fornitori di applicazioni ad alto rischio;
- proporre una valutazione della conformità prima che il sistema di IA sia messo in servizio o immesso sul mercato;
- proporre l’applicazione delle norme dopo l’immissione sul mercato di tale sistema di IA;
- proporre una struttura di governance a livello europeo e nazionale.
Si tratta di un sistema basato sui rischi.
Nel quadro formativo questi si dividono in quattro livelli:
Inaccettabile (Unacetable Risk), nel quale tutti i sistemi di IA equivalgono ad una chiara minaccia per la sicurezza: i mezzi di sussistenza e i diritti delle persone saranno vietati.
- Elevato (High Risk), questo include la tecnologia di IA utilizzata in:
- infrastrutture critiche
- istruzione o formazione professionale
- componenti di sicurezza dei prodotti
- occupazione, gestione dei lavoratori e accesso al lavoro autonomo
- servizi privati e pubblici essenziali
- applicazione della legge che può interferire con i diritti fondamentali delle persone
- gestione della migrazione, dell’asilo e del controllo delle frontiere
- amministrazione della giustizia e processi democratici.
- Limitato (Limited Risk), considera sistemi di IA con specifici obblighi di trasparenza. Quando si utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere a conoscenza di stare interagendo con una macchina in modo da poter decidere se procedere o fermarsi.
- Minimo (Minimal Risk), questo include applicazioni come videogiochi abilitati per l’IA o filtri antispam.
La seconda metà del 2024 sarà la prima volta in cui il regolamento potrebbe diventare applicabile agli operatori con le norme pronte e le prime valutazioni di conformità effettuate a seguito del periodo transitorio partito tra la fine del 2022 e l’inizio del 2023.