Intelligenza artificiale, operazione trasparenza
Intelligenza artificiale, operazione trasparenza
Da agosto parte la verifica di rischio sui sistemi vecchi e nuovi. Il regolamento europeo sull’IA è stato pubblicato in Guue del 12/7/2024

di di Antonio Ciccia Messina  13/07/2024 02:00

L’Intelligenza artificiale (IA) è al via. È stato, infatti, pubblicato sulla Gazzetta Ufficiale dell’Unione serie L del 12/7/2024 il regolamento Ue sull’IA (AI Act) n. 2024/1689 del 13/6/2024, in vigore dal 1° agosto 2024, ma non di efficacia immediata. Dalla data di entrata in vigore scatta il conteggio dei termini, articolati in fasi progressive, dell’inizio di efficacia degli adempimenti previsti sia per i sistemi di nuova produzione sia per quelli già sul mercato.

Livello di rischio

Gli adempimenti dipendono dal livello di rischio del sistema di IA. Il regolamento UE distingue, infatti, sistemi a rischio limitato, ad alto rischio, sistemi con finalità generali e sistemi vietati. Un elenco di sistemi ad alto rischio è formulato dall’allegato III al regolamento (ad esempio sistemi di identificazione biometrica, sistemi n uso in particolari settori quali istruzione, lavoro, giustizia, ecc.).

Per quanto concerne i sistemi di IA già disponibili e magari già utilizzati, il Regolamento prevede norme transitorie, finalizzate al loro graduale adeguamento.

La pubblicazione del regolamento darà impulso al mercato e alla diffusione di sistemi di intelligenza artificiale.

Verifica della categoria

Per chi ne facesse già uso occorre fare una verifica per comprendere in quale categoria sono compresi, con particolare attenzione per quei sistemi che rientrano tra i sistemi assolutamente vietati dal regolamento (articolo 5). Stessa verifica va eseguita per l’individuazione di eventuali sistemi già in uso classificati dall’AI Act “ad alto rischio” (sono consentiti, ma solo nel rispetto di stringenti condizioni progettuali e di utilizzo) e di quelli classificati dall’AI Act tra i sistemi “con finalità generali” (ad esempio quelle strutturate come chat), allo scopo di controllare se sono rispettati i requisiti di trasparenza dettati dal regolamento e, quindi, adeguarsi.

In parallelo, occorre che, per il futuro, imprese e enti pubblici pianifichino quali siano i sistemi di IA utili rispetto alle attività aziendali e amministrative, individuando gli standard dei sistemi di IA da acquisire nel rispetto delle regole dell’AI Act.

Altrettanti importanti saranno gli interventi su un piano gestionale e su quello dei rapporti di lavoro, programmando azioni di istruzione e formazione del personale e verificando le ricadute sull’organizzazione degli uffici (posizioni assorbite dall’IA, nuove posizioni di responsabilità relative alla supervisione umana degli output dei sistemi di IA, eventuali procedure normative, contrattuali e di informative alle organizzazioni sindacali, ecc.).

Il calendario del regolamento

A fronte del Regolamento Ue, anche i fornitori di sistemi di IA per la scuola dovranno preoccuparsi di adeguare la progettazione degli stessi e di fornire istruzioni agli utilizzatori.

Il calendario del regolamento Ue, tra l’altro, è serrato: l’AI Act in generale, salve le eccezioni che si indicano di seguito, si applica a decorrere dal 2 agosto 2026; i sistemi vietati dovranno essere eliminati entro 6 mesi dall’entrata in vigore del Regolamento e cioè dal 2 febbraio 2025; le disposizioni relative alla IA con finalità generali si applicheranno decorsi 12 mesi dallo stesso termine e cioè dal 2 agosto 2025; per la messa in regola di sistemi già in uso ad alto rischio e di quelli con finalità generali sono previsti termini cadenzati (articolo 111).

Il ddl quadro

Entra nel vivo, ora, anche l’iter del disegno di legge quadro sull’IA, in discussione al Senato (atto n. 1146), che contiene anche la delega per armonizzare l’ordinamento al regolamento Ue (è pendente al Senato come atto n. 1146). Peraltro, poiché il regolamento Ue è immediatamente applicabile negli stati membri, alcune disposizioni non necessitano di norme di armonizzazione, ma solo esecutive (ad esempio quelle sui sistemi vietati). Per le restanti materie, il compito di elaborare la disciplina di dettaglio passa al legislatore e alle autorità amministrative, tra le quali l’Agenzia per l’Italia digitale (AgID), l’Agenzia per la cybersicurezza nazionale (ACN) e una autorità di vigi­lanza del mercato, ancora da designare.

Riproduzione riservata