InsightPublications

Share :

Il Parlamento UE approva l'Artificial Intelligence Act

Vi segnaliamo che il 14 giugno 2023 il Parlamento dell’Unione Europea ha approvato l’Artificial Intelligence Act (AI Act), che introduce una regolamentazione uniforme in tema di sviluppo, commercializzazione ed uso dei sistemi di intelligenza artificiale, nel rispetto dei diritti e dei valori dell’Unione Europea.

Tra gli obiettivi del legislatore comunitario vi sono la sicurezza, la trasparenza, la tracciabilità e il carattere non discriminatorio delle attività svolte tramite sistemi di AI, oltre al rispetto dell’ambiente.

Il Parlamento UE approva l'Artificial Intelligence Act

I LIVELLI DI RISCHIO 
L’AI Act segue un approccio basato sul rischio rappresentato dai sistemi di AI: per ogni livello di rischio sono previsti alcuni obblighi, sia a carico delle aziende produttrici sia di quelle utilizzatrici. Il Regolamento prevede 3 diversi livelli:

 

                Rischio inaccettabile: si intendono i sistemi di AI considerati una minaccia per le persone, per i quali è stato introdotto un divieto generale di immissione e di circolazione nel mercato europeo.Vi rientrano i sistemi di intelligenza artificiale che:

  • utilizzano tecniche di manipolazione atte a distorcere il comportamento;
  • sfruttano le vulnerabilità dei singoli individui o di gruppi specifici;
  • effettuano l’identificazione biometrica remota e in tempo reale;
  • classificano le persone in base al loro comportamento sociale o alle loro caratteristiche personali (c.d. social scoring).

                 Rischio alto: si intendono i sistemi di AI che incidono negativamente sulla sicurezza o sui diritti fondamentali, tra cui, ad esempio, quelli utilizzati nei prodotti soggetti alla disciplina dell’UE sulla sicurezza dei prodotti (es. giocattoli, automobili, dispositivi medici ecc..) ed altresì sistemi atti a calcolare il rischio creditizio o quelli di analisi dei CV  ai fini di assunzione.

I principali obblighi da seguire per l’immissione dei suddetti sistemi sono:

  • la previsione di un adeguato processo di valutazione e mitigazione dei rischi;
  • la predisposizione di un’informativa chiara e adeguata da consegnare all’utente e di una documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per facilitare l’attività di controllo delle autorità di vigilanza.

I sistemi di identificazione biometrica remota sono classificati ad alto rischio e soggetti a severe restrizioni.

 

             Rischio basso o minimo: i sistemi di AI che presentano un rischio basso, dovranno comunque garantire il rispetto di requisiti minimi di trasparenza per permettere agli utenti di adottare decisioni informate. Tra i suddetti sistemi vi rientrano videogiochi, filtri antispam e sistemi che generano o manipolano contenuti di immagini, audio o video (c.d. deepfake).

 

L'ATTIVITA' DI COMPLIANCE DELL'AI ACT 
Secondo le ultime ricerche, l’utilizzo di sistemi di AI da parte delle aziende italiane è in forte aumento, pertanto saranno tenute a creare processi atti a garantire la compliance al Regolamento.

In primo luogo, le aziende dovranno sincerarsi che i propri sistemi di AI non presentino un rischio inaccettabile poiché, altrimenti, non sarebbero ammissibili nel mercato europeo. Attraverso una valutazione di conformità, le società dovranno accertarsi di non essere soggette agli obblighi previsti per i sistemi di AI ritenuti ad alto rischio.
Ed infine, una volta rilevata la conformità all’AI Act, il sistema di AI potrà circolare sul mercato solo a seguito dell’apposizione della marcatura CE.
Segnaliamo che sarà necessario effettuare una valutazione di conformità non solo al momento dell’immissione del sistema di AI nel mercato europeo, bensì anche a fronte di modifiche particolarmente rilevanti.

Sarà, infine, necessario anche un adeguamento del processo di data governance per la gestione dei dati in conformità all’obbligo di non discriminazione previsto dal Regolamento, oltre all’adeguamento delle informative privacy nel rispetto del principio di trasparenza e all’implementazione di procedure atte a garantire l'esercizio dei diritti dei soggetti interessati.

 

LE FASI FINALI 
Al momento siamo in attesa di conoscere la versione definitiva della normativa che si presume possa essere approvata entro la fine dell’anno in corso, a seguito del negoziato interistituzionale. Il primo regolamento al mondo sull’Intelligenza Artificiale entrerà in vigore indicativamente tra il 2024 e il 2025 e troverà applicazione 24 mesi dopo la sua entrata in vigore, salvo specifiche deroghe.
 

*****

Vi ricordiamo che i professionisti del nostro Studio offrono assistenza in materia di compliance integrata e AI e rimaniamo a disposizione per qualsiasi chiarimento e approfondimento.