IL CONSIGLIO EUROPEO APPROVA L' AI ACT: SFIDE E OPPORTUNITÀ PER LE AZIENDE

di Gianluca Mariani

Stampa la pagina
foto

Il Consiglio Europeo ha dato il via libera definitivo al regolamento sull'intelligenza artificiale AI Act, già precedentemente approvato dal Parlamento Europeo il 13 marzo 2024, l'AI Act rappresenta il primo quadro giuridico globale che stabilisce norme per lo sviluppo, l'immissione sul mercato e l'utilizzo dell'intelligenza artificiale, mirando a garantire che l'AI sia sviluppata e utilizzata in modo sicuro, responsabile ed etico, in linea con i valori europei.

Gli obiettivi principali dell'AI Act includono: sviluppo e uso sicuro dell'intelligenza artificiale rispettando i diritti umani fondamentali; assicurare il corretto funzionamento del mercato interno attraverso regole armonizzate per i sistemi di IA; promuovere l'innovazione e facilitare l'introduzione di prodotti e servizi basati sull'IA mantenendo la conformità normativa e la gestione dei rischi associati.

Valutazione d'Impatto sui Diritti Fondamentali (FRIA - Fundamental Right Impact Assessment )

La Valutazione d'Impatto sui Diritti Fondamentali (FRIA) non era prevista nella proposta di AI Act presentata dalla Commissione UE ma è stata introdotta con appositi emendamenti del Parlamento Europeo, divenendo un elemento cruciale nell'AI Act.

Questa valutazione ha l'obiettivo di garantire che l'implementazione di sistemi di AI ad alto rischio rispetti i diritti fondamentali degli individui, anticipando e mitigando potenziali danni.

La FRIA è fondamentale per diversi motivi: protezione dei diritti fondamentali come la non discriminazione, la libertà di espressione e il rispetto della privacy; prevenzione dei rischi identificando e valutando i rischi specifici associati all'uso di sistemi di IA per prevenire danni; conformità normativa aiutando le organizzazioni a garantire la conformità con le normative europee e nazionali riguardanti i diritti fondamentali integrando la Valutazione d'Impatto sulla Protezione dei Dati (DPIA) prevista dall' art.35 del GDPR .

Impatto sulle Aziende dell'AI Act

Per le aziende che operano nell’Unione Europea, l’AI Act rappresenta un’opportunità ma allo stesso tempo una sfida.

Le sfide riguardano l'adeguamento normativo, che richiede investimenti in risorse umane e tecnologiche e una revisione delle pratiche aziendali; i costi di conformità, che comportano budget per formazione del personale, tecnologie e consulenza legale; i rischi etici e reputazionali legati all'uso dell'IA, che possono portare a violazioni dei diritti fondamentali; e il monitoraggio continuo dei sistemi di AI per garantirne la conformità, che implica pratiche di governance robuste e team dedicati alla compliance.

Le opportunità comprendono il vantaggio competitivo per le aziende che si adeguano proattivamente, posizionandosi come leader del settore e guadagnando fiducia; l'adozione di standard di qualità elevati che migliorano prodotti e servizi; l'accesso a nuovi mercati grazie alla conformità alle normative europee; e l'innovazione responsabile, che stimola lo sviluppo di soluzioni etiche e sostenibili.

L'AI Act richiede impegno strategico e risorse, ma le aziende che affrontano queste sfide con serietà possono trarre vantaggio da un contesto normativo che premia la responsabilità e l'innovazione, integrando la compliance normativa come parte della loro strategia aziendale.

Critiche all’AI Act

Il dibattito sull'AI Act solleva diverse critiche e controversie. Alcuni paesi, come Germania e Paesi Bassi, temono che requisiti normativi troppo severi possano ostacolare l'innovazione e limitare la competitività delle aziende europee rispetto a quelle di regioni con normative meno restrittive, come Stati Uniti e Cina. Esistono divergenze tra i paesi membri sulla definizione del rischio associato ai foundation models.

I foundation models , o modelli fondazionali, sono sistemi di intelligenza artificiale di grandi dimensioni e altamente capaci, progettati per essere utilizzati come base per sviluppare applicazioni specifiche ( GPT-4 di OpenAI,).

La Francia li considera ad alto rischio richiedendo misure rigorose, mentre l'Estonia ritiene che i rischi siano gestibili e propone normative più flessibili.

Crescono le preoccupazioni sui bias incorporati nei foundation models e sul rischio di discriminazione. Le piccole e medie imprese, specialmente in Spagna, lamentano i costi di conformità, temendo che possano limitare la loro competitività e sollevano dubbi sulla sostenibilità della regolamentazione proposta.

C'è consenso sulla necessità di un approccio multidisciplinare alla governance dei foundation models, ma vi sono divergenze su come implementarlo: la Svezia propone un modello partecipativo, mentre altri paesi preferiscono un approccio più centralizzato.

La complessità della regolamentazione dell'IA nell'Unione Europea richiede un equilibrio tra promuovere l'innovazione e garantire sicurezza ed equità, con alcuni paesi favorevoli a regolamentazioni rigorose per proteggere i diritti fondamentali e altri preoccupati che tali misure possano soffocare l'innovazione e la competitività

L'AI Act rappresenta la prima regolamentazione globale in materia di intelligenza artificiale e stabilirà standard uniformi a livello mondiale, influenzando probabilmente altre giurisdizioni a seguire l'esempio dell'UE. Le aziende dovranno adattarsi a questo nuovo quadro normativo, affrontando costi e sfide, ma anche cogliendo opportunità per innovare responsabilmente. La sua attuazione richiederà un impegno significativo da parte di tutti gli attori coinvolti, ma offrirà anche l'opportunità di creare un ecosistema di Ai più sicuro.

Altri in SOCIETÀ E IMPRESA

Potrebbe interessarti anche