L’USO DELL’INTELLIGENZA ARTIFICIALE NELLA RISOLUZIONE EXTRAGIUDIZIALE DELLE CONTROVERSIE CIVILI E COMMERCIALI

di Pierfrancesco C. Fasano

Stampa la pagina
foto

L’integrazione dell’IA nel mondo giuridico: una realtà operativa

L’intelligenza artificiale (IA) non è più una possibilità futuristica: è una realtà che si dispiega quotidianamente anche nel settore giuridico. L’applicazione dell’IA nei meccanismi di risoluzione extragiudiziale delle controversie civili e commerciali (arbitrato, contenzioso giudiziario o risoluzione alternativa) rappresenta oggi un’opportunità concreta per migliorare l’efficienza dei processi e aumentare la capacità di gestione dei casi.

Tuttavia, l’uso dell’IA in questo contesto non è privo di complessità: occorre comprenderne le tipologie, valutarne i rischi e, soprattutto, conoscere le implicazioni normative derivanti dal nuovo Artificial Intelligence Act (AI Act) dell’Unione Europea.

Quali tipi di IA stiamo utilizzando?

Quando si implementa un sistema di intelligenza artificiale, è essenziale capirne non solo la tecnologia, ma la funzione e l’impatto. Il contesto applicativo è determinante ai fini degli obblighi giuridici previsti dall’AI Act. Lo stesso sistema può essere classificato in modo diverso a seconda del modo in cui viene usato.

L’AI Act, infatti, non valuta solo cos’è un sistema, ma soprattutto cosa fa.

Classificazione del rischio secondo l’AI Act

L’AI Act distingue i sistemi di IA in base al livello di rischio per i diritti fondamentali, la sicurezza e la salute delle persone. Le categorie principali sono:

a) Sistemi proibiti

Sono vietati i sistemi che manipolano il comportamento, effettuano sorveglianza biometrica in tempo reale o utilizzano meccanismi di “social scoring”.

b) Sistemi ad alto rischio

Come previsto dall’Articolo 6(2) e dall’Allegato III, rientrano in questa categoria i sistemi utilizzati per l’amministrazione della giustizia o per l’assistenza a autorità giudiziarie e organismi di risoluzione extragiudiziale delle controversie civili e commerciali, quando influenzano l’analisi dei fatti e l’applicazione della legge.

c) Dal rischio elevato a quello limitato

Tuttavia, l’Articolo 6(3) specifica che un sistema, pur elencato nell’Allegato III, non sarà considerato ad alto rischio se non ha un impatto materiale sull’esito decisionale. Sono esempi di uso “non materiale”:

  • Attività procedurali ristrette
  • Supporto a decisioni già prese da un essere umano
  • Rilevamento di pattern, senza sostituire la valutazione umana
  • Attività preparatorie prive di effetti decisivi

 IA e procedimenti non vincolanti: rischio o opportunità?

Una domanda cruciale è: l’IA può essere considerata ad alto rischio in un procedimento non vincolante?

Il Considerando 61 dell’AI Act fornisce un chiarimento importante: se i risultati del procedimento producono effetti giuridici, allora il sistema deve essere classificato come ad alto rischio.

Tuttavia, talune norme che regolano le procedure di risoluzione extragiudiziale delle controversie , come l’art. 3, lett a, della Direttiva UE 2008/52/CE o l’Articolo 21(2) del Digital Services Act (DSA) stabiliscono che un mediatore o un organismo certificato di risoluzione extragiudiziale non ha il potere di proporre accordi o imporre decisioni vincolanti. Di conseguenza, in questo contesto, l’uso dell’IA potrebbe non configurarsi come ad alto rischio, a meno che non influenzi materialmente i diritti delle parti.

Provider o deployer? Conoscere il proprio ruolo

La distinzione tra provider (fornitore del sistema) e deployer (utilizzatore) è centrale per determinare gli obblighi legali:
• Il provider è responsabile dello sviluppo e della messa sul mercato del sistema.
• Il deployer è chi impiega il sistema nel proprio contesto operativo, come ad esempio un organismo ODS.

Entrambe le figure hanno responsabilità specifiche, ma il deployer deve garantire che l’uso dell’IA sia conforme al contesto, in particolare per quanto riguarda i diritti fondamentali delle persone coinvolte.

Conformità all’AI Act: cosa significa “alto rischio”

Essere classificati come “alto rischio” non significa che l’IA non possa essere usata nella risoluzione extragiudiziale delle controversie civili e commerciali, ma che il suo utilizzo deve soddisfare requisiti più stringenti.

Requisiti per i provider:
• Registrazione del sistema nel database europeo
• Sistema di gestione della qualità
• Struttura di gestione dei rischi
• Governance dei dati e sicurezza informatica
• Trasparenza e documentazione dettagliata
• Supervisione umana

Requisiti per i deployer:
• Utilizzo conforme alle istruzioni del provider
• Valutazione d’impatto sui diritti fondamentali
• Conservazione dei log e della documentazione
• Supervisione umana costante
• Notifica di eventuali malfunzionamenti

E i sistemi a rischio limitato?

I sistemi di IA classificati come a rischio limitato sono soggetti a obblighi più leggeri, ma non irrilevanti. È comunque necessaria:

  • Trasparenza, ovvero informare l’utente quando interagisce con un sistema automatizzato
  • Formazione del personale, per garantire un livello minimo di alfabetizzazione sull’IA tra gli operatori

Questi requisiti sono fondamentali anche nei contesti della risoluzione extragiudiziale delle controversie civili e commerciali, in particolare quelle di tipo aggiudicativo, dove la fiducia degli utenti nel processo deve essere preservata.

Giustizia digitale: principi fondamentali

Il passaggio alla giustizia digitale non deve sacrificare i valori fondamentali. L’adozione dell’IA nella risoluzione extragiudiziale delle controversie deve rispettare i seguenti principi:

  • Trasparenza, per garantire che le parti comprendano il funzionamento del sistema
  •  Responsabilità, per assicurare la tracciabilità delle decisioni
  • Supervisione umana, per mantenere il controllo sui risultati
  • Efficienza, per migliorare l’accessibilità e la velocità delle procedure

Conclusione – Una nuova frontiera della giustizia, anche consensuale

L’intelligenza artificiale rappresenta una leva straordinaria per trasformare la giustizia, anche quella consensuale, ma deve essere utilizzata con responsabilità e consapevolezza normativa. Per gli organismi di risoluzione extragiudiziale delle controversie civili e commerciali e i loro terzi neutrali (mediatori, arbitri, arbitratori, consulenti tecnici), questa è l’occasione per dimostrare che innovazione e diritti fondamentali possono coesistere, se governati correttamente.

Altri in SOCIETÀ E IMPRESA

Potrebbe interessarti anche