News

C’è un argomento che sta coinvolgendo più o meno tutti i giudici del mondo (e no, non c’entrano nulla guerre, petrolio o dazi)

.ce-un-argomento-che-sta-coinvolgendo-piu-o-meno-tutti-i-giudici-del-mondo-e-no-non-centrano-nulla-guerre-petrolio-o-dazi

Ormai è un dato di fatto: da tre anni l’intelligenza artificiale è entrata nelle vite di tutti i giorni di gran parte della popolazione mondiale. Come era prevedibile, è arrivata anche nelle aule giudiziarie, ma forse non proprio come ci si aspettava.

In questo articolo vediamo come l’intelligenza artificiale (AI) è prepotentemente entrata nei tribunali e negli studi legali e come si stanno comportando i giudici e i professionisti del diritto nelle diverse parti del mondo.

I primi passi

Prima di osservare come e quanto l’intelligenza artificiale è presente oggi nei tribunali e nelle corti mondiali, è bene fare un breve riepilogo di come siamo arrivati a questo punto e dei passaggi di una storia che si è evoluta ad una velocità spaventosa, quasi disumana.

A novembre 2022, OpenAI, azienda statunitense che si occupa di ricerca AI, ha rilasciato sul mercato il primo modello di Chatbot gratuito: ChatGPT. OpenAI fino ad allora era quasi sconosciuta e l’intelligenza artificiale era materiale solo per film di fantascienza in stile Blade Runner: sembra un’Era fa, invece sono passati poco più di tre anni.

Novembre 2022 è quindi uno snodo essenziale della storia al centro di questo articolo, perché segna il momento in cui per la prima volta una massa di persone “comuni” è venuta in contatto con il mondo dell’intelligenza artificiale, prima aperto solo agli esperti delle big tech. Abbiamo poi scoperto che dietro quel rilascio frettoloso di OpenAI c’era la fretta di mettere sul mercato un prodotto prima dei tantissimi concorrenti che stavano lavorando alla loro versione di un prodotto identico: tutte le grandi aziende tech stavano infatti investendo da decenni in questi progetti.

ChatGPT è stato il primo, l’aprifila di una lunga serie di Chatbot rilasciati dalla fine del 2022 che oggi quasi tutti utilizziamo per le cose più disparate.

Per chi ancora non lo sapesse, un Chatbot è un programma che utilizza l’elaborazione del linguaggio naturale (quello che utilizziamo tutti i giorni, che leggiamo nei libri o negli articoli come questo) per intrattenere conversazioni con gli utenti.

L’AI è migliorata, ma commette ancora errori

Da quelle prime conversazioni piene di errori, risposte brevi e promesse di risposte esaustive che poi non arrivavano mai siamo passati a conversazioni fluenti, generazione di testi sempre più lunghi, di immagini, di video (del problema delle immagini e dei video abbiamo parlato in questo articolo). Conosciamo oggi il significato di termini che prima non ci dicevano alcunchè, come token, prompt, output e così via.

Intendiamoci bene: l’intelligenza artificiale commette ancora errori (le cd. allucinazioni) e su questo tema si scontrano due visioni del mondo. I possibilisti, fiduciosi che in futuro gli errori saranno sempre meno fino a scomparire, e chi invece ritiene che non si arriverà mai ad un modello senza errori.

Una cosa non si può negare e cioè che oggi l’AI di errori ne commette e per usarla è necessario esserne consapevoli.

D’altronde potremmo dire che questa è la sua natura, visto che il suo funzionamento si basa sull’analisi di una quantità indicibile di dati e che la risposta è generata su base statistica. Non c’è dietro la risposta una comprensione profonda di ciò che carichiamo, ma un calcolo.

Sta di fatto che in poco più di tre anni ChatGPT e tutti gli altri chatbot venuti dopo (Gemini, Claude e così via) hanno plasmato il loro modo di conversare, lo stile e il loro comportamento sulla base dell’interazione quotidiana con milioni di persone.

Adesso generano ogni giorno centinaia di migliaia (se non milioni) di contenuti come articoli, riassunti, immagini, video e tantissimo altro ancora.

Come era prevedibile, l’intelligenza artificiale è arrivata anche nei tribunali, ma è il come a sorprendere.

L’inaspettato utilizzo iniziale dell’AI da parte degli avvocati e di alcuni giudici

I primi casi di uso di intelligenza artificiale in tribunale hanno coinvolto gli avvocati, soprattutto quelli statunitensi.

Forse il primo professionista in assoluto a finire in tribunale per l’uso improprio dell’AI fu l’avvocato S.A. Schwartz, che citò precedenti inventati dall’AI. A fargli compagnia sono stati tantissimi colleghi negli ultimi tre anni.Molti tra questi sono italiani, poi condannati al risarcimento per colpa grave.

Ma se pensate che solo avvocati usino l’intelligenza artificiale in tribunale, vi sbagliate di grosso e c’è un caso che lo dimostra.

Dopo poco più di un anno dal rilascio di ChatGPT, un giudice di un tribunale distrettuale dei Paesi Bassi ha utilizzato il Chatbot per una sentenza.

Lo strumento informatico è stato utilizzato come (ma sarebbe più corretto dire al posto di) un consulente tecnico per risolvere una causa tra vicini di casa.

In questo caso, ciò che rileva è che il giudice, invece di nominare un consulente (quindi un esperto), abbia utilizzato il modello linguistico, evidenziando poi in sentenza che questo non aveva fondato la sua decisione, che sarebbe comunque stata quella, ma l’aveva supportata.

E qui può scattare la prima grande red flag: ad oggi, i Chatbot non sono portatori di verità, bensì macchine che rilasciano un contenuto basato sulla statistica. Sono programmati per compiacere chi li usa e molto raramente si oppongono a ciò che dice chi li interroga. Stiamo parlando comunque di prodotti commerciali di uso comune: se evidenziassero tutti gli errori, probabilmente molti non li utilizzerebbero più e addio addestramento collettivo.

Quello del giudice dei Paesi Bassi, comunque, non è un caso isolato.

Il 60% dei giudici federali utilizza l’AI

La Northwestern University ha rilasciato a marzo 2026 un report dal quale emerge che il 60% dei giudici federali americani usa l’intelligenza artificiale. Questo dato non implica che più della metà delle decisioni dei giudici americani sia scritta dall’intelligenza artificiale, ma “solo” che nello svolgimento delle proprie attività il 60% di questi giudici usa almeno uno strumento basato sull’intelligenza artificiale.

L’uso dell’AI da parte dei professionisti non si ferma qui.

Ma i documenti generati con l’AI che cosa sono nel processo?

Le sentenze – anche delle Corti superiori – che hanno stigmatizzato l’uso dell’intelligenza artificiale da parte dei professionisti pare non abbiano sortito l’effetto sperato, tanto che conversazioni con i più famosi Chatbot sono state depositate non si capisce a quale titolo in diversi processi.

I giudici del tribunale di Ferrara hanno emesso una sentenza che ha il pregio di andare oltre la polarizzazione del discorso intorno all’AI, che vede ai due poli opposti chi ne disconosce qualsiasi utilità e ne stigmatizza l’uso e chi, invece, la racconta come uno strumento salvifico.

Il merito della sentenza di Ferrara è superare questa contrapposizione e provare a ricostruire un discorso sull’intelligenza artificiale in tribunale basato su utilità e responsabilità.

Il caso si basa su alcuni documenti generati dall’intelligenza artificiale e presentati in giudizio. Questi documenti, dovrebbe essere intuitivo, non possono essere qualificati come prova, cioè come strumenti per accertare un determinato fatto, nè nel processo civile nè tantomeno in quello penale.

Sembra anche inutile dirlo, ma una conversazione tra un avvocato e  ChatGPT non sostituisce, ad esempio, una consulenza tecnica di parte.

Il tribunale di Ferrara, però, si è trovato a doversi esprimere anche su questo punto. I giudici hanno sottolineato che un documento contenente una conversazione con un Chatbot, non è una prova documentale, neanche atipica, hanno però sottolineato un principio derivante dal diritto dell’Unione europea.

Applicare le regole per sfruttare bene un’opportunità

Come ribadito dai giudici dell’Emilia Romagna, non è possibile oggi vietare l’uso dell’intelligenza artificiale. Diventa allora imprescindibile educare ad un uso basato sulla cautela. La normativa c’è, è necessario solo applicarla. L’AI Act (Regolamento UE 2024/1689) impone il rispetto del principio della supervisione umana per l’utilizzo in campo legale dell’AI. Gli avvocati che usano questi sistemi devono ricontrollare scrupolosamente tutto ciò che la macchina genera.

Un tassello lo ha aggiunto anche la legge italiana sull’intelligenza artificiale (L. 132/2025), che non vieta l’uso di tali sistemi per i professionisti ma lo confina alle sole attività strumentali e di supporto all’attività dell’avvocato e lo subordina al dovere del professionista di informare il suo cliente su tale uso.

L’uso dell’intelligenza artificiale non è vietato e non è da stigmatizzare, ma deve rispettare i limiti imposti dalla normativa europea e italiana.

Sul punto sono interessanti anche le linee guida giudiziarie del Regno Unito, la cui prima versione risale già al dicembre 2023, mentre l’ultima è stata pubblicata a ottobre 2025.

Il documento contiene prima di tutto un glossario per alfabetizzare sulla terminologia legata all’AI, cui seguono una serie di avvertimenti sui problemi che può provocare l’uso di tali sistemi.

Come la regolamentazione europea, anche le linee guida inglesi impongono un controllo dell’accuratezza.

L’uso dell’AI da parte delle persone “comuni”

Quanto detto fino a questo momento riguarda professionisti e soggetti qualificati, ma vediamo quali possono essere le conseguenze quando a fare le domande sono persone comuni.

Tutti, chi più chi meno, abbiamo utilizzato l’intelligenza artificiale. All’inizio spinti dalla voglia di capirne il funzionamento come si cerca di scoprire quali sono i trucchi in uno spettacolo di magia. Da quell’uso titubante, però, siamo velocemente passati all’affidamento senza se e senza ma e, quando è coinvolto un problema medico o legale, le conseguenze possono essere pericolose.

In Italia per stare in giudizio è necessaria la presenza di un avvocato, cioè di un soggetto che ha conseguito una laurea, ha poi svolto un tirocinio, ha superato un esame di abilitazione e, infine, si è iscritto ad un albo professionale, con conseguenti tasse, responsabilità e sottoscrizione di un codice etico e deontologico. Non in tutto il mondo, però, è così.

Cosa può accadere quando l’avvocato non è obbligatorio?

Negli Stati Uniti, ad esempio, è possibile rappresentarsi da soli, il che vuol dire difendersi e anche iniziare una causa da zero senza la consulenza di un esperto. L’AI può diventare allora un vero problema, perchè potrebbe essere utilizzata al posto dell’esperto, nella convinzione di risparmiare dei soldi.

Non è un esercizio di fantasia ma qualcosa di già attuale, che ha portato una compagnia assicurativa a citare in giudizio ChatGPT per esercizio abusivo della professione forense e conseguente responsabilità da prodotto.

La compagnia ha ricevuto più richieste di risarcimento, finite in tribunale, da parte di una donna non soddisfatta dell’accordo che aveva raggiunto con la compagnia stessa fuori dalle aule giudiziarie. La donna, utilizzando ChatGPT, aveva scritto diversi ricorsi per ottenere un risarcimento, pur essendosi in precedenza accordata con la compagnia assicurativa.

Il punto non è tanto la presenza di errori, quanto la distorsione che si crea nel momento in cui un sistema (come quello americano) non ha il filtro necessario della difesa tecnica ma consente a chiunque di presentarsi da solo davanti al giudice.

Il disclaimer che avverte della possibilità di errori del sistema non è sufficiente a scalfire il sentimento di affidamento che i Chatbot stanno generando, soprattutto tra le persone che non hanno le competenze tecniche per cogliere gli errori delle risposte.

I risultati dei modelli linguistici conversazionali (come ChatGPT) devono sempre essere controllati nel merito, come giustamente ribadito dal tribunale di Ferrara. Non sempre, però, chi interroga ha le conoscenze necessarie per accorgersi dell’errore.

Sfruttare bene le nuove tecnologie

Per ottenere il risultato migliore da questa nuova tecnologia si dovrebbe forse abbandonare la polarizzazione tra chi ne condanna, spesso per paura, l’uso e chi invece la vede come la soluzione di ogni problema.

Il primo passo è accettare che le risposte non sono – e forse non saranno mai – perfette e senza errori. Questo non vuol dire che lo strumento non funziona o non può essere utile. Al contrario, questa consapevolezza suggerisce un metodo: alzare il livello di attenzione nella fase di controllo dell’output e utilizzare al meglio uno strumento innovativo. Tutto ciò è possibile anche in lavori intellettuali caratterizzati da un elevato livello professionale (come quelli del settore legale).

Utilizziamo ogni giorno una tecnologia che abbiamo chiamato intelligenza artificiale, ma che è molto diversa dall’intelligenza umana. Forse per far sì che diventi un supporto reale per il lavoro di tutti i giorni e non una fonte di problemi, basterebbe rispettare il principio del controllo umano.