Nel 2025 il sistema giuridico italiano si trova al centro di una trasformazione strutturale che segna uno dei passaggi più rilevanti della sua storia recente. L’ingresso dell’intelligenza artificiale nei processi legali non è più un’ipotesi teorica né un tema confinato ai dibattiti accademici, ma una realtà concreta che sta ridefinendo ruoli, responsabilità e modelli operativi. È in questo contesto che prende forma un nuovo equilibrio tra capacità umana e potenza computazionale, un equilibrio che richiede regole chiare, visione strategica e una profonda maturità culturale.
Da osservatori e operatori dell’innovazione, in isek.AI Lab interpretiamo questa fase come un passaggio necessario verso una giustizia più efficiente, accessibile e sostenibile, a condizione che l’intelligenza artificiale venga governata come strumento di supporto e non come sostituto del giudizio umano.
La svolta normativa è stata formalizzata con l’entrata in vigore, il 10 ottobre 2025, della Legge n. 132/2025, il primo quadro organico nazionale dedicato all’intelligenza artificiale. Questa normativa si inserisce in continuità con il Regolamento UE 2024/1689, noto come AI Act, adattandone i principi al contesto giuridico italiano. Non si tratta di una semplice trasposizione tecnica, ma di una scelta politica e culturale che riconosce il valore dell’innovazione tecnologica e, allo stesso tempo, ne delimita l’uso entro confini etici, trasparenti e pienamente compatibili con i diritti fondamentali.
Il cuore della legge è una visione chiaramente orientata all’essere umano. La persona resta il perno del sistema, mentre l’algoritmo diventa un moltiplicatore di capacità, chiamato a operare secondo criteri di spiegabilità, non discriminazione, protezione dei dati e responsabilità giuridica. Questo impianto normativo riflette una consapevolezza ormai diffusa anche a livello industriale: l’intelligenza artificiale produce valore solo quando è integrata in processi governabili e comprensibili.
Uno degli ambiti più direttamente coinvolti è quello della professione forense. L’Articolo 13 della Legge 132/2025 definisce in modo netto il rapporto tra avvocato e sistemi di intelligenza artificiale, sancendo una distinzione che è al tempo stesso giuridica e culturale. L’avvocato resta l’unico titolare dell’attività intellettuale, strategica e decisionale, mentre l’IA assume il ruolo di assistente evoluto, capace di supportare la ricerca giurisprudenziale, l’analisi documentale e la redazione preliminare degli atti.
In questa relazione, la tecnologia non riduce il valore della competenza legale, ma ne amplifica l’efficacia, liberando tempo e risorse che possono essere reinvestite nell’analisi critica, nel rapporto con il cliente e nella costruzione della strategia difensiva. È una prospettiva che in isek.AI Lab consideriamo centrale: l’IA come leva per restituire centralità alla qualità del pensiero umano, non per comprimerla.
La legge introduce anche un principio di trasparenza che ridefinisce il rapporto fiduciario tra professionista e cliente. L’avvocato è ora tenuto a dichiarare l’eventuale utilizzo di strumenti di intelligenza artificiale nello svolgimento dell’incarico. Questa previsione non va letta come un vincolo punitivo, ma come un’evoluzione della deontologia professionale, coerente con un contesto in cui la tecnologia entra stabilmente nei processi decisionali. Informare il cliente significa rafforzare la fiducia e rendere l’innovazione un elemento condiviso, non opaco.
Se il legislatore ha aperto con decisione all’uso dell’IA nella professione legale, altrettanto chiara è la posizione assunta sull’amministrazione della giustizia. L’Articolo 15 della Legge 132/2025 stabilisce un principio non negoziabile: la decisione giudiziaria deve rimanere umana. L’intelligenza artificiale può supportare l’organizzazione dei fascicoli, l’analisi dei dati e l’individuazione di precedenti, ma non può in alcun modo sostituirsi al giudice nella formazione del convincimento e nella redazione della sentenza.
Ogni utilizzo di sistemi intelligenti nei tribunali è sottoposto a obblighi stringenti di tracciabilità e dichiarazione. Se un provvedimento è stato redatto con il supporto di un software, tale circostanza deve essere esplicitata. Questa scelta rafforza la legittimità dell’uso dell’IA, perché ne rende visibile il perimetro di intervento e ne consente una valutazione critica. Parallelamente, il Ministero della Giustizia ha avviato programmi di formazione dedicati a magistrati e personale amministrativo, riconoscendo che la competenza tecnologica è oggi una componente essenziale dell’indipendenza e dell’efficacia del sistema giudiziario.
Lo sguardo della normativa si estende anche al futuro del lavoro legale. Con l’istituzione dell’Osservatorio sull’IA e sul lavoro, prevista dall’Articolo 12, lo Stato si dota di uno strumento permanente di analisi dell’impatto dell’automazione sulle professioni. L’obiettivo non è frenare l’innovazione, ma accompagnarla, orientando la formazione e valorizzando le nuove competenze che emergono dall’integrazione tra diritto e tecnologia.
In questa direzione si colloca anche la delega al Governo per l’adozione dei cosiddetti decreti di sistema, che dovranno disciplinare formazione obbligatoria ed equo compenso in relazione all’uso responsabile dell’IA. Si afferma così un principio chiave: la capacità di utilizzare in modo etico e consapevole gli strumenti algoritmici diventa una competenza professionale riconosciuta, con ricadute anche sul piano economico.
Particolarmente rilevante è l’intervento sul diritto d’autore. La legge chiarisce che solo le opere caratterizzate da un apporto creativo umano determinante possono beneficiare della tutela del copyright. L’intelligenza artificiale, anche quando genera contenuti complessi, resta uno strumento. Questa impostazione, che in isek.AI Lab condividiamo pienamente, preserva il valore della creatività umana e definisce un modello di co-creazione in cui la tecnologia amplifica, ma non sostituisce, l’autorialità.
Sul piano giurisprudenziale, i tribunali italiani hanno già iniziato a tracciare confini operativi molto chiari. I primi casi legati all’uso improprio dell’IA negli atti processuali hanno mostrato un atteggiamento di crescente severità nei confronti dell’affidamento acritico ai sistemi generativi. Le sanzioni comminate per citazioni inesistenti o atti privi di controllo umano hanno ribadito un principio fondamentale: l’intelligenza artificiale non esonera il professionista dalla responsabilità, ma la rende, se possibile, ancora più centrale.
Questi episodi si inseriscono in una dinamica internazionale più ampia e rafforzano l’idea che l’adozione dell’IA richieda metodo, competenza e verifica continua. Non è la tecnologia a generare l’errore, ma il suo utilizzo non governato.
La percezione della categoria forense riflette questa fase di transizione. Le indagini mostrano un’adozione ancora parziale, accompagnata da un diffuso scetticismo sulla capacità dell’IA di interpretare correttamente la complessità del diritto. Tuttavia, emergono segnali chiari: i professionisti più giovani e gli studi strutturati sono già proiettati verso modelli di lavoro aumentati dall’intelligenza artificiale, mentre cresce la consapevolezza che, nel medio periodo, questi strumenti contribuiranno a ridurre tempi e costi della giustizia.
Le preoccupazioni legate a bias, opacità e perdita di empatia sono reali e legittime, ma rappresentano anche la ragione per cui è necessario un approccio progettuale e responsabile. In isek.AI Lab crediamo che il futuro della giustizia non sia una contrapposizione tra umano e artificiale, ma una sintesi evoluta in cui l’intelligenza artificiale diventa infrastruttura di supporto al pensiero critico, alla qualità delle decisioni e alla tutela dei diritti.
La sfida per il sistema legale italiano non è decidere se adottare l’IA, ma come farlo. La Legge 132/2025 fornisce una cornice solida. Ora spetta ai professionisti, alle istituzioni e agli innovatori trasformarla in una pratica quotidiana capace di coniugare efficienza, etica e centralità della persona. È in questo spazio che si gioca il vero futuro della giustizia aumentata dall’intelligenza artificiale.



