In un’epoca in cui l’intelligenza artificiale (IA) promette di rivoluzionare ogni settore, compreso quello legale, un recente caso giudiziario segna un importante campanello d’allarme: l’uso irresponsabile dell’IA può costare caro, non solo in termini di efficacia processuale, ma anche sotto il profilo sanzionatorio. È accaduto al Tribunale di Torino, dove un’opposizione a un’ingiunzione di pagamento è stata clamorosamente rigettata non perché priva di fondamento giuridico in astratto, ma perché redatta con l’ausilio dell’intelligenza artificiale in modo così approssimativo da risultare inidonea a sostenere la causa. La sentenza n. 2120 del 16 settembre 2025 ha infatti evidenziato che il ricorso conteneva «argomenti generici, privi di ordine logico e senza riferimenti concreti alla vicenda giudiziaria», nonché citazioni normative e giurisprudenziali «astratte e inconferenti».
La condanna per lite temeraria
Il giudice torinese ha ritenuto che il comportamento della parte attrice configurasse un abuso dello strumento processuale. In particolare, è stata rilevata malafede o, quanto meno, colpa grave nel presentare un atto giudiziale privo di sostanza e logicamente incoerente. Tale condotta è espressamente vietata dall’art. 96 del Codice di procedura civile, la norma che disciplina la cosiddetta “lite temeraria”. Di conseguenza, il Tribunale ha inflitto una sanzione pecuniaria di 500 euro, da versare sia alle controparti che alla Cassa delle ammende, ai sensi dell’art. 96, comma 4, c.p.c.
Un precedente “pericoloso” con radici già note
Questa non è la prima volta che l’uso improprio dell’IA solleva problemi nel contesto giudiziario. Già a marzo 2025, il Tribunale di Firenze, Sezione Imprese, aveva respinto una memoria difensiva in cui un avvocato aveva citato sentenze giurisprudenziali del tutto inesistenti, generate da un modello di intelligenza artificiale (in particolare, ChatGPT). In quel caso, però, i giudici avevano ritenuto che l’errore, sebbene grave, non fosse stato commesso in Il messaggio dei giudici: l’IA è uno strumento, non un sostituto.
Il messaggio dei giudici: l’IA è uno strumento, non un sostituto
Entrambi i casi – quello torinese e quello fiorentino – ribadiscono un principio fondamentale: l’intelligenza artificiale può essere un valido ausilio, soprattutto per la ricerca giuridica o la stesura preliminare di documenti, ma non sostituisce la responsabilità e la competenza di chi firma l’atto. Il cosiddetto fenomeno delle “allucinazioni” – ossia la tendenza dei modelli linguistici a inventare informazioni per dare comunque una risposta – rappresenta un rischio concreto, soprattutto quando non viene sottoposto a verifica critica da parte di un professionista esperto. Come già accaduto in altre giurisdizioni estere, dove avvocati sono stati sanzionati per aver presentato in tribunale sentenze “fantasma”, anche in Italia si sta delineando una giurisprudenza attenta e rigorosa nei confronti dell’affidamento cieco all’IA.
Il monito è chiaro: non barare con la giustizia, nemmeno con l’aiuto della tecnologia. L’uso disinvolto dell’intelligenza artificiale, senza il necessario controllo umano e la verifica delle fonti, non solo si rivela controproducente, ma può esporre a conseguenze economiche e deontologiche rilevanti.
In un’aula di tribunale, la competenza non si delega – tantomeno a un algoritmo.

