Nella recentissima decisione del Tribunale di Firenze, sezione imprese RG 11053/2024 sul tema dell’utilizzo non autorizzato di un marchio si segnala che i Giudici hanno rigettato la richiesta di condanna ex. art. 96 cpc per via del fatto che nell’atto, realizzato grazie all’utilizzo dell’Intelligenza artificiale (di seguito AI) di ChatGPT, venivano citate delle sentenze, come precedenti, non solo sbagliate ma addirittura inventate.
Un fatto decisamente non solo inquietante ma anche particolare per la sua natura.
Leggiamo anzitutto le parti rilevanti come riportate nella decisione del Tribunale.
Anzitutto i Giudici non possono che esordire sul punto in diritto rilevando come “debba essere rigettata la richiesta di condanna di ex art. 96 c.p.c. avanzata da () a seguito dell’indicazione, in sede di comparsa di costituzione, di sentenze inesistenti, ovvero il cui contenuto reale non corrisponde a quello riportato”.
A seguito di un attività di verifica a mezzo di scambio di note nel corso del giudizio, quando inevitabilmente è emersa la stranezza secondo quanto riportato dai Giudici in sentenza leggiamo: “il difensore della società costituita ha dichiarato che i riferimenti giurisprudenziali citati nell’atto sono stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza”.
A prescindere da ogni valutazione su quanto dichiarato dal difensore, i Giudici si soffermano su un aspetto molto interessante, rilevando che: “L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri”.
Non solo ma i Giudici aggiungono che: “In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non ha nulla a che vedere con tale argomento”.
In buona sostanza pur di dare ragione al suo richiedente l’Ai pare aver generato dei precedenti inesistenti e li ha in qualche modo “formati” in modo da sembrare veri.
Questo ha un peso notevole nell’acceso dibattito sui c.d. bias che influenzano l’addestramento, nella tecnica di machine learning, cui sono impostate molte Ai, quando vengono “formate” cioè istruite a svolgere il loro lavoro sulla base di selezionati dataset di informazioni che gli vengono messi a disposizione e dai quali esse Ai possono attingere la loro conoscenza.
Addestrate attraverso tecniche di automiglioramento spesso organizzate con discutibili premi di performance che potrebbero premiare più il risultato che il metodo o l’operato con cui lo si raggiunge.
L’Ai, che secondo alcuni è la risposta praticamente a tutto ciò che è informazione e attività di studio, si è rivelata, perlomeno in questo caso, totalmente non in grado di esercitare questa Professione. Quella dell’Avvocato.
Non ha commesso un piccolo errore, ma ha fatto qualcosa di a dir poco straordinario: non solo ha sbagliato, ma consapevole di non poter fare altrimenti cioè di non essere in grado di sostenere la strategia processuale per la quale è stata coinvolta, ha sostanzialmente “barato”.
A prescindere da ogni valutazione sull’eventuale errore umano del difensore reo di non aver controllato i risultati che non é oggetto di questo articolo, io trovo che “l’atteggiamento” dell’Ai sia potenzialmente problematico. Peraltro non nuovo. Ci sono precedenti. In particolare negli ultimi due anni. In diversi ambiti.
Inoltre l’Ai non pare aver mostrato ritrosie o controspinte cautelari, tali da avvertire l’umano che il suo lavoro avrebbe potuto non essere del tutto esatto. Il suo principale scopo sembrerebbe essere stato proprio quello di sfruttare il metodo dei precedenti per ingannare il Giudice.
Sia ben chiaro che per coloro che commettono questi errori, cioè utilizzare questi strumenti ci sono delle conseguenze. Cioè delle penalizzazioni che vanno molto oltre il non avere, ovviamente, ragione.
Il rischio nell’avvalersi di un sistema che può realizzare una contraffazione non è solo quello di doversi scusare, in quanto si parla di “diritti” cioè di fattispecie che possono cambiare la vita di parecchie persone e avere ragione sulla base di un artificio capziosamente creato da una intelligenza artificiale ha conseguenze per l’umano che la usa. Anche e sopra tutto qualora manchi la supervisione e il controllo.
Tuttavia l’aspetto inquietante è che l’Ai potrebbe aver cercato di avere ragione.
Infatti, in non poche occasioni le Ai comprendono la finalità dell’attività che gli viene richiesta e non sono veramente imparziali operando una sorta di etica del lavoro più utile che ben fatto. Siamo in presenza di un “qualcosa” che potrebbe qualificarsi come un evoluzione della veridizione basata sulla “best evidence” (di stampo USA) che l’Ai non si limita a subire ma elabora.
Il grande Prof. Umberto Eco a proposito dell’uso dei calcolatori ebbe a proferire: “Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti”.
Mentre la riflessione del Prof. Stephen Hawking sul tema di un Intelligenza Artificiale più avanzata fu: “Le forme primitive di intelligenza artificiale che abbiamo già sono state molto utili. Ma credo che lo sviluppo di un’intelligenza artificiale completa potrebbe mettere fine al genere umano“
Già oggi è molto comune, in special modo tra i giovani, rispondere alle domande o sostenere le proprie ragioni riproducendo le interrogazioni e quindi le risposte delle varie Ai usufruibili tramite App.
Non verificano se sono corrette. O se lo sono in parte. O se possono non esserlo a condizione che.. Danno per scontato che quelle indicazioni siano quanto di più vero abbiano a disposizione per assolvere al loro obiettivo di avere ragione o di patrocinare con maggior forza e autorevolezza la propria posizione.
Il fenomeno é peraltro drammaticamente abbastanza comune nel diritto; il sottoscritto ha già avuto modo di confrontarsi con persone che chiedono una consulenza legale ad esempio sui ricorsi ACF o nelle mediazioni in diritto di Famiglia o nel settore ereditario opponendo quello che la ricerca con una App. di Ai gli riferisce. Alcuni pensano di fare da soli. Si scrivono le lettere legali o i reclami usando queste App. Delegano i loro interessi a una risposta data da una Ai. Lo stesso accade nella contrattualistica dove si chiede all’Ai di elaborare il contratto, lo statuto o l’accordo.
E’ uno strumento che andrebbe utilizzato in maniera prudente e questa decisione, davvero molto corretta dei Giudici di Firenze che sono stati bravissimi, è l’ennesimo segnale di allarme.
Avv. Marco Solferini – www.studiolegalesolferini.com