Pre-loader

Intelligenza artificiale: avvocati di New York sanzionati per l’utilizzo di falsi casi ChatGPT in cause legali

di Alessandro Scassellati

Il giudice distrettuale degli Stati Uniti P. Kevin Castel a Manhattan ha ordinato agli avvocati Steven Schwartz, Peter LoDuca e al loro studio legale Levidow, Levidow & Oberman di pagare una multa di $ 5.000 in totale. Il giudice ha ritenuto che gli avvocati abbiano agito in malafede e compiuto “atti di consapevole elusione e dichiarazioni false e fuorvianti alla corte“.

Levidow, Levidow & Oberman hanno affermato in una dichiarazione che i loro avvocati “rispettosamente” non erano d’accordo con la corte per aver agito in malafede. “Abbiamo commesso un errore in buona fede non credendo che un pezzo di tecnologia potesse completamente inventare dei casi“, afferma la dichiarazione dell’azienda.

Schwartz ha ammesso a maggio di aver utilizzato ChatGPT per aiutare a ricercare la tesi argomentativa della memoria legale nel caso di lesioni personali di un cliente contro la compagnia aerea colombiana Avianca e ha inconsapevolmente incluso le false citazioni. Nella causa, il cliente dei due avvocati, Roberto Mata, ha cercato di dimostrare che la compagnia aerea Avianca era responsabile di un infortunio che dice di aver subito quando un carrello di servizio in metallo gli ha colpito il ginocchio durante un volo dell’agosto 2019 da El Salvador a New York.

Dopo che Avianca aveva chiesto di archiviare la causa perché il termine di prescrizione era scaduto, Schwartz ha preparato una memoria di 10 pagine, firmata poi da LoDuca, citando più di una mezza dozzina di decisioni giudiziarie con nomi come Martinez vs. Delta Air Lines, Varghese vs. China Southern Airlines e Zicherman vs. Korean Air Lines, per sostenere che il contenzioso avrebbe dovuto essere lasciato proseguire.

Gli avvocati di Avianca hanno prima avvertito il tribunale a marzo di non essere riusciti a individuare alcuni casi citati nella memoria. Bart Banino, un avvocato di Avianca, ha dichiarato che, indipendentemente dall’uso di ChatGPT da parte degli avvocati, il tribunale ha raggiunto la “giusta conclusione” archiviando il caso di lesioni personali. Il giudice con separata ordinanza ha accolto l’istanza di Avianca di archiviare la causa perché depositata troppo tardi come  la compagnia aerea aveva sostenuto.

Il giudice ha scritto nell’ordine sanzionatorio che non c’è nulla di “intrinsecamente improprio” negli avvocati che utilizzano l’intelligenza artificiale “per assistenza“, ma ha affermato che le regole di etica degli avvocati “impongono un ruolo di controllo agli avvocati per garantire l’accuratezza dei loro documenti“.

Il giudice ha anche affermato che gli avvocati “hanno continuato a sostenere le false opinioni” dopo che il tribunale e la compagnia aerea avevano messo in dubbio la loro esistenza. Nella sua sentenza ha anche stabilito che gli avvocati devono avvisare i giudici, tutti reali, i cui nomi apparivano nella memoria legale come autori dei falsi casi di sanzione, inviando loro una copia della sua sentenza. Ma il giudice ha scritto che non avrebbe richiesto agli avvocati di scusarsi con quei giudici, “perché una scusa forzata non è una scusa sincera. “Qualsiasi decisione di chiedere scusa è lasciata a loro“.

Nella sua sentenza, il giudice non ha rinviato a giudizio gli avvocati per eventuali azioni disciplinari, ma le autorità disciplinari potrebbero avviare proprie indagini. Tali indagini possono portare a un rimprovero privato o a sanzioni pubbliche come la sospensione o la radiazione dall’albo.

La scoperta che ChatGPT aveva contribuito a creare la memoria legale in una causa altrimenti insignificante si è riverberata in tutta la professione legale. La rivelazione ha anche affascinato la comunità tecnologica, che ha discusso i pericoli dell’eccessiva dipendenza dall’intelligenza artificiale, anche come minaccia esistenziale per l’umanità.

Probabilmente la pubblicità mondiale sul caso ha aiutato Schwartz e LoDuca a evitare un destino peggiore, ma ora e per sempre saranno conosciuti come “gli avvocati che sono stati ingannati da ChatGPT”, che di fatto è anche una sanzione. Il caso è il primo, ma probabilmente non l’ultimo, avvertimento al mondo degli avvocati di non lasciarsi sedurre dal richiamo della sirena dell’IA generativa.

 

Intelligenza artificiale: avvocati di New York sanzionati per l’utilizzo di falsi casi ChatGPT in cause legali

La casa dei diritti è anche casa tua

sostienici Diventa Volontario!