Roma, 29 mag – Le sentenze precompilate di ChatGpt per argomentare in tribunale. Così un avvocato di Manhattan ha provato a sfangarla in un dibattimento, come riporta Tgcom24, salvo poi venire beffato da un piccolissimo (eufemisticamente) particolare: i precedenti citati erano tutti falsi.
Le sentenze inventate da ChatGpt
Il legale aveva utilizzato una serie di sentenze generate da ChatGpt da usare come precedenti nell’argomentazione in aula, ma erano tutte inventate. La cosa più bizzarra è che l’avvocato in questione non sia neanche un neofita, ma perfino un veterano della professione, in attività da trent’anni nell’area di New York. L’Intelligenza artificiale aveva infatti formulato una serie di precedenti a cui il legale, tale Steven Schwartz, stesso si era affidato completamente per difendere il suo assistito, tale Roberto Mata, che accusava Avianca, una compagnia di volo, delle responsabilità per un ferimento a un ginocchio avvenuto nel 2019 a causa di un carrello delle vivande presente sul volo. Schwartz ha usato una serie di sentenze generate dalla Ia in cui si sosteneva che le corti avessero dato ragione ai passeggeri: ma, per l’appunto, nessuna di esse si è mai verificata.
Affidarsi alla tecnologia senza raziocinio può essere un problema
Dopo il mancato riscontro, il giudice Kevin Castel ha chiesto a Schwartz gli estremi dei casi citati, e dopo una serie di passaggi l’avvocato ha dovuto ammettere di essersi servito ciecamente delle sentenze comunicategli da ChatGpt e anche di non averla mai utilizzata prima di allora. La stessa Ia, interpellata, ha ammesso di aver inventato tutto. Insomma, affidarsi totalmente a una tecnologia – pur avveniristica – non è ovviamente una buona idea. Tanto più se si tiene conto di come funziona ChatGpt medesima, la quale non fa altro che avere un database sterminato e riscontrabile su internet sulla base di cui elabora testi sensati ma che non sempre corrispondono esattamente ad informazioni fondate.
Alberto Celletti