I giudici mettono in guardia dalle ' allucinazioni giurisprudenziali' di ChatGPT

AGI - Attenzione alle 'allucinazioni giurisprudenziali'. L'allarme lo lancia il Tribunale di Firenze - sezione specializzata imprese in una sentenza che affronta il tema dei rischi per gli operatori del diritto di essere ingannati da informazioni non vere prodotte da ChatGPT. In un caso affrontato nei giorni scorsi, ChatGPT aveva inventato numeri riferibili a presunte sentenze della Cassazione in tema di acquisto di merce contraffatta al punto che un legale aveva chiesto la condanna del collega 'rivale' nel procedimento accusandolo di "abusivo utilizzo dello strumento processuale" per avere cercato di influenzare il giudizio del Tribunale con dati fasulli, provocandogli cosi' dei danni. Il legale aveva replicato, si legge nel provvedimento visionato dall'AGI, che "i riferimenti giurisprudenziali citati nell'atto erano stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell'intelligenza artificiale ChatGPT, del cui utilizzo lui non era a conoscenza".
I giudici mettono in guardia dalle

Agi.it - I giudici mettono in guardia dalle 'allucinazioni giurisprudenziali' di ChatGPT

Leggi su Agi.it

  • I giudici mettono in guardia dalle 'allucinazioni giurisprudenziali di ChatGPT
Ne parlano su altre fonti

  • giudici mettono guardia allucinazioniI giudici mettono in guardia dalle 'allucinazioni giurisprudenziali di ChatGPT - AGI - Attenzione alle 'allucinazioni giurisprudenziali'. L'allarme lo lancia il Tribunale di Firenze - sezione specializzata imprese in una sentenza che affronta il tema dei rischi per gli operatori d ... (msn.com)

Video giudici mettono