ALLUCINAZIONI DI CHATGPT: DENUNCIA PER OPENAI

Mark Walters, conduttore radiofonico della Georgia, ha denunciato OpenAI per diffamazione. Il popolare ChatGPT ha fornito informazioni false ad un giornalista che aveva chiesto il riassunto di un caso giudiziario. Si tratta di un chiaro esempio di allucinazione, ovvero risposte completamente sbagliate da parte del chatbot. L’azienda californiana ha recentemente pubblicato una possibile soluzione al problema.

Denuncia per diffamazione contro OpenAI

Il giornalista Fred Riehl ha chiesto a ChatGPT di scrivere un riassunto delle accuse contenute in una denuncia, specificando il link al documento legale. La risposta fornita dal chatbot era completamente inventata. Nel riassunto era scritto che la denuncia è stata presentata dalla Second Amendment Foundation (SAF) contro Mark Walters, in quanto accusato di frode e appropriazione indebita di fondi.

Come specificato nella denuncia contro OpenAI, ChatGPT ha scritto che Walters, in qualità di tesoriere e Chief Financial Officer della SAF, ha sottratto fondi per uso personale e falsificato la contabilità per nascondere le sue attività. Per questo motivo è stato rimosso dal consiglio di amministrazione. Come ha confermato il fondatore e presidente della SAF, ChatGPT ha inventato tutto.

Le allucinazioni dei modelli IA sono piuttosto frequenti. Dopo il login, OpenAI avverte l’utente che ChatGPT potrebbe fornire informazioni sbagliate. Anche un avvocato ha scoperto a proprie spese che il chatbot può fornire risposte completamente false. Walters ha chiesto a OpenAI un risarcimento danni, oltre alle spese legali.

Ci sono però due stranezze. Il giornalista non ha mai pubblicato online la risposta di ChatGPT, quindi non è chiaro chi ha informato Walters. Inoltre, il chatbot non può accedere a fonti esterne. Quando viene inserito un link, ChatGPT risponde che non può accedere o aprire file PDF o altri documenti.

Leggi l'articolo originale >> Allucinazioni di ChatGPT: denuncia per OpenAI

2023-06-09T12:57:30Z dg43tfdfdgfd