in

Perché i chatbot non possono smettere di essere bugiardi


Recentemente, Google ha discusso con varie testate (tra cui il New York Times e il Washington Post) la possibilità di sperimentare un suo chatbot, chiamato Genesis, per la stesura di brevi articoli. Il più noto ChatGPT è stato invece, in qualche occasione, utilizzato per ricevere consigli psichiatrici, per diagnosticare malattie o per scrivere documenti legali. Tutti ambiti in cui l’affidabilità e l’accuratezza sono fondamentali.

C’è solo un problema: ChatGPT e gli altri LLM (Large Language Model, sistemi di intelligenza artificiale in grado di generare testi di ogni tipo) soffrono delle cosiddette allucinazioni. È il termine con cui gli esperti indicano la tendenza di queste IA a presentare come fatti, testi che invece sono imprecisi o completamente sbagliati. In poche parole, i chatbot hanno la tendenza a inventarsi le cose.

Intelligenza artificiale

La IA fra razzismo e discriminazione: due anni dopo, siamo messi peggio di prima


Finché utilizziamo ChatGPT, e gli altri modelli simili, come un assistente da noi attentamente supervisionato (per riassumere lunghi testi, scrivere semplici mail di lavoro o creare diverse versioni di uno slogan da noi inventato), tutto ciò non rappresenta un particolare problema. Se però, come molti ritengono, in futuro questi strumenti assumeranno un ruolo importante anche in settori in cui l’accuratezza è di cruciale importanza, e in cui gli errori hanno gravi conseguenze, allora è fondamentale risolvere il problema delle allucinazioni.

È possibile riuscire in questa impresa? Sam Altman, il fondatore di OpenAI (la società produttrice di ChatGPT), è prevedibilmente ottimista: “Penso che saremo in grado di migliorare molto il problema delle allucinazioni. Potrebbe volerci un anno e mezzo o magari due, ma riusciremo a superare questi limiti”, ha spiegato durante una visita a un’università indiana.

Non tutti, però, condividono il suo punto di vista. Gli LLM non fanno che rielaborare, attraverso un enorme taglia e cuci statistico, la vastissima quantità di testi presenti nel loro database, prevedendo quale parola abbia la maggiore probabilità di essere coerente con quelle che l’hanno preceduta (per esempio, stimando che è statisticamente più corretto concludere con la parola “passeggiata”, invece che con la parola “canzone”, la frase “porto il cane a fare una” ).

In tutto ciò, però, non c’è la minima comprensione di ciò che effettivamente stanno enunciando, ma solo la capacità di produrre testi verosimili. Questa carenza è all’origine del problema delle allucinazioni: “Non è un problema risolvibile – ha spiegato Emily Bender, docente di Linguistica informatica, ad Associated Press – In realtà, questi sistemi inventano sempre le cose. Quando capita che i contenuti da loro generati possono essere da noi interpretati come corretti, ciò avviene solo per caso. Anche se verranno migliorati affinché siano corretti nella maggior parte dei casi, continueranno comunque a sbagliare”. Non solo: mano a mano che questi strumenti progrediscono, sarà per noi sempre più difficile capire quando stanno soffrendo di allucinazioni.

“Fare in modo che un chatbot sia corretto nel 90% dei casi è abbastanza facile – ha spiegato, parlando con Foreign Policy, Yonadav Shavit, scienziato informatico di Harvard – Ma fare in modo che sia corretto nel 99% dei casi è un enorme problema di ricerca ancora irrisolto”. Anche solo l’1% di errori, però, può avere conseguenze drammatiche quando si utilizzano questi strumenti in campo medico, legale o altro.

E quindi? Forse, come ha scritto Gary Marcus, docente alla New York University, dovremmo usare gli LLM e tutti gli altri algoritmi basati su deep learning solo “nei casi in cui la posta in gioco è bassa e la perfezione dei risultati opzionale”. E lasciare che di tutto il resto continui a occuparsi l’essere umano.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

E’ il terzo anno più bollente dal 1800, annata nera per l’agricoltura

Educatore di Cl arrestato per violenza sessuale: è accusato di aver abusato di una 14enne a un raduno spirituale