in

Perché le intelligenze artificiali non possono emulare il buon senso


Buon senso e senso comune sfuggono alle IA e, stando agli studi più recenti, sfuggiranno ancora a lungo. A dirlo è la professoressa Yejin Choi dell’Università di Washington, autrice di un paper dal titolo The Curious Case of Commonsense Intelligence pubblicato durante la primavera del 2022. Il buon senso, concetto tanto banale per l’uomo, si trasforma in uno dei più grossi e ardui limiti per le IA. Non è un caso che, tra i tanti studi simili, la nostra attenzione sia caduta proprio sul lavoro di Choi, ma di questo parleremo più avanti.

Il buon senso è necessario alle IA per comprendere i bisogni e le azioni degli umani i quali, fino dalla nascita, hanno rapide capacità di adattamento all’ambiente sociale nel quale sono inseriti. Ciò equivale a dire che le IA, per quanto oggi possano ritenersi evolute, sono partite con un handicap ancora non colmato nonostante, a partire dagli anni Sessanta del secolo scorso (e quindi più di sessant’anni fa) con linguaggi di programmazione quali LISP e Prolog, i ricercatori abbiano tentato di sviluppare sistemi artificiali di ragionamento.

Il problema, in sintesi, è proprio questo: per avvicinare le IA alle capacità intellettive umane, occorre prima di tutto definire il concetto stesso di intelligenza e, al di là delle tante definizioni enciclopediche, è cosa tutt’altro che facile.

Intelligenza artificiale

Perché gli attori hanno paura delle IA? Un esempio concreto


Il buon senso è ancora lontano

Il senso comune delle cose e il buon senso sono in parte all’origine della capacità di ragionamento intuitivo dell’uomo. L’intuito consente di trovare spiegazioni plausibili alle osservazioni parziali, consente di leggere tra le righe e completare i pezzi mancanti del puzzle.

Per tornare al lavoro della professoressa Choi, va sottolineato il suo ruolo nel progetto Mosaic dell’Allen Institute, e basato sul linguaggio e sul ragionamento intuitivo. Qualcosa di profondamente diverso dai modelli di grandi dimensioni (i Large Language Model) come GPT-3, tipicamente addestrati per generare parole o frasi secondo sequenze statistiche, ossia nulla che possa essere applicato a modelli di buon senso.

A tale proposito, all’interno del progetto Mosaic si sta costruendo un sistema di conoscenza del senso comune basato sul linguaggio e, a corredo, un sistema di ragionamento intuitivo. Un lavoro sviluppato sul linguaggio Atomic, ovvero una vasta raccolta di descrizioni, regole e fatti provenienti dai contesti quotidiani più svariati e accompagnati da algoritmi che includono la natura non sequenziale del ragionamento intuitivo.

Ciò che sembra essere un grande passo avanti, anche se compiuto in un laboratorio, ha più l’aspetto di un cul-de-sac, tant’è che la stessa Choi sostiene di poter mettere in risalto potenziali percorsi da seguire ma di essere ancora lontano da una IA che abbia una dimensione anche solo approssimativa di ciò che viene chiamato buon senso. “Rimangono molte domande aperte, compresi i meccanismi computazionali utili a garantire la coerenza e l’interpretabilità della conoscenza e del ragionamento del senso comune”, ha scritto Choi nelle conclusioni del suo lavoro.

L’integrazione tra linguaggio, percezione e ragionamento multimodale è ancora fuori portata. A questo proposito Nicola Gatti, direttore dell’Osservatorio Artificial Intelligence del PoliMi, sottolinea che: “L’IA trasforma informazioni, ma non sa che cosa sta facendo, non ha cognizione di causa. Avere cognizione di quello che si sta facendo e ragionare su quello che si sta facendo ricadono nell’idea stessa di intelligenza ma, fino a oggi, tutti i modelli che hanno provato a descrivere il funzionamento di alcune funzioni tipicamente umane, tipo il ragionamento, non sono quelli che oggi decretano il successo all’Intelligenza artificiale”.

Occorre un cambio di paradigma per dotare di buon senso le IA: “In linea di principio si può fare usando strumenti espliciti quali modelli logici che sono da collegare agli strumenti principalmente utilizzati oggi, come il Deep learning, ma nonostante alcuni esperimenti non si intravvede la luce in fondo al tunnel”, spiega Gatti.

Le black box

Le operazioni svolte da una IA sono per lo più impenetrabili, da qui il termine Black box, scatola nera. È una descrizione un po’ semplicistica ma propedeutica al tema che stiamo trattando: “Fino a quando si è voluto vedere come fosse fatta un’IA da dentro, ovvero fino a quando si è voluto capire come lavorassero le IA per poterle dominare, il fenomeno non è mai stato dirompente. Quando l’idea di Black box è stata comunemente accettata, le IA sono diventate dirompenti, ChatGPT ne è un esempio”, illustra Gatti.

Eppure, c’è chi sta cercando di instillare il buon senso negli algoritmi, come nel caso degli esperimenti del gruppo di ricerca diretto da Choi: “Ci sono dei tentativi chiamati neuro simbolici o di ragionamento implicito che si stanno cercando di fare a livello di comunità scientifica per andare a provare questi due aspetti”, spiega Gatti.

Insomma, il fatto che non sia ancora possibile creare una definizione universalmente riconosciuta del termine “intelligenza” e il fatto che il paradigma Black box è ormai lo standard, non facilitano il compito a chi vuole migliorarne le capacità delle IA. Non si può mettere mano in qualcosa che non si riesce a definire appieno e che si palesa come imperscrutabile.

Media

Google testa Genesis, l’IA per i giornalisti



Le due anime delle Intelligenze artificiali

Una è l’intelligenza artificiale ingegneristica, l’altra è quella cognitiva. La prima emula le funzioni umane, la seconda verte verso quella che in gergo viene chiamata IA generale, ossia quella capace di emulare, e persino superare, l’intelligenza umana. La prima fa passi da gigante, l’IA cognitiva è ferma al palo. Per farla progredire è necessario dotarla di buon senso, di peculiarità intuitive e di una coscienza. “Nella comunità scientifica informatica non ci si è mai posto il problema di esplicitare l’idea stessa di intelligenza e chi si è posto questo problema non ha trovato una soluzione. Le difficoltà stanno nel comprendere e quindi definire che cos’è l’intelligenza, così come nel trascrivere su un foglio di carta che cosa è intelligente”, spiega Gatti.

Un futuro noioso?

Fatto salvo che, in assenza di buon senso e senso comune delle cose, le IA cognitive non vedranno l’alba, ci assuefaremo alle IA in un prossimo futuro? Le daremo per scontate così come oggi non vediamo niente di rivoluzionario nella radio o nella televisione? “Di norma non ci annoiamo interagendo con altri uomini se ci danno argomenti di discussione interessanti. Lo stesso varrà per le IA. Anche oggi continuiamo a guardare la tv, selezionando ciò che ci piace”, conclude Gatti.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

spiagge, eventi e cultura, serate imperdibili

Foggia, quattro morti in un incidente stradale: anche due sorelline di 7 e 13 anni