in

“Perché Sam Altman è stato licenziato?” Finalmente sappiamo i motivi


Sam Altman, l’amministratore delegato di OpenAI, viene definito “il papà di ChatGpt” anche se in realtà non ha contribuito personalmente allo sviluppo di questa tecnologia.

Altman però può vantare la decisione di aver “messo al mondo” ChatGpt. E il modo in cui l’ha fatto conferma i timori di chi ritiene che il Ceo di OpenAI possa prendere decisioni dannose per l’umanità.

“Quando è stata presentata ChatGpt, a novembre 2022, nessuno ci ha avvertito in anticipo. Abbiamo saputo di ChatGpt da un post su Twitter” ha rivelato Helen Toner, una dei membri del board di OpenAI che all’epoca doveva vigilare sull’operato del Ceo, al podcast The TED AI Show.

L’analisi

Possiamo ancora fidarci di Sam Altman?


OpenAI, nata come laboratorio di ricerca no-profit nel 2015, si è “sdoppiata” nel 2019 dopo la nomina di Sam Altman ad amministratore delegato.

Alla OpenAI originaria, che continua a inseguire l’AGI senza fini di lucro, si è aggiunta OpenAI LP, un’azienda “capped-profit” che invece insegue i profitti per garantire al laboratorio originario di portare avanti il suo lavoro.

All’epoca OpenAI ha anche comunicato che la nuova azienda sarebbe stata “controllata” dal board del laboratorio no-profit. Un consiglio di cui Helen Toner ha fatto parte per diversi anni. Il motivo per cui lo ha lasciato, a dicembre 2023, riguarda proprio Sam Altman.

D’accordo con altri membri del vecchio board di OpenAI, e con il sostegno dell’ex direttore scientifico del suo laboratorio di ricerca, Ilya Sutskever, Helen Toner ha licenziato Sam Altman senza fornire spiegazioni dettagliate riguardo la sua decisione. Il board, a novembre scorso, ha accusato Altman di non essere stato abbastanza “trasparente” nelle sue comunicazioni.

Da allora, in molti si sono chiesti quale fosse la vera motivazione dietro l’allontanamento di Altman, che ha poi ripreso il suo posto appena una settimana dopo il “golpe” del board. Tra questi c’è anche Elon Musk, uno dei primi investitori di OpenAI, che su X ha scritto: “Visti  i rischi legati alle capacità e ai progressi effettuati dall’intelligenza artificiale, le persone dovrebbero sapere perché il board [di OpenAI] ha deciso di intraprendere un’azione così drastica”.

Musk – e molti altri – temono che Altman abbia tenuto il board all’oscuro di avanzamenti nello sviluppo dell’IA potenzialmente pericolosi.

È un po’ la critica che recentemente ha mosso Jan Leike all’azienda, prima di dimettersi da responsabile del team Superalignment dedicato alla sicurezza dell’IA. “Negli ultimi anni, la cultura e i processi riguardanti la sicurezza sono passati in secondo piano rispetto a prodotti luccicanti” ha detto Leike.

Il caso

OpenAI, il team responsabile della sicurezza dell’IA cade a pezzi



L’indagine interna di OpenAI sull’allontanamento di Sam Altman si è conclusa a marzo scorso, senza fornire una risposta chiara e definitiva alla domanda che tutti si sono posti: “Perché è stato licenziato?”. C’è stata una “interruzione di fiducia” tra il board e Altman, ha comunicato OpenAI, e la condotta dell’imprenditore “non meritava la sua rimozione”.

Per Helen Toner, invece, OpenAI aveva bisogno di un nuovo Ceo. E Altman andava rimosso senza alcun preavviso.

“[Era] molto chiaro a tutti noi che non appena Sam avesse avuto il minimo sospetto che avremmo potuto fare qualcosa che andava contro di lui, avrebbe fatto di tutto, avrebbe fatto tutto ciò che era in suo potere per indebolire il consiglio, per impedire addirittura di arrivare al punto di poterlo licenziare” ha detto Toner, nella sua prima intervista da quando si è conclusa l’indagine di OpenAI.

La fiducia riguardo la leadership di Altman è venuta meno, secondo Toner, dopo gravi omissioni da parte dell’imprenditore: l’aver taciuto il fatto che possedeva il Fondo Startup dell’azienda [che oggi vale 15 miliardi di dollari] e l’aver fornito, a più riprese, dati fuorvianti sui protocolli di sicurezza.

Intelligenza artificiale

Perché Sam Altman sta dicendo in giro che ChatGpt è imbarazzante?



“In diverse occasioni, ci ha fornito informazioni imprecise sui processi formali di sicurezza che l’azienda aveva in atto – ha detto l’ex componente del board di OpenAI – il che significa che era praticamente impossibile per il consiglio di amministrazione sapere quanto funzionassero a dovere tali processi di sicurezza o cosa fosse necessario cambiare.”

Toner ha anche detto di aver subito ritorsioni da parte di Altman, in seguito alla pubblicazione di una sua ricerca che lo aveva infastidito. “Sam ha cominciato a mentire agli altri consiglieri pur di sbarazzarsi di me” ha dichiarato al podcast The TED AI Show.

Il board inoltre – sempre stando alle rivelazioni di Toner – è stato informato all’epoca del clima “tossico” nell’azienda a causa di Altman, accusato di “abusi psicologici” e di “menzogne e manipolazioni reiterate”.

Toner si è laureata in ingegneria chimica all’Università di Melbourne nel 2014. La sua carriera di analista e poi di manager è stata profondamente influenzata dall’Altruismo Efficace, un particolare approccio filantropico che cerca di massimizzare – attraverso un’evidenza scientifica e l’utilizzo dei dati – l’impatto positivo delle donazioni e delle azioni caritatevoli sulla società.

Attualmente Toner riveste il ruolo di Director of Strategy and Foundational Research Grants del CSET, il Center for Security and Emerging Technology: si tratta di un’organizzazione con sede negli Usa che svolge un ruolo di ricerca e consulenza per il governo e altri attori interessati alle questioni di sicurezza nazionale e tecnologica negli Stati Uniti.

Intelligenza artificiale

OpenAi avvia l’addestramento di una nuova Intelligenza artificiale



“Gran parte dei dirigenti delle aziende che sviluppano IA affrontano i rischi seriamente e cercano di fare la cosa giusta – ha detto Toner in passato al Financial Times – Ma al tempo stesso sono loro, ovviamente, che creano questi sistemi. E sono sempre loro che potenzialmente possono avere un profitto”.

Le recenti dichiarazioni di Toner al TED AI Show sono state commentate da Bret Taylor, l’attuale presidente del consiglio di amministrazione di OpenAI che si è insediato dopo il ritorno di Altman alla guida dell’azienda:

“Ci dispiace che la signora Toner continui a esprimersi su tali questioni. Un comitato indipendente del Consiglio di amministrazione ha lavorato con lo studio legale Wilmer Hale per condurre un’approfondita revisione degli eventi di novembre. La revisione ha concluso che la decisione del precedente Consiglio non era basata su preoccupazioni riguardanti la sicurezza o la protezione del prodotto, il ritmo di sviluppo, le finanze di OpenAI o le sue dichiarazioni agli investitori, clienti o partner commerciali. Inoltre, oltre il 95% dei dipendenti, inclusi i vertici aziendali, ha chiesto il reintegro di Sam Altman come CEO e le dimissioni del precedente Consiglio. Il nostro obiettivo rimane quello di andare avanti e perseguire la missione di OpenAI di garantire che l’AGI giovi all’umanità intera”.





Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Clima surreale in consiglio, in affanno turismo, lavori pubblici e sicurezza

Neonato morto, fermata la madre della minore che ha partorito: è accusata di omicidio