in

OpenAI, il team responsabile della sicurezza dell’IA cade a pezzi


I panni sporchi di solito si lavano in casa. Ma questo non vale per OpenAI, l’azienda di san Francisco che ha creato ChatGpt, tra le più influenti al mondo nel campo dell’intelligenza artificiale generativa.

Dopo le dimissioni dell’ex direttore scientifico Ilya Sutskever – per evidenti incompatibilità di visione con Sam Altman – se ne va in polemica anche Jan Leike, un’altra mente brillante dell’azienda.

La storia

Chi è Ilya Sutskever, l’informatico geniale che ha lasciato OpenAI


Sutskever e Leike erano i due responsabili del progetto Superalignment di OpenAI, inaugurato a luglio del 2023 per allineare in modo sicuro i sistemi di intelligenza artificiale molto avanzati con gli obiettivi e i valori umani.

In sintesi: il gruppo di ricercatori che ne faceva parte avrebbe dovuto sviluppare metodi efficienti per tenere sotto controllo “sistemi di intelligenza artificiali molto più intelligenti degli esseri umani”. A questo proposito, si legge nel documento che illustra Superalignment, OpenAI progettava di dedicare il 20% della potenza di calcolo a disposizione.

Sembrava un’iniziativa responsabile. Ma non è andata secondo i piani.

“Ero a capo del super allineamento di OpenAI e abbandonare questo lavoro è una delle cose più difficili che abbia mai fatto – ha scritto Jan Leike su X – perché abbiamo bisogno urgentemente di capire come si possono guidare e controllare sistemi di IA più intelligenti di noi”.

“Sono entrato in OpenAI perché pensavo fosse il posto migliore al mondo dove fare questo tipo di ricerca – ha aggiunto Leike – Tuttavia sono in disaccordo da un po’ di tempo con le priorità stabilite dalla leadership dell’azienda. Credo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super  allineamento, e all’impatto sociale delle prossime generazioni di modelli [di IA]. Ma negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”.

“OpenAI ha una responsabilità nei confronti dell’umanità – ha detto inoltre Leike -. Ma negli ultimi anni, la cultura e i processi riguardanti la sicurezza sono passati in secondo piano rispetto a prodotti luccicanti”.

Le parole di Jan Leike sottolineano il cambiamento di rotta che OpenAI, fondata nel 2015 come laboratorio di ricerca no-profit, ha effettuato da quando ha aperto il pubblico ChatGpt.

Il successo del chatbot, e i miliardi (13 finora) investiti da Microsoft, hanno spinto OpenAI a inseguire il profitto.

Il principale fautore di questo cambiamento è stato Sam Altman, che guida OpenAI dal 2019 e che a dicembre scorso è stato allontanato dal board dell’azienda proprio perché si temeva che stesse spingendo sulla commercializzazione dell’IA a discapito della sicurezza.

Il caso

Per capire cos’è successo a Sam Altman, bisogna sapere com’è fatta davvero OpenAI



Altman ha poi ripreso il suo posto pochi giorno dopo, su insistenza dei dipendenti di OpenAI che hanno minacciato dimissioni di massa se il Ceo non fosse tornato.
 





Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Fanatec Gt World Challenge Europe, Valentino Rossi vince a Misano con la sua Bmw

Bari, professore colpito da un pugno al liceo artistico durante l’ora di supplenza: per lui distacco della retina