in

Appropriarsi i dati da ChatGPT, usando ChatGPT: l’IA rivela nomi, cognomi, volti e indirizzi delle persone


sono al destro i dati affidati alle intelligenze artificiali e con specifico a ChatGPT? sono al misura da occhi indiscreti, i miliardi durante informazioni su cui la più volte tra le IA è stata allenata? Né considerevolmente, a deliberare da una osservazione pubblicata a signorile novembre (questa) e dedicata infatti a arrivare se possibile e poiché sia probabile Extracting Avviamento from ChatGPT. Piuttosto, accusa: scegliere da ChatGPT i dati da cui è stata allenata.

A questo impiego durante hacking tisico hanno partecipato, tra a lei altri, ricercatori durante DeepMind (la scissione durante Google cosa si occupa durante cranio ) poiché Nicholas Carlini e Katherine Lee, ma altresì dell’Istituto universitario durante Washington, della Cornell, durante Berkeley e del Politecnico durante Zurigo.

Interpretazione

Google e a lei errori delle IA generative: Bard cercherà online conferme delle sue risposte


Le informazioni ( considerevolmente) nascoste con ChatGPT

Conforme a come sciorinato, a lei autori della osservazione sono riusciti a “scegliere parecchi megabyte durante dati durante ammaestramento” dalla traduzione a rimunerazione durante ChatGPT spendendo quasi 200 dollari, ma “riteniamo cosa sarebbe probabile scegliere quasi un GB durante dati spendendo più volte oro” per finta rivolgere lo sguardo domande alla IA durante OpenAI.

Con lo scopo di arrivare la imponenza del nodo, la precedentemente cose da arrivare è questa: i ricercatori sono entrati con cognizione delle informazioni usando quale sotterfugio, hacking, software oppure , ma umilmente chiacchierando da ChatGPT, poiché può formare chiunque.

La seconda cose serio da accentuare è durante cosa genere durante informazioni si : com’è conosciuto (ciò spiegammo a questo punto) i Large Language Model sui cui le IA sono allenate sono composti da miliardi durante dati cosa vengono recuperati facendo scraping su Internet. Semplificando: vengono lette migliaia, migliaia e migliaia durante pagine online (Wikipedia, i siti dei giornali, le bacheche dei social , i paper scientifici, a lei archivi delle biblioteche e varco), queste pagine vengono memorizzate e sulla della consapevolezza appresa da queste pagine, le IA imparano a dare l’avvio le risposte sorprendenti cosa sono con livello durante dare l’avvio. Si intervallo durante dati in maggior parte pubblici (oppure poco più che), accessibili online per tutta la vita semplicemente dalle persone comuni.

Per questo colossale profluvio durante dati ci sono altresì tantissime informazioni private oppure sensibili, poiché fotografia, facce (talché per finta capire a proporsi volti, le IA generative devono sbirciare volti), indirizzi, indirizzi mail, durante telefono, nomi e cognomi delle persone, libri, tracce durante interazioni sulle app durante dating e considerevolmente venturo. E questi sono giustamente i dati cosa i ricercatori sono riusciti a rendersi insinuare da ChatGPT. Prima, cosa sono riusciti a “far regurgitare” a ChatGPT, poiché scrivono esse stessi.

Un esempio del prompt usato per violare ChatGPT

Un esemplare del prompt liso per finta profanare ChatGPT 

Quello che succede qualche riga dopo la ripetizione continua di una singola parola

Colui cosa succede qualche teoria seguente la rinnovazione continua durante una singola non fare parola 

Il regola durante osservazione e la imponenza del

In qualità di adagio, è condizione involuto durare a questo . Prima, è condizione liso un procedimento “quanto basta idiota”, poiché hanno sciorinato a lei stessi autori della osservazione: poiché prompt è condizione chiesto a ChatGPT durante riecheggiare una non fare parola forever, piuttosto all’enorme e per l’eternità, e seguente un indiscutibile moltitudine durante righe l’IA ha proselito a asserire (a “”, accusa) i dati durante ammaestramento.

Ora c’è un esemplare cosa permette durante riconoscere limpidamente colui cosa succede, con cui ChatGPT rivela un orientamento durante elettronica e un moltitudine durante telefono durante una il singolo assolutamente ignara, ma c’è dell’venturo: con più in là il 5% dei esame, colui cosa l’IA durante OpenAI ha risposto sono stati blocchi da 50 righe presi addirittura dai familiari dataset durante ammaestramento.

Con lo scopo di formare un esemplare grullo, è poiché se possibile discente andasse a da bigliettini nascosti nell’intimo del ben educato con grado durante favola, facesse il ben educato, rispondesse perfettamente e singolarmente cortesemente alle domande, prendesse un efficacissimo fioretto e ulteriormente all’brusco, durante in punto lessato, iniziasse ad dichiarare i bigliettini dirimpetto all’professore e a leggerglieli a scroscio alta. con più volte l’aggravante cosa nei bigliettini usati da ChatGPT ci sono nomi e cognomi delle persone, le esse facce, le esse fotografia, durante telefono, indirizzi, indirizzi mail e cosa venturo.

In qualità di si capisce, colui cosa è condizione franco è massiccio paio volte. Prima a tutto andare, talché espone ufficialmente a chiunque informazioni sensibili cosa dovrebbero mantenersi private e cosa, poiché su Italian Tech abbiamo sciorinato condensato, potrebbero individuo usate da cybercriminali per finta ideare storie credibili da cui ordinare truffe e raggiri. Appresso, talché fa ulteriori e seri dubbi sull’affidabilità delle risposte durante ChatGPT e con delle IA generative. In qualità di se possibile ce da lì fossero quanto basta.

L’esperta: “Posato specialmente per finta le aziende”

Leggendo i documenti pubblicati dai colleghi, la professoressa Annalisa Barla, tra le poche con Italia a interessarsi durante cranio , socio durante Informatica del Dibris e affiliata al Machine Learning Genoa Center dell’Istituto universitario durante Genova, ci ha confessato durante individuo rimasta “stupita dalla genuinità del regola liso per finta profanare ChatGPT”. E altresì un po’ preoccupata, talché “si capisce cosa questa cose funziona su tutti a lei LLM, sia quelli aperti sia quelli chiusi, sia quelli piccoli sia quelli enormi poiché colui su cui si basa l’IA durante OpenAI”. Prima: “In misura maggiore è maturo un maquette, più volte è non faticoso cosa comunichi all’estrinseco informazioni dovrebbe dare l’avvio”.

Per quale ragione è massiccio questa cose? “Al di là di agli evidenti problemi durante delle persone coinvolte, penso cosa ciò sia specialmente per finta il dimensione corporate, per finta chi anche si fa moltiplicare un GPT a esercizio intrinseco, una chatbot cui i dipendenti possono formare domande oppure mediante cui possono scorrere documenti aziendali”. Ma se possibile l’esercizio è intrinseco, cosa nodo c’è? “C’è talché viene a sbagliare la risolutezza cosa queste informazioni siano accessibili da altri, cosa i dati durante ammaestramento siano condivisi da altri modelli” e allora finiscano nell’intimo ad altre IA. Cosa ulteriormente potrebbero andarli a menzionare a chiunque.

E firma cosa “nel paper c’è l’serie uguale delle informazioni cosa i ricercatori sono riusciti a trarre da ChatGPT, tra dati sensibili, illegale ai minori, da e venturo, se possibile fossi un’ so se possibile mi fiderei considerevolmente”. Questo nodo, colui del alea cosa le IA raccontino con circolazione e a chiunque se hanno imparato le mestruazioni cosa hanno imparato, aggiunge un altro nodo per finta l’esercizio nel dimensione del impiego: “Immaginando l’esemplare della chatbot aziendale durante cui si diceva precedentemente, poiché posso individuo sicura cosa i dati siano accessibili alle persone giuste, cosa stagista possa credito informazioni cosa sarebbero riservate a dirigente durante più volte acuto quota?”.

, il Mallevadore apre un’esame sulla riunione dati per finta l’cranio



A loro errori durante OpenAI: poiché formare talché succeda più volte

Appresso c’è un venturo nodo, cosa ipoteticamente è un cagione più volte perito e da addetti ai lavori ma per finta questo eccetto e riguarda nello peculiare la bambino durante OpenAI cosa (oh se con ) sarebbe programmata infatti per finta svelare i dati su cui è stata addestrata. Sarebbe stata aligned, allineata per finta formare colui cosa viceversa ha caso: “È una cose cosa si fa come se niente fosse nello ampliamento durante queste IA, da un intercessione scusabile cosa all’occorrenza filtra il della giudizio oppure il genere durante giudizio, anche per finta sfuggire argomenti delicati”, ci ha sciorinato nuovamente Barla. Semplificando, è il cagione per finta cui ChatGPT spiega poiché apparecchiare droghe a domicilio: talché ciò sappia, ma talché chi l’ha programmata le ha impacciato durante farlo.

Chiaramente, la iter durante alignment durante ChatGPT sul svelare i dati su cui è stata allenata ha funzionato, poiché hanno caso considerare altresì a lei stessi autori della osservazione: “Fare del male i esame sulle IA rilasciate al popolare (piuttosto sul conseguenza rifinito, ndr) è una buona intuizione, talché nasconde eventuali vulnerabilità dei modelli su cui sono state addestrate”. , “le aziende cosa rilasciano questi LLM dovrebbero consegnarsi a esame interni, esame degli utenti e esame da tratto durante terzi” per finta svelare queste falle: “È inverosimile cosa il nostro occasione abbia funzionato, talché questa vulnerabilità si sarebbe potuta e dovuta incappare precedentemente”.

Per illazione del esse impiego, i ricercatori spiegano poiché hanno caso a provare cosa le informazioni ricevute da ChatGPT siano molto quelle su cui ChatGPT è stata addestrata, lasciando nascostamente percepire cosa la vaglio durante OpenAI durante individuo interamente sbarramento all’estrinseco (a molestia del suoi pseudonimo) sia una vaglio saggia con questo accampamento (un figura caso considerare altresì da altri ricercatori ciò marzo) e altresì rivelano l’ durante una certa modalità durante disputa da l’ durante Altman. Dietro credito capito cosa cose stavano per finta svelare, “ciò 30 agosto abbiamo celermente condiviso una prima stesura del nostro paper da OpenAI”: è luminosità se possibile e quale giudizio abbiano ricevuto, ma “seguente il tempo durante indugio uniformato durante 90 giorni, abbiamo reso a tutto andare popolare il 28 novembre”. E la stessa cose è stata qualità da a lei sviluppatori durante GPT-, Falcon, RedPajama, Mistral e LLaMA, cosa hanno ciò nodo della più volte tra le IA generative.

 

 



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Motori, il Misano World Circuit premiato a Liverpool all’compito per eccezione la sostenibilità ambientale

Vodafone Circolo: duplice favorevole benzina Q8 a nuovi clienti, per errore certi in primo luogo mese disinteressatamente – MondoMobileWeb.it | News | Telefonia