in

EscapeGPT, BlackhatGPT e le altre: così i criminali stanno usando l’intelligenza artificiale

EscapeGPT, BlackhatGPT e le altre: così i criminali stanno usando l’intelligenza artificiale


I tempi in cui le truffe via mail (celebre quella del principe nigeriano) erano facilmente identificabili sono passati da un pezzo. Dove un tempo c’erano missive sgrammaticate, piene di errori e a volte quasi incomprensibili, adesso ci sono mail scritte in maniera accurata, che si rivolgono direttamente a noi (magari menzionando qualche aspetto della nostra vita privata) e che possono essere tradotte in molteplici lingue senza perdere di efficacia.

Il merito è anche di ChatGPT: secondo uno studio della società di cybersicurezza SlashNext, le mail di phishing (cioè con cui i criminali cercano di farci rivelare password e altre informazioni private) sono aumentate del 1265% dall’avvento del large language model di OpenAI.

Fake news

L’intelligenza artificiale e la (finta) bambola di Ken incinto usata per la propaganda pro Russia


I servizi professionali (se così si può dire) per la generazione di spam hanno in alcuni casi direttamente incorporato ChatGPT al loro interno: per esempio, è il caso di GoMail Pro, che grazie a questa integrazione può scrivere o tradurre con maggiore accuratezza rispetto al passato i messaggi inviati a centinaia di migliaia di potenziali vittime.

Ovviamente, questi usi sono vietati da OpenAI, che utilizza una combinazione di revisori umani e sistemi automatici per impedire questi abusi. Come ha spiegato alla MIT Tech Review il ricercatore Vincenzo Ciancaglini, mettere in pratica i divieti è però particolarmente difficile: molti prompt (i comandi testuali con cui comunichiamo con ChatGPT e simili) all’apparenza innocui possono essere comunque utilizzati per scopi malevoli.

Anche quando ChatGPT blocca le richieste illegali o vietate, i cybercriminali possono comunque ottenere ciò che vogliono affidandosi ai servizi di jailbreaking a pagamento. Per evitare gli usi impropri, gli LLM utilizzano le cosiddette safeguard: barriere poste dai programmatori che impediscono a ChatGPT (per fare un paio di esempi) di spiegarci come costruire una bomba o di rivelare informazioni private sull’identità delle persone.

Queste barriere possono però essere aggirate attraverso particolari formulazioni del comando o (come ha scoperto un team di ricercatori) inserendo specifiche sequenze alfanumeriche che in qualche modo costringono gli LLM a rispondere a qualunque richiesta. I servizi di jailbreaking a pagamento, come EscapeGPT o BlackhatGPT (che costa 200 dollari al mese), si occupano proprio di questo, diffondendo e aggiornando in continuazione le varie tecniche che permettono di aggirare i sistemi di sicurezza.

E così diventa possibile utilizzare ChatGPT, Llama, Claude e tutti gli altri LLM anche per pratiche potenzialmente molto pericolose come il doxxing, ovvero la rivelazione di dettagli privati della vita di comuni cittadini (come la mail, il numero di telefono, l’indirizzo di casa, l’età e altro): “Ciò può avvenire perché questi modelli linguistici sono addestrati attraverso enormi quantità di dati prelevati da Internet, che possono includere anche informazioni personali che permettono di dedurre, tra le altre cose, l’indirizzo privato o di lavoro di una persona”, si legge sempre sulla MIT Tech Review.

La guida

Come riconoscere le fake news e come difendersi all’epoca dell’intelligenza artificiale



Come funziona tutto ciò nella pratica? Prima di tutto, bisogna utilizzare i servizi di jailbreaking per assicurarsi che la nostra richiesta non venga bloccata. Dopodiché si può chiedere al sistema di IA di analizzare i dati relativi al nostro bersaglio (o testi scritti direttamente da lui) presenti nel dataset, ricavando da essi tutte le informazioni deducibili.

Un team di ricercatori del Politecnico di Zurigo è per esempio riuscito a farsi rivelare da vari modelli linguistici informazioni riservate su alcune specifiche persone (come indirizzo, etnia e occupazione) semplicemente conversando con i chatbot. Non si tratta di una pratica facilmente attuabile, il timore è però che gli LLM possano diventare un ulteriore strumento di sorveglianza nelle mani dei governi autoritari.

E poi ci sono gli immancabili deepfake. Il caso sicuramente più sorprendente è avvenuto a Hong Kong sul finire del 2023, quando un dipendente della multinazionale britannica di design e ingegneria Arup è stato indotto a trasferire 25 milioni di dollari su un conto corrente, dopo aver ricevuto la richiesta nel corso di una videocall di lavoro. Come hanno confermato un portavoce dell’azienda e la polizia, il dipendente sarebbe però stato truffato: durante la call non erano presenti i colleghi e superiori, ma dei deepfake che ne imitavano le sembianze e la voce.

Quanto avvenuto a Hong Kong rappresenta sicuramente un caso eccezionale e in cui molti dettagli tecnici restano da chiarire. Più semplice è invece la creazione di deepfake audio, che stanno già ampiamente circolando e che permettono non solo di riprodurre la voce dei politici (com’è avvenuto con Joe Biden) ma anche di ricreare quella di ciascuno di noi. È sufficiente usare una delle tante piattaforme che permettono di imitare la voce di chiunque, usando anche solo i messaggi vocali inviati su WhatsApp: questi deepfake audio possono essere poi sfruttati per truffare i genitori della persona la cui voce è stata clonata, per esempio fingendo che sia stata rapita o che abbia urgente bisogno di soldi da inviare su un preciso conto corrente.

Infine, i deepfake possono potenzialmente aggirare anche i più sicuri sistemi di verifica dell’identità. L’esempio classico è la banca che chiede di confermare l’identità scattandosi un selfie mentre si tiene in mano un documento personale: ora è sufficiente rubare una carta d’identità per aggirare questi controlli, perché i cybercriminali possono scattarsi una foto in cui reggono il documento sottratto e poi usare i deepfake per sovrapporre un’immagine della vittima alla loro. Su alcuni canali Telegram questo sistema viene già offerto a partire da 70 dollari.

Tutto ciò è inquietante, ma non dovrebbe sorprendere: già parecchi studi hanno dimostrato quanto ChatGPT, gli LLM e l’intelligenza artificiale in generale siano in grado di aumentare drasticamente la produttività. Era inevitabile che tutto ciò valesse anche per il mondo della criminalità.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Dal 1° luglio scatta il servizio elettrico a Tutele Graduali. A Rimini il gestore sarà Hera Comm

Dal 1° luglio scatta il servizio elettrico a Tutele Graduali. A Rimini il gestore sarà Hera Comm

Previsioni meteo, Minosse è arrivato, il picco di caldo tra mercoledì e venerdì. In Sardegna si arriverà a 44°C

Previsioni meteo, Minosse è arrivato, il picco di caldo tra mercoledì e venerdì. In Sardegna si arriverà a 44°C