in

ChatGPT, Dall-E e le fake news: ecco come OpenAI si prepara alle elezioni


Un grande potere implica una grande responsabilità, si sa. Lo sanno anche a OpenAI, l’azienda che si è guadagnata in fretta il ruolo di portavoce dell’intelligenza artificiale generativa, e per questo hanno pubblicato sul weblog ufficiale un submit dove sono illustrate le misure che stanno prendendo per affrontare le varie tornate elettorali in tutto il mondo. 

Nel 2024, infatti, si terranno elezioni nazionali e regionali in oltre 50 Paesi, coinvolgendo una popolazione complessiva di circa 4,2 miliardi di abitanti. Oltre alle europee, che riguarderanno i circa 400 milioni di elettori ed elettrici dei 27 stati della Ue, si andrà alle urne anche in otto dei dieci Paesi più popolosi al mondo: Bangladesh, Brasile, India, Indonesia, Messico, Pakistan, Russia e Stati Uniti, e in 18 Paesi dell’Africa. Ma quest’anno la novità è appunto l’intelligenza artificiale, che potrebbe essere utilizzata for each manipolare l’opinione pubblica, creando testi, immagini, video e altri contenuti potenzialmente in grado di influenzare l’opinione pubblica, utilizzando canali di diffusione tradizionali, arrive giornali radio e tv, oltre ai social network, le chat, i forum e altro.   

Lo studio

L’intelligenza artificiale e la politica: ChatGPT è di sinistra, Google di destra


“Proteggere l’integrità delle elezioni richiede la collaborazione di ogni angolo del processo democratico e vogliamo assicurarci che la nostra tecnologia non venga utilizzata in un modo che potrebbe compromettere questo processo”, si legge nel submit di OpenAI. “Il nostro approccio consiste nel continuare a lavorare sulla sicurezza della piattaforma, fornendo informazioni exact sul voto, applicando politiche misurate e migliorando la trasparenza. Abbiamo uno employees trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle informazioni sulle minacce, dei group legali, ingegneristici e politici for each indagare e risolvere rapidamente i potenziali abusi”.

Ecco alcuni punti chiave:

  1. Garantire l’identità delle persone. “Lavoriamo per anticipare e prevenire abusi rilevanti, occur “deepfake” fuorvianti, operazioni di influenza su larga scala o chatbot che impersonano candidati. Advertisement esempio, DALL· E rifiuterà le richieste di generare immagini di persone reali, compresi i candidati. Allo stesso modo, “non consentiamo ai costruttori di creare chatbot che fingono di essere persone reali (advertisement esempio, candidati) o istituzioni (advert esempio, il governo locale)”.
  2. Garantire l’autenticità delle immagini. Da una parte, OpenAI sta sperimentando un nuovo strumento for each rilevare le immagini create da DALL·E, che a breve dovrebbe essere disponibile for every il primo gruppo di tester, tra cui giornalisti, piattaforme e ricercatori. Dall’altra, l’azienda di Sam Altman aderirà a Articles Credentials, uno regular promosso dalla Written content Authenticity Initiative, ideata nel 2019 da Adobe for each contribuire a combattere la disinformazione e aiutare i creatori a ottenere il giusto riconoscimento for every il loro lavoro.  In questo caso, Content material Credentials certificherà che un’immagine è stata prodotta da DALL·E, e che dunque non rappresentano il mondo reale. 
    Oggi la CAI conta quasi 2.000 membri, tra cui Leica, AFP, Connected Push, BBC, Getty Photographs, Microsoft, Reuters, The Wall Street Journal e altri.
  3. La persuasione. “Stiamo ancora lavorando per capire quanto possano essere efficaci i nostri strumenti di persuasione personalizzata. Fino a quando non ne sapremo di più, non permettiamo alle persone di creare applicazioni per campagne politiche e attività di lobbying”, spiega il submit. Dunque, niente campagne personalizzate nei contenuti, ma nemmeno inviti all’astensione generalizzati: “Non sono ammesse applicazioni che dissuadano le persone dalla partecipazione ai processi democratici, advert esempio travisando i processi e le qualifiche di voto (quando, dove o chi ha diritto di voto) o che scoraggiano il voto (sostenendo che un voto non ha senso)”.
  4. Le fonti. ChatGPT si sta integrando sempre più con le fonti di informazione esistenti: advertisement esempio, gli utenti inizieranno advertisement avere accesso alle notizie in tempo reale a livello globale, comprese le attribuzioni e i hyperlink. La trasparenza sull’origine delle informazioni e l’equilibrio nelle fonti di notizie possono aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa possono fidarsi.

L’esperimento di OpenAI: ChatGPT entra in politica



Le misure di OpenAI sono ragionevoli, e fino a prova contraria mosse da intenzioni lodevoli. Assomigliano forse un po’ troppo a quelle che si leggono su tutti i social network, e che in questi anni, da Cambridge Analytics in poi, non ne hanno sostanzialmente limitato l’influenza nei processi democratici. Ma è difficile sottovalutare il potenziale impatto dell’IA generativa in questo ambito, se si pensa alle foto di Trump in prigione, al Papa con un piumino da sci, alle migliaia di siti internet che pubblicano notizie scritte da macchine, istruite per generare articoli non veri e però assai verosimili. E non basta fornire un hyperlink (peraltro solo in United states of america) all’Associazione Nazionale dei Segretari di Stato (NASS), “la più antica organizzazione professionale apartitica della nazione per i funzionari pubblici”, con informazioni verificate sull’andamento del processo elettorale negli Stati Uniti. Altrimenti, ai tempi del Covid, un website link al Ministero della Salute su un social network avrebbe dovuto sconfiggere i NoVax.

Intelligenza artificiale, OpenAI risponde al New York Occasions: “I vostri contenuti non determinanti for each ChatGPT”





Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

altri 4 mesi for every la mappatura. Richiesta una proroga

Cosa è successo oggi 17 gennaio