in

Il pericolo più grande dell’intelligenza artificiale ancora non esiste

Il pericolo più grande dell’intelligenza artificiale ancora non esiste
Il pericolo più grande dell’intelligenza artificiale ancora non esiste


Il pericolo più grande dell’umanità è qualcosa che non esiste. Si chiama Agi: Intelligenza artificiale generale. Si tratta dell’ipotesi che l’intelligenza artificiale possa diventare super intelligente. Capace non solo di replicare quello che fanno gli umani, ma di capire, imparare e svolgere tutti i compiti che può svolgere un essere umano. E farlo meglio. Tanto meglio che forte della propria superiorità e dell’autocoscienza acquisita, potrebbe decidere di cancellarci dalla faccia della Terra qualora non ci ritenesse più necessari. L’Agi da un momento all’altro potrebbe svegliars, come Cthulhu nei romanzi di H.P. Lovecraft, non appena gli algoritmi che la animano avranno trovato la giusta formula per farlo. Ma l’Agi oggi è poco più di uno scenario possibile. Non si sa quando, né se un giorno ci sarà.

Eppure è per paura del suo avvento che qualche mese fa 350 tra imprenditori e accademici hanno firmato una lettera per chiedere una moratoria di sei mesi allo sviluppo di intelligenze artificiali (tra loro Elon Musk, capo di Tesla, e Steve Wozniak, co-fondatore di Apple e studiosi di primo piano di apprendimento delle macchine). Paura condivisa da Sam Altman, numero uno di OpenAi, la società che ha creato ChatGpt, che lo scorso mese ha fatto il giro del mondo per stringere le mani ai capi di stato e illustrare sia i rischi possibili, ma anche le opportunità concrete dell’intelligenza artificiale. Le due cose probabilmente si tengono.

 

Morozov: “C’è una lobby dell’Ai e risponde alle logiche del neoliberismo digitale”

Il sociologo bielorusso Evgeny Morozov in un articolo sul New York Times ha provato a unire i puntini. E ha ipotizzato che queste paure abbiano portato alla creazione di una lobby di imprenditori e accademici convinti del fatto che, grazie alla loro azione, l’intelligenza artificiale una volta messa in sicurezza sarà in grado di salvare l’umanità da se stessa. Migliorerà l’efficienza degli stati, delle imprese, e prometterà “la soluzione a tutti i problemi dell’umanità, compresi quelli troppo complessi per essere risolti come il cambiamento climatico”. Per Morozov si tratta solo di ideologia. Ha coniato anche un termine per identificarla: agismo, il credere nella potenza senza confini dell’Agi. “Un’ideologia sbagliata”, sostiene Morozov, basata sulla convinzione che “l’intelligenza artificiale farà tutto meglio di noi”.

L’intervista

Morozov: “Il Garante su ChatGpt ha fatto bene. L’Ai della Silicon Valley va contrastata sul piano politico e filosofico”


Questa ideologia, mossa dalla convinzione che l’Ai fa le cose meglio degli uomini, mirerebbe a sostituire le imprese allo Stato in diverse funzioni: trasporto pubblico, la sanità, l’istruzione, la sicurezza. “I veri rischi dell’Agi e delle sue implicazioni sono di natura politica, non i robot killer”, ha scritto Morozov. “L’agismo è figlio illegittimo di un’ideologia molto più ampia che predica, come ha detto Margaret Thatcher in modo memorabile, che non esiste alternativa al mercato”. L’ideologia dell’Ai per Morozov serve al neoliberismo della Silicon Valley per riaffermare i suoi principi: “Che gli attori privati sono meglio di quelli pubblici; che adattarsi alla realtà è meglio che trasformarla; che alle questioni sociali va preferita l’efficienza”. È ciò che Morozov chiama il “neoliberismo digitale”, capace di “riconfigurare i problemi di una società in chiave tecnologica, e di trarne un profitto”. Il sociologo ricorda un’altra frase di Thatcher: “La società non esiste”. E la visione di chi vede in modo ideologico l’intelligenza artificiale, come i grandi manager della Silicon Valley, partirebbe dallo stesso assunto: “Questa lobby crede che intelligenza esiste solo come prodotto di ciò che accade nella mente dei singoli individui. Ma in realtà è anche il risultato sia delle politiche di una società che di attitudini individuali”.

 

Mentre crescono gli allarmi, le aziende continuano a sviluppare Ai e raccogliere miliardi

Per Morozov se l’agismo dovesse vincere, “dovremmo essere pronti a vedere meno politiche che favoriscono l’intelligenza delle persone”, perché scuola e formazione per i neoliberisti “sono residui della società, che per loro non esiste”. D’altro canto, sottolinea, “il banchetto è appena iniziato: che si tratti di combattere la prossima pandemia, la solitudine o l’inflazione, l’Ai è già presentata come la soluzione ideale a problemi reali e immaginari”. Le istituzioni democratiche, per Morozov, dovrebbero rigettare questa ideologia, perché altrimenti sarebbe come “affidare la soluzione dei problemi della società a consulenti specializzati, mossi solo dall’idea di efficienza finalizzata al profitto”.

Il dibattito

Floridi: “ChatGpt è brutale e non comprende. Ma presto l’AI sostituirà gli umani in molti lavori”



Ma le istituzioni democratiche hanno ancora la possibilità di evitare questo processo. “Smettere di finanziare progetti per la messa in sicurezza dell’Ai, destinati solo a diventare dataset per l’addestramento dei software delle startup e finanziare progetti per la cultura e l’istruzione”, motori dell’unica intelligenza reale, quella degli uomini.

Ma l’Agi, si è detto, ancora non esiste. E nemmeno l’idea che possa essere la più grave minaccia per l’umanità trova tutti d’accordo. “Da noi in Cina questo dibattito e questa paura non ci sono. La paura dell’Apocalisse è tipica della cultura giudaico-cristiana. È nella Bibbia. Noi cinesi sappiamo che abbiamo 5mila anni di storia e che ci saremo ancora”, ha detto Pascale Fung. Per lei, docente di Scienze e tecnologia a Hong Kong, tra i principali studiosi al mondo di questi temi, l’intelligenza artificiale “è solo una macchina”.

Intervista

La religione condiziona il nostro rapporto con le IA? In Asia sono convinti di sì



Ancora più radicale Yann LeCun, considerato tra i padri dell’apprendimento delle macchine e capo della divisione Ai di Meta. Per lui chi sostiene le tesi alla Musk, o alla Altman, ha un approccio “semplicistico all’Ai”. Motivo? “Pensano che se un sistema è intelligente deve per forza avere caratteristiche umane”. E che quindi vorrà dominare, uccidere, il diverso da sé. “Noi abbiamo il desiderio di dominare così come i babbuini e gli scimpanzé, perché siamo una specie sociale con un’organizzazione gerarchica. Ma non è una caratteristica dell’intelligenza, è una caratteristica di come la natura ci ha evoluti”. Intanto, paure o meno, OpenAi e gli altri continuano ad allenare i loro algoritmi. E a stringere accordi commerciali. Ad attrarre miliardi di investimenti promettendo, scansata l’Apocalisse, un futuro radioso.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Nessuno smantellamento per l’ospedale di Novafeltria, lo stiamo potenziando

Nessuno smantellamento per l’ospedale di Novafeltria, lo stiamo potenziando

Le acque reflue disegnano la mappa del consumo di droghe in Italia: cannabis e cocaina le più usate

Le acque reflue disegnano la mappa del consumo di droghe in Italia: cannabis e cocaina le più usate