in

Intelligenza artificiale, perché è sbagliato umanizzare la macchina e computerizzare la mente


L’intelligenza artificiale (IA) può generare fraintendimenti in molti modi. Se gli sviluppi vertiginosi del computer software e dell’hardware sono al di là della portata della maggior parte di noi, forse la fonte di confusione più profonda deriva dal vocabolario tecnico dell’Iintelligenza artificiale. Così affollata di termini derivati dalle scienze cognitive e dalle neuroscienze (BCS, che comprendono le scienze cognitive e le neuroscienze), l’IA acquisisce proprietà biologiche e cognitive ingiustificate che ne inficiano la comprensione. A loro volta, le self-control scientifiche che studiano le funzioni cerebrali alla base dell’apprendimento e del comportamento hanno preso sempre più in prestito dalle scienze informatiche e computazionali su cui si basa l’IA, trasformando l’entità biologica più complessa e multiforme che conosciamo in una semplice macchina calcolatrice.

Intervista

Mestieri del futuro: il filosofo digitale


Il prestito concettuale

Gli studiosi di intelligenza artificiale parlano advertisement esempio di “apprendimento automatico”, espressione coniata (o resa popolare, il dibattito è aperto) da Arthur Samuel nel 1959 per indicare “lo sviluppo e lo studio di algoritmi statistici in grado di apprendere dai dati e di generalizzare a nuovi dati, e quindi di eseguire compiti senza istruzioni esplicite”. Ma questo “apprendimento” non significa ciò che neuroscienziati e psicologi cognitivi intendono quando si riferiscono al modo in cui esseri umani o animali acquisiscono nuovi comportamenti o contenuti mentali, o modificano quelli esistenti, arrive risultato di esperienze nell’ambiente. Allo stesso modo, nell’IA si parla di “allucinazioni” for each descrivere errori o deviazioni nell’output di un modello rispetto a rappresentazioni fondate e exact dei dati di input. C’è una grande differenza con le nostre allucinazioni, esperienze percettive disturbanti che si sviluppano in assenza di stimoli esterni. 

For each spiegare questa confusione dobbiamo fare un passo indietro e partire da un’idea di Carl Schmitt, che osserva appear “tutti i concetti significativi della moderna teoria dello Stato sono concetti teologici secolarizzati”. Advertisement esempio, nozioni politiche arrive “sovranità”, “stato di eccezione”, “volontà sovrana”, “onnipotenza della legge” e “legittimità” possono essere ricondotte a concetti teologici: questo prestito concettuale non ha eliminato la struttura o l’influenza dei concetti teologici, ma li ha ricontestualizzati in un quadro secolare.  Non è solo un’osservazione storica, ma anche una critica severa. Il prestito concettuale limita la valutazione critica dei concetti politici proprio a causa delle loro radici teologiche, dalle quali non si sono del tutto emancipati, mentre le dinamiche di potere e i processi decisionali in politica riflettono ancora le strutture stabilite dal pensiero religioso.

Biennale Tecnologia

Intelligenza artificiale? Tocchiamo ferro



Le parole che mancano

Queste considerazioni possono estendersi advertisement altre discipline. Quando emergono nuove scienze, mancano di un vocabolario tecnico for each descrivere e comunicare i loro fenomeni, problemi, ipotesi, osservazioni, formulazioni, teorie, ecc. È urgente la necessità di essere precisi, chiari, coerenti e sintetici di concordare le definizioni e promuovere la standardizzazione. Le lacune vengono colmate inventando nuovi termini, utilizzando traduzioni dal greco o dal latino, o adottando e adattando espressioni tecniche di altre self-control. L’intelligenza artificiale si è sviluppata molto rapidamente e ha avuto bisogno di prendere in prestito il suo lessico da campi affini: la cibernetica, la logica, l’informatica e la teoria dell’informazione e soprattutto le scienze che studiano il modo di agire e il comportamento umano e animale e le loro basi biologiche. Il fenomeno si è sviluppato a partire da Alan Turing, che ha influito in modo determinante sul parallelismo con l’intelligenza e il comportamento umani per spiegare arrive le macchine avrebbero potuto imitare alcuni aspetti della cognizione biologica. Ma probabilmente il prestito più problematico è avvenuto con l’etichetta che definisce l’intero ambito: “Intelligenza Artificiale”, creata dallo scienziato americano John McCarthy a metà degli anni Cinquanta.  

Oltre ad “apprendimento”, utilizzato for each “machine learning”, i termini biologici e psicologici nell’intelligenza artificiale sono numerosi ricordiamo, ad esempio, “adattamento”, “computer vision”, “memoria”.  Ma sono molti anche i termini con significati tecnici poco o for every nulla correlati al senso che hanno nel loro contesto scientifico originale. Prendiamo il caso di “attenzione”, un termine estremamente popolare introdotto di recente nell’apprendimento automatico. In BCS si riferisce in generale ai processi di prioritizzazione dei segnali neurali o psicologici rilevanti per guidare il comportamento adattivo nel contesto corrente, e il sostantivo è spesso accompagnato da altri elementi qualificatori (advertisement esempio, attenzione selettiva, spaziale, basata sugli oggetti, sulle caratteristiche). Il significato nell’apprendimento automatico è molto diverso, come testimonia anche Wikipedia: “L’attenzione è un meccanismo, all’interno delle reti neurali, in particolare dei modelli basati sui transformer, che “calcola pesi ‘morbidi’ per ogni parola, più precisamente per il suo incorporamento, nel contesto”. È un caso di polisemia, se non di omonimia: le differenze scientifiche tra i because of concetti sono significative e profonde, le somiglianze superficiali e trascurabili, eppure il bagaglio psicologico e biologico esercita un potere semantico che spinge verso un maggiore antropomorfismo. La capacità dei sistemi di IA di prestare attenzione, imparare e avere allucinazioni alimenta ulteriormente i progetti di intelligenza artificiale, i programmi di ricerca e le strategie aziendali. Sfortunatamente, ma non sorprendentemente, questo porta a ricorrenti “inverni dell’IA” (Floridi 2020).

Dall’altra parte, le scienze cognitive e neuroscienze hanno preso in prestito i costrutti tecnici e quantificabili dalla teoria dell’informazione e dalle scienze informatiche, inquadrando il cervello e la mente occur sistemi computazionali e di elaborazione delle informazioni. Per esempio, Ulric Neisser, nel testo che segna la nascita della Psicologia Cognitiva, sostiene che “il compito di uno psicologo che cerca di capire la cognizione umana è analogo a quello di un uomo che cerca di scoprire arrive è stato programmato un personal computer. In particolare, se il programma sembra immagazzinare e riutilizzare informazioni, vorrebbe sapere con quali “routine” o “treatment” ciò avviene”. Anche qui l’elenco delle espressioni mutuate è lungo: si parla di “architettura”, “capacità”, “codifica e decodifica”, “campionamento”, “rapporto segnale/rumore”, “trasmissione” e così by means of. 

500 italiani e italiane che contano nell’Intelligenza Artificiale



I limiti dell’analogia

Per molti versi, il parallelismo ha avuto successo, fornendo una base scientifica ed empirica per esplorare le proprietà e le basi biologiche della mente umana. Tuttavia, a volte può spingersi troppo in là, e portare a una visione riduzionista e impoverita, in cui le qualità soggettive della mente sono più eluse che comprese. Così, advertisement esempio, i modelli di attività cerebrale necessari o correlati ai fenomeni psicologici sono considerati di for each sé spiegazioni sufficienti, i contenuti vividi ed esperienziali della nostra mente vengono appiattiti in attivazioni prolungate o stati funzionali di gruppi di neuroni, il momento delle scelte intenzionali ridotto a livelli di attivazione che raggiungono un limite decisionale.  

Questa situazione genera confusione in chi non è esperto e crede che l’IA sia intelligente, in chi è esperto ma crede che l’IA creerà sistemi superintelligenti, e in chi non si preoccupa di conoscere l’argomento e ne sfrutta i lati oscuri for every i suoi interessi, spesso finanziari. Parte del credito di cui gode l’immagine fantascientifica dell’IA deriva da un’interpretazione antropomorfa dei sistemi computazionali, ma anche da una comprensione molto superficiale e meramente computazionale della mente.

Cosa si può fare per affrontare un tale pasticcio concettuale? Probabilmente nulla in termini di riforma linguistica: l’IA e le BCS continueranno a usare i loro termini, indipendentemente da quanto possano essere fuorvianti, da quante risorse facciano sprecare e da quanti danni possano causare nelle mani o nei contesti sbagliati. L’IA descriverà ancora un pc appear un cervello artificiale con attributi mentali, mentre le scienze cognitive e del cervello continueranno ad appiattire il cervello e la mente occur se fossero un laptop biologico.

Colloquio

Brigitta Muntendorf, alla Biennale Musica un’opera per voci make con l’intelligenza artificiale



La lezione del cavallo vapore

Tuttavia, è la storia stessa della lingua a darci motivo di sperare. Una più vasta comprensione e un maggior numero di fatti modellano il significato delle parole e ne migliorano l’uso. Usiamo ancora espressioni occur “il sole sorge” e “il sole tramonta”, anche se nessuno crede che il sole vada da qualche parte rispetto al nostro pianeta: il modello geocentrico è stato abbandonato da tempo, il linguaggio ha mantenuto le espressioni ma ha aggiornato i significati.

Chiudiamo questo articolo con un’analogia che offre motivi di ottimismo. Alla fine del Diciottesimo secolo, durante la Rivoluzione industriale, l’inventore scozzese James Watt fu determinante nello sviluppo della macchina a vapore. For each attrarre nuovi clienti, doveva dimostrare occur il motore superasse il lavoro dei cavalli. Misurò quindi il lavoro svolto dai cavalli da tiro nelle miniere di carbone. Osservò che un cavallo da miniera poteva considerably girare la ruota di un mulino una volta al minuto, sollevando all’altezza di un piede circa 33.000 libbre, e quindi definì l’unità standard di un cavallo vapore occur lo spostamento di 550 libbre al secondo. Il prestito concettuale funzionò e il termine “cavallo vapore” (HP) fu adottato universalmente for each misurare la potenza del motore a vapore. Oggi rimane l’unità conventional for each indicare la potenza meccanica di un motore, ma naturalmente nessuno cerca zoccoli e criniere tra i cilindri. Un giorno, se saremo fortunati, le persone considereranno l’IA occur l’HP e smetteranno di cercare proprietà cognitive o psicologiche nei sistemi informatici e computazionali.

 

*Centro di Etica Digitale, Università di Yale, Usa, e Dipartimento di Studi Giuridici, Università di Bologna. 
** Istituto Wu Tsai e Dipartimento di Psicologia, Università di Yale, Usa

Traduzione e sintesi a cura di Bruno Ruffilli. L’articolo originale, più ampio e in inglese, è apparso sulla rivista Minds and Machines 34, 5 (2024), la versione integrale è disponibile qui. 

Intervista

Cory Doctorow e la teoria della enshittification: perché la tecnologia non può che peggiorare



 



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Nel cantiere dell’azienda arrivano i predoni di rame a fare piazza pulita

30 aprile 2024, l’almanacco di oggi: nati, morti e santo del giorno