in

Maturità 2024, cento cose da sapere sull’intelligenza artificiale

1. Il termine “Intelligenza artificiale” è stato coniato nel 1956 da John McCarthy, un informatico statunitense che la descrisse come “la scienza e l’ingegneria di fare macchine intelligenti”.

2. L’Intelligenza Artificiale (IA) è un campo dell’informatica che studia come programmare i computer in modo che possano svolgere attività che normalmente richiedono l’intelligenza umana, come imparare, risolvere problemi, creare contenuti, svolgere operazioni più o meno complesse e – in alcuni casi – prendere decisioni.

3. Per intelligenza artificiale si intende anche la tecnologia che viene usata in molti settori – dalla ricerca scientifica alla finanza, dall’intrattenimento alla medicina – per fornire agli esseri umani sistemi “intelligenti” capaci di aiutarli e persino di sostituirli nei compiti più semplici e ripetitivi.

4. Alla base dell’IA ci sono gli algoritmi, una serie di istruzioni e regole precise che vengono seguite dalle macchine per eseguire un compito specifico o risolvere un problema. Si possono immaginare gli algoritmi come ricette di cucina, dove ogni passo deve essere seguito in un certo ordine per ottenere il risultato desiderato.

5. Sono algoritmi quelli usati dai social network, per esempio, quando ci suggeriscono un post che non provenga dai nostri contatti. Una foto su Instagram, per esempio. E c’è un algoritmo alla base del funzionamento di Spotify, quando ci propone una canzone che potrebbe piacerci e che magari non abbiamo mai ascoltato. Questo accade perché l’intelligenza artificiale ha studiato le nostre abitudini e ci “raccomanda” un contenuto simile a quello che solitamente gradiamo.

6. L’intelligenza artificiale moderna si basa su reti neurali, ispirate al funzionamento del cervello umano. Queste reti neurali sono composte da nodi interconnessi (neuroni artificiali) che elaborano informazioni e “imparano” dai dati per svolgere compiti complessi.

7. Il deep learning – vale a dire “apprendimento profondo” – è la capacità delle reti neurali di apprendere in modo autonomo da grandi quantità di dati, scoprendo modelli complessi e relazioni nascoste. Il deep learning ha permesso di raggiungere risultati sorprendenti in molti campi, come il riconoscimento di immagini, la traduzione automatica e la guida autonoma.

8. Geoffrey Hinton, Yann LeCun e Yoshua Bengio sono considerati i “padrini del deep learning”, e dunque dell’intelligenza artificiale moderna, per i loro contributi fondamentali allo sviluppo delle reti neurali. Per i loro studi hanno ricevuto, nel 2018, il “Turing Award”, una sorta di Nobel per l’informatica.

9. Geoffrey Hinton è un informatico britannico che ha lavorato come ricercatore per Google per dieci anni, dal 2013 al 2023, prima di lasciare la big tech di Mountain View per poter esprimere più liberamente i suoi timori sui rischi legati allo sviluppo dell’intelligenza artificiale.

10. Yoshua Bengio è un informatico canadese noto per i suoi studi sulle reti neurali e l’apprendimento profondo. Attualmente è professore di computer science all’Università di Montreal ed è il direttore scientifico del Montreal Institute for Learning Algorithms (MILA).

11. Yann LeCun è il capo della divisione che si occupa di intelligenza artificiale di Meta, l’azienda che controlla Facebook, Instagram e WhatsApp. LeCun è anche il direttore del FAIR di Meta, uno dei laboratori sull’intelligenza artificiale più noti al mondo che si trova a Parigi.

12. Diversi scienziati, ricercatori e addirittura imprenditori le cui aziende sviluppano IA sono preoccupati dal fatto che questa tecnologia rivoluzionaria, se un giorno dovesse sfuggire al controllo umano, potrebbe costituire una minaccia per la nostra specie.

13. A marzo 2023 centinaia di scienziati, ricercatori e imprenditori hanno firmato una breve lettera apocalittica che mette in guardia sui pericoli di una IA fuori controllo. Questo è il testo: “Mitigare il rischio di estinzione per mano dell’AI dovrebbe essere una priorità globale, alla pari di altri rischi su scala sociale come le pandemie e la guerra nucleare”.

14. Tra gli imprenditori più preoccupati da una IA fuori controllo c’è Elon Musk, l’amministratore delegato di Tesla e SpaceX, che però ha fondato a sua volta un’azienda chiamata xAI che sviluppa intelligenza artificiale. Musk ha anche fondato Neuralink, un’azienda che impianta nel cervello umano interfacce neurali che consentono di comunicare in modalità wireless con una macchina. Per Musk le persone, un giorno, arriveranno alla simbiosi con l’intelligenza artificiale proprio sfruttando questi dispositivi.

15. L’IA pone anche sfide etiche che non riguardano solo la sicurezza e il controllo di questa tecnologia, ma anche bias e discriminazione, impatto sul lavoro, privacy, disinformazione e la possibile ridefinizione dello status dell’umanità. Tutte ciò richiede un’attenta riflessione e la definizione di un quadro etico-normativo adeguato.

16. La regolamentazione più avanzata dell’intelligenza artificiale, attualmente, è l’AI Act approvato dal Parlamento Europeo. Questo insieme di norme mira a garantire che i sistemi di intelligenza artificiale siano sicuri, trasparenti e rispettosi dei diritti fondamentali, con regole più severe per le applicazioni ad alto rischio.

17. L’IA potrebbe potenzialmente essere sfruttata per scopi militari e sviluppo di armi autonome letali. Per questo in molti chiedono maggiori sforzi per un bando internazionale su queste “macchine pronte a uccidere”.

18. L’intelligenza artificiale viene utilizzata anche per l’analisi il riconoscimento facciale. Questo solleva timori sulla protezione dei dati delle persone e su un’eventuale sorveglianza di massa o controllo delle minoranze da parte di Paesi autoritari.

19. Un’azienda americana, chiamata Clearview, ha accumulato nel suo database miliardi di volti – in parte raccolti dalle foto pubbliche su Facebook – che consentono all’IA

20. L’IA viene spesso dipinta come una minaccia dall’immaginario di film e libri di fantascienza. In realtà oggi l’intelligenza artificiale è uno strumento potente utilizzato soprattutto a fin di bene: per migliorare le cure mediche e produrre farmaci più efficienti, per esempio, oppure per prevedere con sempre maggiore precisione eventi meteorologici estremi.

21. Si teme che l’IA possa “rubare” il lavoro alle persone e aumentare la disoccupazione. Ma molti sostengono che un essere umano può essere sostituito, semmai, solo da un altro essere umano che sfrutta al meglio i vantaggi dell’intelligenza artificiale.

22. Secondo Elon Musk in futuro l’intelligenza artificiale contribuirà a una ricchezza di servizi tale da non obbligare più gli esseri umani a lavorare. Chi vorrà fare un lavoro, sostiene Musk, lo farà soltanto per il piacere di farlo.

23. Per Bill Gates, co-fondatore di Microsoft e profondo conoscitore delle nuove tecnologie, i progressi nel campo dell’IA ci consentiranno di lavorare, in futuro, “solo tre giorni a settimana”.

24. L’Intelligenza Artificiale Generale (AGI), è un tipo di intelligenza artificiale teorica che possiede capacità cognitive paragonabili o superiori a quelle umane in una vasta gamma di compiti, tra cui ragionamento, apprendimento, problem solving, creatività e comprensione del linguaggio naturale.

25. HAL 9000 di “2001: Odissea nello Spazio”, è uno degli esempi più noti esempi di AGI nelle opere di fantascienza. Si tratta di un computer dotato di coscienza e ragionamento autonomo che finisce per ribellarsi agli esseri umani.

26. L’intelligenza artificiale generativa è un tipo di IA che comprende il linguaggio naturale e si esprime come farebbe una persona in carne e ossa, arrivando a imitare la creatività umana nella generazione di nuovi contenuti (testi, immagini, audio, video).

27. L’IA generativa può scrivere un racconto, una canzone inedita, una poesia. Ma può anche stilare un programma di allenamento, oppure suggerire una ricetta, o ancora tradurre in modo efficace una frase dall’inglese all’italiano. L’IA generativa, inoltre, è capace di replicare lo stile di scrittori, fotografi o pittori famosi. Potremmo chiederle, per esempio, di scrivere un breve racconto come farebbe Nick Hornby o di produrre un sonetto come farebbe Shakespeare.

28. Va tenuto a mente che le macchine dotate di intelligenza artificiale generative possono scrivere egregiamente ma in realtà non sanno ciò che fanno. Non possono comprendere, infatti, il significato dei contenuti che producono.

29. ll Test di Turing, ideato dal matematico Alan Turing, è un criterio per valutare l’intelligenza di una macchina: se un umano interagisce con un sistema senza riuscire a distinguere se sta comunicando con un’altra persona o con una macchina, allora il sistema è considerato “intelligente”.

30. Si dice che l’IA generativa può superare il Test di Turing perché è in grado di produrre risposte e contenuti (come testi, immagini, suoni) che sono indistinguibili da quelli creati dagli umani.

31. Nonostante le eccellenti doti conversazionali, l’IA generativa non ha una coscienza e non è in grado di provare sentimenti o emozioni.

32. L’IA generativa crea nuovi contenuti imparando da grandi quantità di dati esistenti. Lo studio di tali contenuti, prodotti nel tempo dagli esseri umani, è alla base dell’addestramento di un’intelligenza artificiale.

33. L’esempio più popolare di intelligenza artificiale generativa è ChatGpt, vale a dire un programma informatico – per la precisione un chatbot – progettato per simulare conversazioni con gli utenti umani attraverso il riconoscimento del linguaggio naturale e l’apprendimento automatico. 

34. ChatGpt è stata creata da OpenAI, un’azienda americana nata come laboratorio di ricerca no profit sull’intelligenza artificiale.

35. ChatGpt è stata aperta al pubblico a novembre 2022. Le sue capacità sorprendenti hanno innescato una corsa all’intelligenza artificiale da parte delle aziende che sviluppano questa tecnologia. Molte di queste sono statunitensi e hanno sede nella Silicon Valley, in California.

36. Anche la Cina sta investendo moltissimo nell’IA ed è considerata all’avanguardia in molte applicazioni, ma i suoi progressi nel campo dell’intelligenza artificiale sono meno chiari. I chatbot sviluppati in Cina, come Ernie di Baidu, non sono molto diffusi al di fuori del Paese.

37. Altri esempi di chatbot popolari sono Gemini, basato sull’IA sviluppata da Google, Copilot, che sfrutta l’IA di Microsoft, e Claude, che si avvale dell’intelligenza artificiale creata da Anthropic. Sono tutti esempi di IA nate in America.

38. L’Europa sta provando a rispondere al predominio statunitense nel settore dell’IA generativa, con risultati promettenti ma complessivamente inferiori a quelli raggiunti dalle big tech della Silicon Valley. L’IA europea più potente e accreditata è stata creata in Francia e si chiama Mistral.

39. Dietro ogni chatbot dotato di IA generativa c’è il vero “cervello”, ovvero un modello linguistico di grandi dimensioni (LLM) che permette a strumenti come ChatGpt o Gemini di generare contenuti simili a quelli che produrrebbe un essere umano.

40. I Large Language Models (LLM) vengono addestrati su enormi quantità di testo per apprendere la struttura e l’uso del linguaggio. Questo “allenamento” consente a tali modelli di rispondere a domande, scrivere testi e svolgere compiti linguistici complessi.

41. Grandi quantità di dati sono fondamentali per l’addestramento dei modelli di deep learning. Le grandi aziende che sviluppano intelligenza artificiale hanno utilizzato, per allenare i loro modelli, dati prevalentemente pubblici come i testi disponibili su internet.

42. Tra le aziende più spregiudicate nel rastrellamento dei dati sul web, c’è OpenAI. Si tratta dell’azienda di San Francisco che ha creato ChatGpt e alcuni tra i sistemi di intelligenza artificiale più potenti del mondo. Il suo modello più avanzato si chiama Gpt-4o.

43. L’amministratore delegato di OpenAI, nonché uno dei suoi fondatori, è l’imprenditore Sam Altman, considerato il volto simbolo dell’intelligenza artificiale generativa. Altman viene definito spesso “il papà di ChatGpt” anche se non ha contribuito personalmente al suo sviluppo.

44. Altre figure di spicco di OpenAI sono Mira Murati, la manager che supervisiona la strategia tecnologica dell’azienda (CTO) e Greg Brockman, il fidato braccio destro di Altman.

45. Alla creazione di ChatGpt ha contribuito in modo fondamentale l’informatico di origini russe Ilya Sutskever, studente prodigio formato da Geoffrey Hinton, che recentemente ha dato le dimissioni da OpenAI. Sutskever era il direttore scientifico dell’azienda e guidava il team che si occupa di garantire la sicurezza dell’intelligenza artificiale alla base di ChatGpt.

46. Il New York Times ha accusato OpenAI di aver usato i suoi articoli per addestrare i modelli di IA che permettono il funzionamento di ChatGpt. Per questo il quotidiano americano ha fatto causa a ChatGpt. Il procedimento legale è ancora in corso.

47. Dopo la causa del New York Times, OpenAI si è accordata con numerose testate giornalistiche internazionali – dal Financial Times al Wall Street Journal – per usare i loro articoli per l’addestramento dei futuri modelli di intelligenza artificiale.

48. L’ascesa dell’IA generativa, che produce contenuti inediti ispirandosi a ciò che ha imparato dai dati esistenti, pone anche il problema del diritto d’autore. Alcuni scrittori, come George R. R. Martin, l’autore de “Il trono di spade”, hanno fatto causa a OpenAI perché si sarebbe appropriata in modo indebito dei loro romanzi per addestrare l’IA alla base di ChatGpt.

49. Per le aziende che sviluppano intelligenza artificiale i dati “di qualità” – vale a dire informazioni accurate, coerenti, equilibrate e complete, tipicamente prodotte dagli esseri umani – sono fondamentali nell’addestramento dei modelli di IA, in quanto permettono di ridurre il rischio di errori e distorsioni nei contenuti che generano.

50. C’è il rischio che i modelli di IA apprendano e perpetuino pregiudizi esistenti nei dati di addestramento. Questo può portare a decisioni ingiuste o discriminanti da parte dell’IA, influenzando negativamente l’accuratezza e l’equità dei suoi contenuti, delle sue previsioni o raccomandazioni.

51. I dati che vengono forniti a un’intelligenza artificiale vengono chiamati “input”. Con “output”, invece, si definisce il risultato del “lavoro” dell’IA.

52. Il prompt è l’istruzione in forma di testo che l’utente fornisce a un’intelligenza artificiale – tramite un chatbot – per ottenere l’output desiderato.

53. L’intelligenza artificiale generativa non produce solo testo scritto. Si definisce “multimodale” una IA capace di gestire input di diverso tipo (testi, audio, immagini e video) e di produrre risultati altrettanto variegati.

54. L’IA generativa più famosa per la generazione di immagini si chiama Midjourney. Quella più popolare con cui creare brani musicali, sempre a partire da una descrizione testuale fornita da un utente (per esempio: “Genera una ballata sulla fine di una storia d’amore”), si chiama Suno. Il modello di IA più avanzato per la produzione di video è invece Sora e appartiene, anche questo, a OpenAI.

55. L’IA generativa può anche “parlare” attraverso voci virtuali che possono replicare il tono e le emozioni di un essere umano.

56. La capacità dell’intelligenza artificiale di generare immagini, audio e video realistici in pochi istanti, a partire da un testo, permette anche a chi non ha competenze digitali di creare, volendo dei deepfake, vale a dire un video o un’immagine falsa in cui qualcuno sta facendo qualcosa che non ha effettivamente fatto.

57. L’IA, in particolare il deep learning, svolge un ruolo fondamentale nella creazione di deepfake, utilizzando reti neurali per analizzare e replicare i tratti del viso, le espressioni e la voce di una persona, permettendo di inserirli in un contesto diverso o di fargli dire o fare cose che non hanno mai detto o fatto.

58. Il deepfake più famoso creato da una IA generativa – Midjourney – è quello di Papa Francesco con indosso un vistoso piumino bianco, simile a quelli prodotti dal brand di lusso Balenciaga.

59. Altri deepfake famosi, diventati virali negli ultimi due anni, sono le immagini del finto arresto dell’ex presidente degli Stati Uniti, Donald Trump, e dei finti funerali dell’ex premier Silvio Berlusconi al duomo di Milano.

60. All’inizio del 2024 un deepfake osceno di Taylor Swift è stato diffuso online ed è diventato virale, sollevando preoccupazioni sulla privacy e il furto di identità nell’era dell’intelligenza artificiale.

61. Nel 2018, “Edmond de Belamy”, un ritratto creato da un algoritmo di intelligenza artificiale, è stato battuto all’asta da Christie’s per 432.500 dollari, segnando un momento storico per l’arte generata dall’IA.

62. Un’immagine generata dall’IA ha vinto nella categoria “Creatività” dei Sony World Photography Awards 2023, un prestigioso premio dedicato alle migliori fotografie, ma l’autore ha rifiutato il premio per sollevare un dibattito sull’uso dell’IA nell’arte.

63. Al concorso fotografico 1839 Awards che si è concluso a giugno 2024, la foto “Flamingone” di Miles Astray ha vinto nella categoria dedicata all’IA, pur essendo reale. Quando è stato appurato che lo scatto era vero, è stato squalificato.

64. L’IA generativa ha un problema con la generazione delle mani. Spesso produce immagini in cui i soggetti hanno sei o sette dita, oppure hanno arti deformi. Per riconoscere se un’immagine è stata prodotta da un’intelligenza artificiale, la prima cosa da fare è osservare, appunto, le mani.

65. L’IA generativa che genera video è incerta nella replica della camminata di esseri umani e animali: spesso i passi delle persone generate dall’intelligenza artificiale sono incerti oppure le gambe si sovrappongono in modo anomalo.

66. Non ci si può mai fidare ciecamente di una IA generativa poiché spesso può creare contenuti errati o totalmente inventati.

67. Con il termine “allucinazione” si definisce la tendenza di un’intelligenza artificiale generativa a produrre, talvolta, informazioni false. Si parla di “allucinazioni” dell’IA perché, come una persona che vede o sente cose inesistenti, l’IA genera testi che non sono basati sulla realtà o sui dati a sua disposizione. In pratica, l’IA “inventa” cose che sembrano plausibili e credibili, ma che in realtà sono false o distorte.

68. Tra le figure chiave dell’IA generativa c’è Demis Hassabis, il neuroscienziato che ha co-fondato nel 2010 un laboratorio di ricerca sull’intelligenza artificiale chiamato DeepMind che è stato acquisito da Google nel 2014. Hassabis è ora l’amministratore delegato di Google DeepMind, la divisione dell’azienda che si occupa di sviluppare l’intelligenza artificiale più avanzata.

69. Google DeepMind è famosa per aver sfidato (e battuto) nel 2016 Lee Sedol, il campione del mondo di Go, un gioco millenario molto diffuso nei Paesi del sudest asiatico, in particolare in Corea del Sud. L’IA che ha battuto Sedol per 4 partite a 1 si chiama AplhaGo.

70. Nel 1997, il computer Deep Blue di IBM ha sconfitto il campione mondiale di scacchi Garri Kasparov, in un evento che ha segnato una pietra miliare nella storia dell’IA. Ma per un computer predire una mossa vincente in una partita di scacchi è estremamente “più semplice” rispetto ai miliardi di combinazioni previste dal gioco del Go.

71. Sfruttando le tecniche di autoapprendimento messe a punto attraverso lo sviluppo di AlphaGo, Google Deepmind ha creato AlphaFold, un sistema di intelligenza artificiale in grado di prevedere la struttura tridimensionale delle proteine con un’accuratezza senza precedenti. Questa IA promette di accelerare la ricerca in molteplici campi, dalla scoperta di farmaci alla bioingegneria.

72. Un altro fondatore di DeepMind, Mustafa Suleyman, è ora a capo dell’intelligenza artificiale di Microsoft.

73. L’amministratore delegato di Microsoft, Satya Nadella, è stato fondamentale nella crescita economica e tecnologica di OpenAI. Nadella ha deciso di investire (finora) 13 miliardi in OpenAI, con l’obiettivo di sfruttare anche per i suoi prodotti la potente IA che fa funzionare ChatGpt.

74. OpenAi recentemente ha stretto un accordo anche con Apple. ChatGpt sarà integrata nei dispositivi prodotti dalla Mela: sarà chiamata in causa da Siri – l’assistente virtuale di Apple – ogni volta che la “Apple Intelligence” sviluppata a Cupertino non potrà soddisfare autonomamente la richiesta dell’utente.

75. Sundar Pichai è l’attuale amministratore delegato di Google e della sua società madre Alphabet. Sotto la guida di Pichai, Google ha intensificato gli sforzi nell’IA generativa.

76. I fratelli italoamericani Dario e Daniela Amodei, ex dipendenti di OpenAI, hanno lanciato nel 2023 una IA che si chiama Claude e che viene definita “più etica” e sicura rispetto a ChatGpt.

77. L’intelligenza artificiale può essere aperta, condividendo codice e dati con la comunità per promuovere la collaborazione e l’innovazione, oppure chiusa, mantenendo tecnologie proprietarie per motivi di sicurezza, competitività o profitto.

78. Un’intelligenza artificiale aperta viene definita “open source” e in linea generale è accessibile gratuitamente dagli sviluppatori.

79. Nonostante il suo nome sembri far riferimento ad apertura e accessibilità, molte delle tecnologie e dei modelli sviluppati da OpenAI sono “chiuse” e non pienamente disponibili al pubblico e agli sviluppatori esterni all’azienda. Per questo ChatGpt, spesso, viene definita una “scatola chiusa”.

80. Una delle big tech che sostiene maggiormente lo sviluppo di IA open source è Meta, l’azienda di cui è amministratore delegato Mark Zuckerberg.

81. Il riconoscimento vocale è la capacità di trascrivere in testo il parlato umano, mentre la sintesi vocale è la generazione di suoni simili a una voce umana partendo dal testo.

82. Esempi di voci sintetiche molto popolari sono quelle di Alexa, l’assistente virtuale creato da Amazon, e di Siri, l’assistente virtuale di Apple.

83. La “voce” più famosa nel campo dell’IA è però umana: si tratta di quella dell’attrice Scarlett Johansson, che ha doppiato nel 2013 l’intelligenza artificiale chiamata Samantha protagonista del film “Her” di Spike Jonze.

84. A maggio 2024 l’attrice Scarlett Johansson ha accusato OpenAI e il suo amministratore delegato, Sam Altman, di aver creato una voce sintetica femminile identica alla sua per l’IA che permette a ChatGpt di “parlare”.

85. A gennaio 2023 alcuni elettori dello stato del New Hampshire hanno ricevuto una telefonata con un messaggio apparentemente registrato da Biden: invitava a disertare le urne delle primarie del Partito Democratico. Ma la voce del Presidente Usa era stata clonata da un’intelligenza artificiale.

86. In molti temono che l’intelligenza artificiale generativa possa diventare un potente strumento in grado di alimentare la disinformazione in vista dell’elezione del futuro Presidente degli Stati Uniti. L’america andrà al voto il prossimo 5 novembre.

87. Recentemente la “coalizione” no-profit C2PA, a cui hanno aderito le principali big tech e le maggiori case produttrici di macchine fotografiche, ha messo a punto il marchio “Content Credentials” che traccia origine e autenticità dei contenuti digitali.

88. A novembre del 2022 in Danimarca un gruppo chiamato Synthetic Party ha provato a conquistare un posto in parlamento candidando un’intelligenza artificiale chiamata Leader Lars.

89. Inizialmente molte scuole, soprattutto in America, hanno vietato l’uso di strumenti come ChatGpt in classe. I professori, proprio come è avvenuto quando ha iniziato a diffondersi la calcolatrice a metà degli anni 60, erano – e in alcuni casi sono ancora – preoccupati dal fatto che gli studenti possano affidare i loro compiti a ChatGpt e rinunciare quindi allo studio e all’applicazione del pensiero critico. Col passare del tempo la posizione delle scuole e dell’università è cambiate e ora la tendenza è quella di sfruttare l’intelligenza artificiale per creare percorsi di studio personalizzati per gli studenti.

90. Non sappiamo se le macchine, un giorno, diventeranno effettivamente più intelligenti degli esseri umani. I neuroscienziati sostengono che questo potrebbe accadere solo quando l’IA potrà contare su un corpo robotico che le permetterà di interagire con il mondo esterno e di acquisire, dunque, una coscienza fenomenica.

91. La robotica e l’intelligenza artificiale sono due campi strettamente interconnessi, che si alimentano a vicenda nello sviluppo di tecnologie innovative. La robotica si occupa della progettazione, costruzione e programmazione di robot, macchine in grado di eseguire compiti in modo autonomo o semi-autonomo. L’integrazione dell’IA nella robotica ha portato alla creazione di robot intelligenti, in grado di percepire l’ambiente circostante, adattarsi a situazioni impreviste e interagire in modo più naturale con gli esseri umani.

92. Un primo esempio popolare di umanoide con IA, anche se non ancora pienamente sviluppato, potrebbe essere considerato ASIMO, il robot creato da Honda nel 2000. ASIMO era in grado di camminare, correre, salire le scale e persino ballare.

93. Il robot umanoide dotato di IA più sorprendente, in termini di realismo, si chiama Ameca ed è stato sviluppato dall’azienda britannica Engineered Arts. Ameca è noto per le sue espressioni facciali sorprendentemente “umane”.

94. Il settore dell’intelligenza artificiale è contraddistinto da una profonda disparità di rappresentanza e opportunità per le donne, che si traduce – tra le altre cose – nella permanenza dei bias e della discriminazione in questa tecnologia.

95. L’Italia può contare su figure femminili di spicco nel campo dell’intelligenza artificiale. Le donne più rappresentative sono qui.

96. La startup italiana iGenius è stata la prima a superare la valutazione di mercato di un miliardo di euro, diventando un “unicorno”. iGenius ha sviluppato un modello di IA chiamato Italia addestrato sul supercomputer Leonardo – uno dei più potenti del mondo – che si trova al Cineca di Bologna.

97. A marzo scorso la premier Giorgia Meloni ha annunciato che il governo italiano investirà un miliardo di euro nello sviluppo di intelligenza artificiale in Italia.

98. Nel corso dell’ultimo G7 che si è svolto in Italia è intervenuto il Papa, parlando proprio di intelligenza artificiale. Bergoglio l’ha definita uno strumento “affascinante e tremendo” e ha ribadito la necessità di fare in modo che questa tecnologia “resti al servizio dell’uomo”.

99. L’IA potrebbe esacerbare le disuguaglianze, con solo le nazioni più ricche che beneficiano dei suoi vantaggi. Equo accesso ed educazione sull’IA sono fondamentali per una distribuzione paritaria.

100. Lo sviluppo di un’IA allineata ai valori umani e che rispetti principi etici è una priorità per evitare conseguenze negative indesiderate. Ma definire questi valori e codificarli negli algoritmi è estremamente complesso.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Donazione speciale della Croce Verde di Novafeltria

“Non hai una sigaretta?”: e stacca l’orecchio a morsi a un paziente