in

“ChatGpt ora può vedere e parlare”: ecco come funziona


“ChatGpt ora può vedere, ascoltare e parlare”. OpenAI, la startup di San Francisco che sviluppa intelligenza artificiale “generativa”, e cioè in grado di esprimersi come farebbe un essere umano, ha appena annunciato che consentirà ai suoi clienti di conversare con ChatGpt usando solo la voce. Basterà premere l’icona del microfono – come si fa per registrare un audio su WhatsApp – e fare una domanda. Pochi istanti dopo una voce femminile, virtuale, comunicherà la risposta.

Nell’esempio che ha diffuso OpenAI, a ChatGpt è stato chiesto di creare una favola della buonanotte.

La conversazione tra l’utente e l’AI appare fluida e i tempi di risposta accettabili, considerando che si tratta del primo passo di OpenAI nel terreno degli assistenti vocali.

Intelligenza artificiale

“Alexa, parliamo”: il destino degli assistenti vocali non è più appeso a un timer


Perché di questo si tratta, in fondo: ChatGpt “prende la parola” e in qualche modo risponde ad Alexa, che la settimana scorsa – nel corso di un evento globale che si è tenuto in Virginia, negli Usa – ha ricevuto un “upgrade” di cui si è parlato molto: la popolare intelligenza artificiale di Amazon diventerà “più umana” proprio grazie all’AI generativa.

Va in questa direzione l’investimento che Amazon ha appena fatto in Anthropic, la startup creata dagli italoamericani Dario e Daniela Amodei che è tra le poche a potersi avvicinare, con il suo chatbot chiamato Claude, alla creatività di ChatGpt.

Intelligenza artificiale

Amazon investe nell’AI generativa di Anthropic



Non ruota tutto intorno alla voce, comunque. Sarà possibile, infatti, mostrare a ChatGpt quello di cui intendiamo parlare (o chiedere informazioni) attraverso un’immagine d’archivio o una foto appena scattata.

Anche qui l’esempio che propone OpenAI è illuminante: un utente scatta una foto alla sua bicicletta e poi la carica sulla app di ChatGpt – che ricordiamo è disponibile sia su iOS sia su Android – per chiedere, digitando questa volta sulla tastiera, “come si fa a regolare il sellino”. A quel punto l’AI analizza l’immagine e offre le istruzioni adeguate.

Sul suo blog ufficiale, OpenAI fa altri due esempi: “Quando siete a casa, fate una foto all’interno del frigo per sapere cosa potreste cucinare per cena, e ottenere la ricetta. E poi, dopo aver mangiato, mentre state aiutando i vostri figli con i compiti di matematica, fate una foto al problema e chiedete consigli per risolverlo”.

Le nuove funzioni saranno disponibili per gli utenti Plus (coloro che pagano 20 dollari al mese – più tasse – ogni mese) ed Enterprise (i nuovi abbonamenti riservati alle aziende) entro le prossime due settimane.





Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Guardie zoofile, via ai controlli sui cani tenuti alla catena. La sanzione può arrivare a 450 euro

Dalla tonaca all’abito nuziale, matrimonio in gran segreto in chiesa nel Reggiano: si sposa l’ex parroco