in

OpenaAI ha svelato Sora, una nuova IA for each creare video clip realistici


OpenAI ha appena svelato Sora, il suo primo modello di IA capace di generare online video a partire da un testo.

La qualità delle immagini, nonché la fluidità dei movimenti dei soggetti e delle camere, sono impressionanti.

E impressionante è il fatto che si possono ottenere – a quanto pare – clip che possono durare fino a un minuto.

OpenAI ha diffuso alcuni esempi di contenuti generati da Sora, arrive quello di una ragazza che cammina nella notte, a Tokyo, e che è stato ottenuto digitando questo prompt:

“A fashionable female walks down a Tokyo avenue loaded with warm glowing neon and animated town signage. she wears a black leather-based jacket, a extended crimson dress, and black boots, and carries a black purse. she wears sun shades and purple lipstick. she walks confidently and casually. the avenue is damp and reflective, creating a mirror outcome of the vibrant lights. lots of pedestrians wander about”.

Esistono già strumenti simili a Sora, e anche aperti al pubblico, ma nessuno di questi – si pensi a Runway AI for each esempio – è in grado di produrre clip della durata di un minuto appear quelle diffuse da OpenAI.

Sul suo blog ufficiale, OpenAI scrive che “Sora è in grado di generare scene complesse con più personaggi, tipi specifici di movimento e dettagli accurati dei soggetti e dello sfondo. Il modello comprende non solo ciò che l’utente ha chiesto nel prompt, ma anche appear i diversi elementi coesistono nel mondo reale”.

Sora al momento non è aperta al pubblico. Non si può provare insomma. Ma il Ceo dell’azienda che ha creato ChatGpt, Sam Altman, ha chiesto agli utenti di inviare – attraverso il social community X – le idee che vorrebbero trasformare in video clip. Altman ha usato alcuni di questi prompt per creare dei video con Sora, che poi ha pubblicato sul suo account.

Fa sorridere – ma fino a un certo punto, a pensarci bene – lo scambio, sempre su X, tra Altman e uno degli youtuber più famosi al mondo, MrBeast, che al Ceo di OpenAI scrive ironicamente: “For each favore non farmi diventare un senzatetto”. Il riferimento è alle capacità di Sora, ovviamente, e all’impatto che potrebbe avere sul futuro dei content creator, dei registi, degli attori e di tutti coloro che più in generale lavorano nell’industria cinematografica e televisiva.

OpenAI, for every ora, ha messo questo nuovo modello a disposizione dei “purple staff” che individuano eventuali falle della sicurezza dell’IA e di un gruppo ristretto di visible artist e filmmaker a cui è stato chiesto di fornire dei “feed-back”.

Allo stupore for each le immagini perfette build a partire da un semplice testo si associano diversi timori. C’è il rischio, for every esempio, che una simile tecnologia renda ancora più semplice produrre deepfake. E poi c’è la questione ambientale: generare una semplice immagine con l’IA ha un impatto significativo sulle risorse del pianeta. Per creare un video di 60 secondi servirà ancora più potenza di calcolo e dunque ancora più energia.

prompt: “Several large wooly mammoths strategy treading through a snowy meadow, their very long wooly fur lightly blows in the wind as they stroll, snow protected trees and remarkable snow capped mountains in the distance, mid afternoon gentle with wispy clouds and a sunlight large in the length creates a warm glow, the reduced camera watch is gorgeous capturing the huge furry mammal with wonderful pictures, depth of field”

OpenAI ha messo in luce for each ora gli attuali difetti tecnici:

“Il modello attuale presenta dei punti deboli. Potrebbe avere difficoltà a simulare accuratamente i movimenti di una scena complessa e potrebbe non comprendere istanze specifiche di causa ed effetto. Ad esempio, una persona potrebbe dare un morso a un biscotto, ma in seguito il biscotto potrebbe non lasciare il segno del morso”.

“Il modello può anche confondere i dettagli spaziali di un prompt, advert esempio confondendo sinistra e destra, e può avere difficoltà con descrizioni exact di eventi che si verificano nel tempo, come seguire una specifica traiettoria della telecamera”.





Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

una masterclass a Rimini “For Pet Creator”

Il coordinatore M5s: “Per il cantiere Esselunga di Genova presentai tre esposti for every ritmi di lavoro inaccettabili e assenza di sicurezza, a Firenze tragedia evitabile”