News Stable Diffusion 2.0: nuova profondità per l'image to image
Marina Londei
1' 7''
25/11/2022

Stability AI ha rilasciato la versione 2.0 di Stable Diffusion. Tra le nuove feature c'è anche depth2img per preservare la profondità della scena.

Stable Diffusion 2.0: nuova profondità per l'image to image

Stability AI ha rilasciato la nuova versione di Stable Diffusion che, tra le altre novità, aggiunge la feature depth2img, un nuovo modello per la definizione della profondità nei processi IA di image-to-image.

Il modello inferisce la profondità di un'immagine di input e ne genera di nuove mantenendo la struttura originaria, senza perdere informazioni. La nuova feature permette di trasformare totalmente l'immagine senza alterare la coerenza e la profondità dell'originale. 

A differenza dei modelli precedenti, dove le uniche informazioni disponibili erano quelle dei pixel e delle definizioni testuali, ora la generazione di immagini si arricchisce di nuovi dettagli per preservare le caratteristiche dell'input

Stable Diffusion 2.0

Il modello genera una mappa di profondità simile a quella usata dagli smartphone per l'effetto sfocatura Bokeh nelle foto, per risaltare il soggetto della foto rispetto al background.

Depth2img usa MiDas di Intel, un modello per il calcolo della profondità relativa di un'immagine. Si parla in questo caso di monocular depth estimation, ovvero della stima della profondità di un singolo pixel in relazione alla telecamera della scena. Questo passaggio è fondamentale per calcolare la coerenza dell'ambiente. 

La potenza dell'approccio può essere sfruttata non solo nei task di image-to-image, ma anche per la ricostruzione 3D delle scene, anche in ambito cinematografico, i sistemi di guida autonoma e di realtà aumentata.

Potrebbe interessarti anche

News

Muse: il nuovo modello Text-to-Image di Google AI

Basato su trasformatori generativi, Muse è in grado di generare foto di alta qualità a velocità estremamente elevate, su...

News

La narrazione generativa di Tome sblocca la creatività

La nuova funzione di generazione automatica di narrazioni di Tome sfrutta strumenti basati sull'intelligenza artificiale...

News

OpenAI rilascia Point-E per generare immagini 3D

OpenAI ha rilasciato Point-E, un modello per la generazione di immagini 3D a partire da input testuali che supera gli al...

Mercato

Adobe Stock inizierà a vendere immagini generate

L’azienda ha reso pubbliche nuove linee guida per la pubblicazione di contenuti creati dall'intelligenza artificiale nel...