Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

Google Seurat renderizza su mobile scena 3D di Rogue One in millisecondi

18 Maggio 2017 24

Google ha scelto il nome del noto pittore francese per identificare il tool di sviluppo che potrebbe far compiere un importante passo avanti alla qualità dei contenuti riprodotti dai moderni visori di Realtà Virtuale, come Google Daydream. Obiettivo di Google è consentire il rendering di complesse scene 3D su dispositivi mobile. E visto che i ''freddi numeri'' parlano più delle spiegazioni prettamente tecniche è interessante riportare la testimonianza di un'azienda a dir poco nota che ha già utilizzato Seurat.

Il riferimento va a ILMxLAB di Lucasfilm che ha impiegato Seurat per renderizzare una scena 3D realizzata per il film Rogue One (l'ultimo capitolo della saga di Star Wars). La scena ha richiesto circa un'ora di rendering su un PC di fascia alta, ma la GPU mobile, grazie al tool, ha impiegato appena 13 millisecondi.

Nessuna magia, quanto un efficiente algoritmo di ridimensionamento delle texture e di riduzione dei poligioni (le prime ridimensionate con un fattore 100, i secondi con un fattore 1000). Ovviamente è bene mettere in conto una perdita di qualità rispetto alla scena originale, ma se si considera l'ambito di impiego si comprenderà che si tratta di una perdita tutto sommato non così penalizzante.

Gli attuali visori di Realtà Aumentata (anche quelli più costosi), infatti, devono fare i conti con limiti hardware che per forza di cose non consentono di spingere eccessivamente in là la risoluzione dei display. L'impiego di Google Seurat per potenziare gli strumenti a disposizione di sviluppatori di giochi e contenuti multimediali per i visori VR è quindi quanto mai gradito: si potranno ottenere scene 3D e contenuti complessi, pur a fronte di potenze di calcolo non comparabili a quelle dei sistemi desktop.

Il tool, svelato oggi da ILMxLAB al Google I/O, deve essere inquadrato nella rinnovata accelerazione data da Google ai dispositivi per la Realtà Virtuale mobile. Si ricorda a tal proposito l'annuncio della nuova generazione di visori VR standalone che BigG realizzerà in collaborazione con HTC e Lenovo e che potrebbero trarre giovamento da Seurat.


24

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
000

Dio..in confronto al film mi sembra abbastanza scarsetto...ha una buona qualità per il render realtime ma siamo lontani dal riprodurre la stessa qualità del film!

Barx

1 picosecondo direi

Diobrando_21

E il lag dove lo metti? Ancora troppo presto per il VR in streaming.

manu1234

no mamma, vado subito

Ikaro

Non ti sei lavato i dentini

manu1234

ahaha inquietante ahahah

Ikaro

Notte nottina

manu1234

notte ;)

Ikaro

Lo so come funzionano ste cose, non serve che me lo ribadisci... Chi non lo sa è magari il padre di famiglia che vuole farsi il filmatino delle vacanze, secondo te è fattibile che si vada ad acquistare (va meglio così :D) un servizio del genere?
Comunque la mia era solo una supposizione.
Buona notte

manu1234

"I vantaggi sarebbero potenze incredibili anche per chi ne vorrebbe fare un uso saltuario della cosa e quindi affittarsi una farm avrebbe poco senso" una cosa del genere te la fa già un'azienda, senza che affitti nessuna farm, ti da già il servizio finale

Ikaro

Si ma questo cosa c'entra con la discussione?

manu1234

quindi niente, l'utente finale non deve fare nulla, paga il servizio quando lo usa oppure mensilmente se lo usa sempre e lo sfrutta senza dover fare nulla quando gli serve.

LaVeraVerità

Condivido il tuo scetticismo. Non ci sono pasti gratis alla mensa dei cicli di clock.

Ikaro

Quindi?

manu1234

per come siamo messi ora non affitti una farm, acquisti un servizio (es un eventuale premiere cloud) e fa tutto lui, non devi di certo romperti a configurarti il motore di rendering. cloud provider ---> azienda ---> servizio ---> utente. CaaS, cloud as a service

Ikaro

Bè si, è quello che dicevo al primo punto :)
I vantaggi sarebbero potenze incredibili anche per chi ne vorrebbe fare un uso saltuario della cosa e quindi affittarsi una farm avrebbe poco senso, ma ripeto è solo una visione semplificata e sognante del futuro :D

manu1234

il cloud costa e occupa spazio ma è sicuro e più performante. questo clustering non so quanti benefici possa dare (penso siano addirittura troppi dispositivi) e drainerebbe batteria e prestazioni

Ikaro

Tecnicamente il primo punto già si può fare...
L'unica spiegazione logica che posso dare alla cosa è che il Cloud costa e occupa spazio...
una rete interconnessa piena di dispositivi in grado di "aiutarsi" a vicenda è più carina come cosa :D

manu1234

Ma a quel punto
1) i pc potrebbero fare la stessa cosa con migliori prestazioni
2) sempre in rete devi stare collegato e allora tanto vale il cloud

Il could è il futuro. L'edge è solo per la transizione verso esso

Ikaro

Perché li ha in mano?
Forse la mia è pura utopia ma se si supera qualche principio morale, non di poco conto (usi la mia rete, il mio soc, la mia batteria) i miliardi di smartphone possono essere una gigantesca piattaforma di rendering...

Ngamer

quindi se applicata su un pc renderizza la stessa scena in 1 ns? :P

manu1234

Non capisco perché google stia cercando di rendere i dispositivi mobile in grado di fare cose da server quando stiamo andando verso un mondo full cloud. A che mi serve tensorflow o questo su un telefono? Lo faccio fare ad una rete di supercomputer che me lo fanno in molto meno e senza perdita di qualità

IlRompiscatole

"La scena ha richiesto circa un'ora di rendering su un PC di fascia alta, ma la GPU mobile, grazie al tool, ha impiegato appena 13 millisecondi."

Bullshit.

"Nessuna magia, quanto un efficiente algoritmo di ridimensionamento delle texture e di riduzione dei poligioni (le prime ridimensionate con un fattore 100, i secondi con un fattore 1000)."

No, non sono i poligoni a richiedere ore di rendering, é il raytracing.
Qua un altro computer di fascia alta avrà impiegato ore per calcolare una simulazione di luci riflesse e le avrà esportate sotto forma di texture.
La differenza é che é ovviamente statico e che non influenza i riflessi degli oggetti e le loro ombre.

aigor1

Bella sta cosa

Recensione e Riprova Google Pixel Buds Pro, rinate con l'aggiornamento

24H con Oppo Find N2 Flip, la sfida a Samsung è servita | VIDEO

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città