29 Novembre 2022
Google ha scelto il nome del noto pittore francese per identificare il tool di sviluppo che potrebbe far compiere un importante passo avanti alla qualità dei contenuti riprodotti dai moderni visori di Realtà Virtuale, come Google Daydream. Obiettivo di Google è consentire il rendering di complesse scene 3D su dispositivi mobile. E visto che i ''freddi numeri'' parlano più delle spiegazioni prettamente tecniche è interessante riportare la testimonianza di un'azienda a dir poco nota che ha già utilizzato Seurat.
Il riferimento va a ILMxLAB di Lucasfilm che ha impiegato Seurat per renderizzare una scena 3D realizzata per il film Rogue One (l'ultimo capitolo della saga di Star Wars). La scena ha richiesto circa un'ora di rendering su un PC di fascia alta, ma la GPU mobile, grazie al tool, ha impiegato appena 13 millisecondi.
Nessuna magia, quanto un efficiente algoritmo di ridimensionamento delle texture e di riduzione dei poligioni (le prime ridimensionate con un fattore 100, i secondi con un fattore 1000). Ovviamente è bene mettere in conto una perdita di qualità rispetto alla scena originale, ma se si considera l'ambito di impiego si comprenderà che si tratta di una perdita tutto sommato non così penalizzante.
Gli attuali visori di Realtà Aumentata (anche quelli più costosi), infatti, devono fare i conti con limiti hardware che per forza di cose non consentono di spingere eccessivamente in là la risoluzione dei display. L'impiego di Google Seurat per potenziare gli strumenti a disposizione di sviluppatori di giochi e contenuti multimediali per i visori VR è quindi quanto mai gradito: si potranno ottenere scene 3D e contenuti complessi, pur a fronte di potenze di calcolo non comparabili a quelle dei sistemi desktop.
Il tool, svelato oggi da ILMxLAB al Google I/O, deve essere inquadrato nella rinnovata accelerazione data da Google ai dispositivi per la Realtà Virtuale mobile. Si ricorda a tal proposito l'annuncio della nuova generazione di visori VR standalone che BigG realizzerà in collaborazione con HTC e Lenovo e che potrebbero trarre giovamento da Seurat.
Commenti
Dio..in confronto al film mi sembra abbastanza scarsetto...ha una buona qualità per il render realtime ma siamo lontani dal riprodurre la stessa qualità del film!
1 picosecondo direi
E il lag dove lo metti? Ancora troppo presto per il VR in streaming.
no mamma, vado subito
Non ti sei lavato i dentini
ahaha inquietante ahahah
Notte nottina
notte ;)
Lo so come funzionano ste cose, non serve che me lo ribadisci... Chi non lo sa è magari il padre di famiglia che vuole farsi il filmatino delle vacanze, secondo te è fattibile che si vada ad acquistare (va meglio così :D) un servizio del genere?
Comunque la mia era solo una supposizione.
Buona notte
"I vantaggi sarebbero potenze incredibili anche per chi ne vorrebbe fare un uso saltuario della cosa e quindi affittarsi una farm avrebbe poco senso" una cosa del genere te la fa già un'azienda, senza che affitti nessuna farm, ti da già il servizio finale
Si ma questo cosa c'entra con la discussione?
quindi niente, l'utente finale non deve fare nulla, paga il servizio quando lo usa oppure mensilmente se lo usa sempre e lo sfrutta senza dover fare nulla quando gli serve.
Condivido il tuo scetticismo. Non ci sono pasti gratis alla mensa dei cicli di clock.
Quindi?
per come siamo messi ora non affitti una farm, acquisti un servizio (es un eventuale premiere cloud) e fa tutto lui, non devi di certo romperti a configurarti il motore di rendering. cloud provider ---> azienda ---> servizio ---> utente. CaaS, cloud as a service
Bè si, è quello che dicevo al primo punto :)
I vantaggi sarebbero potenze incredibili anche per chi ne vorrebbe fare un uso saltuario della cosa e quindi affittarsi una farm avrebbe poco senso, ma ripeto è solo una visione semplificata e sognante del futuro :D
il cloud costa e occupa spazio ma è sicuro e più performante. questo clustering non so quanti benefici possa dare (penso siano addirittura troppi dispositivi) e drainerebbe batteria e prestazioni
Tecnicamente il primo punto già si può fare...
L'unica spiegazione logica che posso dare alla cosa è che il Cloud costa e occupa spazio...
una rete interconnessa piena di dispositivi in grado di "aiutarsi" a vicenda è più carina come cosa :D
Ma a quel punto
1) i pc potrebbero fare la stessa cosa con migliori prestazioni
2) sempre in rete devi stare collegato e allora tanto vale il cloud
Il could è il futuro. L'edge è solo per la transizione verso esso
Perché li ha in mano?
Forse la mia è pura utopia ma se si supera qualche principio morale, non di poco conto (usi la mia rete, il mio soc, la mia batteria) i miliardi di smartphone possono essere una gigantesca piattaforma di rendering...
quindi se applicata su un pc renderizza la stessa scena in 1 ns? :P
Non capisco perché google stia cercando di rendere i dispositivi mobile in grado di fare cose da server quando stiamo andando verso un mondo full cloud. A che mi serve tensorflow o questo su un telefono? Lo faccio fare ad una rete di supercomputer che me lo fanno in molto meno e senza perdita di qualità
"La scena ha richiesto circa un'ora di rendering su un PC di fascia alta, ma la GPU mobile, grazie al tool, ha impiegato appena 13 millisecondi."
Bullshit.
"Nessuna magia, quanto un efficiente algoritmo di ridimensionamento delle texture e di riduzione dei poligioni (le prime ridimensionate con un fattore 100, i secondi con un fattore 1000)."
No, non sono i poligoni a richiedere ore di rendering, é il raytracing.
Qua un altro computer di fascia alta avrà impiegato ore per calcolare una simulazione di luci riflesse e le avrà esportate sotto forma di texture.
La differenza é che é ovviamente statico e che non influenza i riflessi degli oggetti e le loro ombre.
Bella sta cosa