Arriva TensorFlow Lite, piattaforma di machine learning dedicata al mobile

15 Novembre 2017 27

Ai tempi dell'I/O 2017, Google aveva annunciato che sarebbe presto arrivata una versione "lite" della sua piattaforma di machine learning TensorFlow dedicata ai processori dei dispositivi mobile ed embedded, sia su piattaforma Android che su piattaforma iOS. Da poche ore è disponibile al download una prima Developer Preview, già da subito per entrambe le piattaforme.

TensorFlow Lite è progettato da zero per essere leggero, cross-platform (per ora solo Android e iOS, altre piattaforme arriveranno in futuro) e veloce, e supporta tutti i coprocessori dedicati all'AI che si interfacciano ad Android sfruttando le API Android Neural Networks. In caso questa "accelerazione hardware" sia assente, naturalmente, TensorFlow Lite ricorre alla CPU.

Con il tempo, TensorFlow Lite soppianterà TensorFlow Mobile, l'API dedicata a processori mobile che è ora parte di TensorFlow "regolare" e da cui la Lite discende. Essendo la versione Lite attualmente in Developer Preview, comunque, la Mobile per ora è ancora supportata.

Questa prima Developer Preview è intenzionalmente limitata in modo tale da garantire performance accettabili sui sistemi e sui modelli più comuni e diffusi. La priorità di espansione delle funzioni sarà determinata anche dalle richieste degli utenti. Per gli sviluppatori interessati, il punto di partenza è la PAGINA DEDICATA sul sito di TensorFlow, con documentazione, link a download ed esempi pratici.


27

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
futurama92

motivazioni della tua affermazione?

Federico

Ho un vago ricordo di un supporto previsto tramite DSP, però non interessandomi non andai ad approfondire..

Federico

Mi pare di aver letto, ai tempi della loro presentazione, che per Tensorflow gli 835 avevano previsto qualcosa di specifico nel DSP.
Però non ero interessato alla cosa e quindi non ho approfondito.
Comunque sono abbastanza sicuro che Qualcomm dichiara il supporto a tensorflow per gli Snap 835.

manu1234

Ah ecco, sei un fanb0y di quella cazzat@ scritta in python di tensorflow

manu1234

Perché gli oem usano le loro. Ti ricordi di quella del mate 10? Guarda che è il mondo di android, frammentato e dove google non ha nessun controllo

manu1234

Basta saperla gestire bene. Com'è che gli altri ci riescono e google no?

leonida73

Ma tu proprio non capisci... A furia di parallelizzare qualsiasi risorsa lavora male, qualsiasi risorsa a un massimo carico di lavoro.
Guarda che sviluppo sw, mica faccio il panettiere

manu1234

Niente, non ce la fai. Io mi sarò dimenticato una virgola, ma tu né sai di cosa parli, nè sei in grado di leggere comprendendo

manu1234

O magari sei troppo stupid0 per capire, visto che, virgola o non virgola, non cambia il significato della frase

leonida73

E poi: cosa pretendi?
Se questa tecnologia vuole una NPU per essere sfruttata ed è uscita adesso, gli altri si adegueranno in futuro se è buona. Mica bisogna giudicarla adesso basandosi sull'hw in essere sul mercato

manu1234

Niente, non ci arrivi. Ovvio che una npu dedicata è meglio, ma se non c'è o non ë sfruttata perché google non supporta quelle di terze parti, la gpu è comunque 100 volte meglio della cpu. Inoltre, non esiste "la gpu occupata", la gpu vive di parallelizzazione, basta saperla sfruttare bene

leonida73

Se scrivessi in italiano, punteggiando ogni tanto magari ti capiremmo

leonida73

Certo che dire "USARE LA GPU"... ma si magari anche il chip radio...
Magari in alcune situazioni la GPU è già occupata (vedi AR) e quindi non disponibile, magari architetturalmente non praticabile...

manu1234

Ma ci arrivi che può integrare anche uno sli di tesla v100 ma se usa le sue api e non quelle di android tensorflow non lo sfrutta?

leonida73

E chi te lo dice?
Dove sta scritto?

leonida73

Non ha integrata una NPU

leonida73

Infatti l'835 non integra na NPU

leonida73

Ottimo... Ho provato poco tempo fa un'applicazione bastata su tensor flow e devo dire che è strabiliante

manu1234

Perché non sfruttano le api standard di android ma hanno le loro.

leonida73

Chi te lo dice che che le altre NPU non siano compatibili (magari non tutte, magari non EPPOL)

leonida73

Appunto...

leonida73

Chi te lo dice che sia solo per i pixel? C'è scritto? Io non l'ho letto nell'articolo linkato.

manu1234

Cpu only a quanto pare

Federico

Ma gli Snap 835 non supportano Tensorflow?

manu1234

qui si parla di un'accelerazione hardware specifica che usa api di google. ergo gli oem di android non se le cagherann0 e apple per ovvie ragioni nemmeno. solo i pixel con le vpu possono usarla. e i pixel è già tanto se non li stanno ritirando dal mercato

jo

In realtà gli unici sono il mate 10 pro e l'a11 di Apple

manu1234

"In caso questa "accelerazione hardware" sia assente, naturalmente, TensorFlow Lite ricorre alla CPU." considerando che ce l'hanno solo i pixel, tutti useranno la cpu. bello schifo. usare la gpu era brutto vero?

Surface: tutte le novità presentate da Microsoft

Recensione Amazfit Verge Lite: ottimo smartwatch ma vale la pena comprarlo?

TIM, ecco le prime offerte 5G: dettagli e smartphone disponibili

Apple, tutte le novità della WWDC 2019