Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

ARM Project Trillium è la piattaforma di ARM dedicata al Machine Learning

13 Febbraio 2018 10

ARM, in maniera del tutto inaspettata, ha presentato una nuova serie di Processori Integrati e soluzioni software dedicate al Machine Learning. Nasce così Project Trillium, la prima piattaforma dedicata alle reti neurali sviluppata da ARM, pensata per essere completamente scalabile e inizialmente indirizzata al mondo dei dispositivi mobile, almeno nella sua prima generazione. A causa della crescente richiesta di IP in grado di offrire prestazioni elevate e consumi ridotti, ARM ha pensato bene di proporre delle soluzioni che combinano hardware e software per rispondere alle esigenze dei suoi clienti.


Sino ad ora la società britannica ha seguito in maniera molto marginale lo sviluppo del mondo del ML, presentando delle novità all'interno dei suoi nuovi Cortex-A75 e Mali-G72 che hanno semplificato l'implementazione di meccanismi di intelligenza artificiale, pur non offrendo lo stesso livello di prestazioni che si potrebbe ottenere da un chip dedicato.

La proposta di ARM si articola attraverso due IP estremamente specializzate e che verranno rese disponibili ai propri partner a partire dalla metà del 2018. Parliamo dei nuovi ARM ML Processor e ARM OD Processor, il primo dedicato a svolgere tutti i compiti di machine learning, mentre il secondo è specializzato nel riconoscimento avanzato degli oggetti. La strategia è particolarmente interessante e ci mostra quanto ARM voglia fare sul serio in questo settore, dal momento che ha preferito sviluppare un processore dedicato al riconoscimento degli oggetti, piuttosto che integrare queste funzioni all'interno di un unico chip.


Il processore ARM ML è in grado di offrire prestazioni di 3TOPs/W, ovvero è in grado di eseguire 3 miliardi di operazioni (interi a 8 bit) al secondo consumando 1W, e ARM punta di farlo lavorare ad una potenza di 1,5W per ottenere 4,6TOPs. Questi dati fanno riferimento all'implementazione a 7nm di questo chip. La presenza dell'ARM ML Processor permetterà quindi di scaricare CPU, GPU e DSP da diversi carichi di lavoro per affidarli a questo componente estremamente efficiente, a tutto vantaggio del risparmio energetico e di una miglior ottimizzazione delle risorse del sistema.

Per quanto riguarda il processore ARM OD (Object Detection), invece, si tratta di un chip pensato per riconoscere oggetti, posture, la direzioni verso cui una persona guarda e le traiettorie tra gli oggetti presenti nella scena inquadrata. ARM OD è in grado di processare flussi di immagini FullHD a 60 fps e di riconoscere un numero illimitato di oggetti presenti sulla scena, a patto che la loro dimensione minima sia di 50x60 pixel. Il processore esegue questi compiti con prestazioni sino ad 80 volte superiori rispetto a quelle di un DSP.


I due processori sono pensati per lavorare in sinergia tra loro: ad esempio, ARM OD può occuparsi di riconoscere tutti gli elementi presenti nella scena e inviare i metadati delle regioni di interesse a ARM ML, che si occuperà di classificare e identificare ogni cosa rilevata da OD.

La principale particolarità della presentazione di Project Trillium riguarda il fatto che ARM non ha ancora dato accesso a questa piattaforma ai suoi partner, mentre normalmente è solita annunciare le proprie soluzioni solo dopo che queste sono già state distribuite. Questo significa che bisognerà attendere almeno il 2019 prima di poter vedere qualche SoC equipaggiato con gli IP presentati oggi. Assieme all'hardware, ARM ha anche annunciato diversi pacchetti software che completano la piattaforma. Vi lasciamo alla pagina ufficiale di presentazione di Project Trillium per maggiori dettagli.


10

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
manu1234

Ovviamente, ma il fatto che pubblicizzino gli ops invece dei flops vuol dire che le prestazioni in flops non sono così alte (anche perché di default i flops sono sempre di molto inferiori agli ops)

olix81

di ML non ne so nulla e forse mi sfugge qualcosa, ma dubito che abbiano investito tutti quei soldi per qualcosa di inutile. Siamo alla primissima versione comunque.

migliorare

Mlmlmlml...

manu1234

perchè nel machine learning solo quelli a virgola mobile importano, si fanno ben pochi calcoli tra interi che non fanno assolutamente collo di bottiglia. inoltre bisogna vedere com'è strutturato, perchè ops non vuol dire niente se non sai come puoi gestire il codice (tipo cuda, tipo thread, tipo async ecc) ok, l'importante sono i consumi, ma se mi fa 4tops e dopo neanche 1 tflops, è perfettamente inutile per il machine learning

olix81

e perché sarebbero inutili? i calcoli dsp vengono fatti in hw e cmq il dato rilevante sono i consumi: 1w

manu1234

"ovvero è in grado di eseguire 3 miliardi di operazioni (interi a 8 bit) al secondo consumando 1W"

nel ML le operazioni tra interi sono perfettamente inutili. uscite i flops, non gli ops

Federico

Vedo che si propone di unificare le tecnologie di Google ed Apple, questo sarebbe un enorme passo avanti sia per lo sviluppo del software che per la protezione degli investimenti fatti dagli utenti

Vinx

gia' ci sono purtroppo... e il governicchio non tassa il lavoro che fanno i robots...

an-cic

io all'orizzonte vedo grossi guai per un mare di lavoratori

Vinx

ops... all'orizzonte vedo grossi guai per intel e amd...

Recensione e Riprova Google Pixel Buds Pro, rinate con l'aggiornamento

24H con Oppo Find N2 Flip, la sfida a Samsung è servita | VIDEO

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città