Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

Qualcomm Snapdragon 805 ottimizzato per il 4K su device mobili e Smart TV

20 Novembre 2013 66


Qualcomm espande ulteriormente il suo portfolio e svela alcuni nuovi chip dedicati sia all'universo mobile che a quello multimediale. Tra i protagonisti abbiamo lo Snapdragon 805, un chip inedito che potrà essere utilizzato dagli OEM partner all'interno di smartphone, tablet, Smart TV ed altri device dedicati all'intrattenimento multimediale, tra le sue capacità abbiamo infatti l'ottimizzazione di segnali 4K sia in riproduzione che acquisizione. Queste le caratteristiche tecniche:

  •  GPU Adreno 420 GPU
  • Krait 450 quad-core CPU at 2.5 GHz 
  • Ultra HD support
  • dual camera Image Signal Processors (ISPs) support
  • memory bandwidth support of up to 25.6 GB/second

Un altro dei modelli presentati da Qualcomm nella giornata di ieri è il Gobi 9x35, modem 4G LTE di quarta generazione (data rates of up to 150Mbps) che supporta come ovvio anche le altre tecnologie passate come il 3G: si tratta del primo modem per device mobili ideato con processo produttivo a 20nm. Altra new-entry è la ricetrasmittente RF WTR3925 che porta con se singificativi miglioramenti nelle performance e consumi. Importante anche l'ingresso sul mercato del modulo dual-band Qualcomm VIVE 802.11ac, capace di supportare lo streaming video 4K.

Murthy Renduchintala, executive vice president alla Qualcomm Technologies ha dichiarato in un comunicato ufficiale:

Utilizzando uno smartphone o un tablet che integra uno Snapdragon 805 sarà come avere un home theater UltraHD nelle vostre mani, con video 4K, immagini e grafica a questa risoluzione, tutto costruito per il mobile. Se accoppiato con la nostra ultima soluzione Gobi, la ricetrasmittente RF WTR3925, streaming e visione di contenuti alla risoluzione 4K sarà finalmente possibile.

Inevitabile pensare ai risvolti, sappiamo bene che il 4K è il futuro e le soluzioni tecnologiche a supporto sono sempre di più, ma dovranno evidentemente cambiare anche le dimensioni medie dello storage di questi dispositivi mobili, pena la saturazione immediata dello spazio di archiviazione. Per un'esperienza completa bisognerà poi disporre di pannelli con questa risoluzione UltraHD, anche nel mobile.


66

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Lucaaa

questo è sicuro, non per nulla siam passati da A8 ad A9, ora A15, con un inframezzo di A7 e A12!
e ora stanno uscendo gli A53 e A57, quindi, ampliare la qualità dell'architettura è sempre un vantaggio

bada però, cortexA15 non ha la migliore efficienza, ha solo le migliori performance, perchè non puoi avere 10 mila miliardi di transistor, e sperare che questi consumino poco, perchè, anche se con processo produttivo consono, comunque son TANTI, e quindi, tanti piccoli conusmi creano un gran consumo

e difatti, hanno ideato big.little per risolvere la lacuna in consumo degli A15.. e ti assicuro che A15 è una sanguisuga!
immagino che gli A57 saranno peggio, visto che i moduli sono a 64bit, quindi, ancora più transistors

per ovviare al problema di performance e bassi consumi, hanno ideato big.little in HMP, ovvero, per tutti i tasks di bassa entità che non hanno bisogno di grosse performance vi è computazione da parte dei cortexA7, che attualmente hanno il miglior rendimento fra consumi e prestazioni, ovvero, a pari prestazioni consuma molto meno di qualunque altro chip
ovviamente essendo architetture povere, non si può pretendere che riescano a compilare anche tasks grossi, e quindi, in quel caso il carico va spostato nei core A15, che servono esclusivamente come effetto turbina in quei momenti in cui vi è veramente necessità di avere di più

ergo, massimo rendimento per l'80% del tempo, e massime prestazioni per il restante 20%

la logica sta proprio li, usare una archittettura povera e parsimoniosa finchè si può, per poi passare a quella prestante

sarebbe meglio aumentare la frequenza della parsimoniosa?
certo, fino a quel gap che fa diminuire il rendimento

ho visto che cortexA7 arriva tranquillamente a 2ghz, il mio note3 è cloccato a 1.3ghz in A7, quindi, immagino che sia tranquillamente overcloccabile

si insomma, come vedi, architettura nuova non sempre comporta un vero calo dei consumi.. cioè.. bisogna ricordarsi che col passare del tempo i carichi diventano sempre più esosi!

gablib83

+1 (vorrei poterti dare un +10 se si potesse;) )

È chiarissimo il discorso sulla corsa all'aumento del clock, ed effettivamente è più che giustificabile, anche se in un ottica di risparmio energetico penso dia un risultato migliore lo sviluppo di cache maggiori e un efficienza produttiva del core data dalle istruzioni per ciclo

RSX™

Entrambi avete i cervelli laggosi :D

Lucaaa

Mostrami come si fa che non son capace

arghh

Vai prima tu. Poi arrivo

Lucaaa

We figlio della me...a
L'unica cosa di inutile qui sei tu, ergo buttati da un ponte

arghh

Appunto il note 3 ha molti servizi inutili in RAM che occupano la memoria e lo fanno laggare. Gnurant e testa di caz... O

Lucaaa

e comunque, dopo averti dato dell'ignurante, ti dimostro pure il perchè

https://atomicorp.com/company/...

spero tu sappia l'inglese

comunque, in soldoni spicci spicci, tutti i sistemi operativi hanno un ram cache, cos'è?
siccome i supporti hard disk son lenti, per ovviare al LAG nell'apertura delle app, il sistema alloca nella ram libera le app più comuni, senza attivare le pagine di ram adibite al "logghing" dell'app, ovvero, i bit risiedono in ram, ma è come se non fossero in uso.

A cosa serve? semplicemente, appena chiedi l'apertura dell'app, questa, avendo già le pagine locate nella memoria, deve solo essere loggata, quindi, tagli il tempo perso per copiare i file da hard disk a Ram

si chiama ram cache, ce l'hanno tutti

e ti dico che in media io col mio note3 attualmente ho quasi 2gb di ram occupata da processi attivi, e il resto è tutto in cache

però calcola che IO NON CHIUDO MAI NULLA, perchè chiudendo e riaprendo arriverei a dover rifare il logghing, cosa che consuma energia visto che richiede innalzamento di frequenza cpu..

2gb occupati son tanti? sai quanti processi ho attualmente attivi? 79

aaaah, occhio perchè quei 2gb son di ram complessiva allocata, ivi comprensiva della inattiva, perchè non è che tutto quello che è attivo in background è veramente attivo, es, un web browser con una pagina web caricata non richiede più computazione da parte del kernel, quindi rimane allocata in ram, ma sotto inattiva

linux usa tanta ram? tutti i sistemi operativi multitasking usano ram

ios/windows hanno bisogno di meno ram? il multitasking in questi 2 è molto diverso rispetto ad android, è imparagonabile la cosa

aaah, molti dei lag son dovuti da governor settati male..
ios non ha lag? a parte che è una palla
ios dura 2h di schermo acceso, forse..

Lucaaa

allora, vero, le cache sono le parti che dissipano di più nel chip, o almeno, incidono molto nei consumi
il consumo è dettato da tanti fattori, il processo produttivo, ovvero, quanto grande è un transistors con correlativa connessione, poi vi è la qualità del chip, più è puro e meno resistività ha, quindi dissipa meno

dissipa eh, perchè in realtà il chip di per se ha un consumo ridicolo, il problema sta nel Vcore, che è quella tensione che viene applicata ai transistor per permettergli di fare switch on/off

all'aumentare della frequenza aumenta la resistività, e quindi serve sempre più energia per mantenere il chip stabile
la temperatura influisce a sua volta, ed ecco il motivo per cui fanno gli overclock in azoto liquido.. un OC a 40°C non è identico ad uno a -30°C

l'obbligo di aumentare la frequenza c'è, e se vuoi ti spiego pure il perchè.
è un lato software, ovvero, non tutto è PARALLELIZZABILE.
il rendering delle pagine web non lo è.
il main task dei giochi non è parallelizzabile, ovvero, quel task che dipende direttamente dalle azioni del giocatore.. puoi parallelizzare le porzioni di oggetti in caricamento, ma non puoi parallelizzare le scelte di comando, cioè, una azione ha bisogno di calcoli matematici, e non puoi parallelizare dei calcoli che son contigui fra loro, cioè, il calcolo successivo deve aspettare il risultato del precedente per essere fatto

per dire, devi buttarti da un ponte con le relative sicurezze, non puoi buttarti se non ti dico l'altezza del ponte, e quindi, come cazz fai a dimensionare le sicurezze?

fortunatamente i thread (gruppi di istruzioni) non parallelizzabili son pochi, o almeno, in realtà è il contrario, però son pochi i thread grossi imparallelizzabili..

ed ecco che capisci anche te che vi è l'obbligo di innalzare la frequenza, o almeno, vi sarebbe anche un discorso di marketing, cioè, vendi con un numerino maggiore, e dai per scontato che sia migliore.. Apple e Microsoft non mettono in chiaro la frequenza del chip, e quindi, loro non sono soggetti direttamente all'hardware, mentre android si..

In più, attualmente, vi sono dei sistemi di hotplug assolutamente ridicoli che io ho eclissato passando ad una cpu big.little, che non si avvale di più di hotplug, ma usa il power gating, e, ti assicuro che il salto si nota, cioè, non vedo più i lag da hotplug

molti lag di android son dovuti proprio a questo, perchè il kernel decide di attivare altri core, che prima erano spenti, e lo scheduler deve rimodulare tutto spostando parte dei threads/tasks/processi nel nuovo core, questo comporta un lag nello scheduler, ma sopratutto, il lag sta di per se nel fatto che l'hotplug usa una logica di sampling, ovvero, decide ogni tot millisecondi, e quindi, potrebbe arrivare in ritardo

per ovviare a ciò si aumenta la frequenza, così vi è più porzione di core usabile da subito in attesa dell'hotplug, per poi spostare task nell'altro core

ecco perchè si usa governor ondemand..

insomma, le variabili son talmenta tante che i commenti diventerebbero troppo prolissi

Lucaaa

se vuoi una risposta tecnica.. all'aumentare dell'architettura aumenta l'efficienza energetica, ovvero, aumenta il rapporto fra operazioni computabili per watt

tralasciando il fatto che i sistemi operativi siano sempre più ingombranti ad ogni upgrade hardware, ne è l'esempio android 4.4, che su un monocore da 1ghz cortexA8 non ci pensa proprio a girare fluidamente!

l'unica realtà sta nel fatto che, una architettura migliore permette un aumento meno repentino delle frequenze.. Poi, lascia stare che i nuovi cell debbano avere + frequenza dei vecchi, quello è puro marketing.. l'utente medio riconosce solo il valore di frequenza e il numero di core, siano di un tipo o di un altro frega nulla..

ecco perchè ti dico che è generico dire che è essetato come un disperso nel mezzo del sahara

vuoi un esempio lampante?

prova a paragonare un vecchio pentium 4 con un nuovo i7.. il vecchio p4 andava tranquillamente a 90Watt di tdp con un monocore da 3ghz poco meno, un nuovo i7 con transistors 3d riesce ad avere un 3ghz quadcore + HT rimanendo sotto i 70Watt di tdp.. in più l'efficienza dell'architettura è maggiore, quindi, 7-10 volte la potenza del P4 con 2/3 dei contumi

perchè? semplicemente perchè la tecnologia si evolve

eppure occhio che i7 è un pompamento di pentium eh, la base dell'architettura è la core x86, non è che siamo passati ad altro sistema di computazione..

capito?

Lucaaa

Appunto.. per la massa s4 ha un s600.. anzi.. ha un quadcore a 1.9ghz..

Se facessero un s5 con octa mediatek da 1.7ghz 8 core A7, la gente penserà che é meglio perché 1.7x 8 > 1.9 x 4

gablib83

Ad oggi le cache dei processori arm based sono ampiamente più piccole dei processori per pc desktop, forse anche per questioni di consumo di energia e calore prodotto?

Proprio i consumi credo siano alla base dello sviluppo di processori con bassi livelli di clock... Credo che un clock a 5-6 GHz qaulunque sia il processo produttivo sarebbe una sanguisuga....

Alex Gombi

Io ti ho solo detto che esiste , le tue domande sulla disponibilità le devi chiedere alla Samsung

Lucaaa

Si beh ma, fino a quando la cache L1 non sarà grande quanto la ram.. puoi creare architetture a raffica, sempre cachemiss

Difatto si é sempre aumentato la frequenza.. vedi i processori intel.. mai chiesto perché nessuno arrivi mai a far uscire una cpu da 6ghz in su?

Processo produttivo del transistor.. in più più aumenti il numero dei transistors per rendere il chip più efficiente, e più hai la pista lunga, e quindi ancora meno frequenza

La parallelizzazione é obbligatoria..non hai scelte
Se non passare alla luce.. con transistors fotonici.. ma anche questi avranno un limite.. di quanto? 100ghz? E poi?

Lucaaa

Appunto.. 805 é 5 punti più potente di 800

:D

Lucaaa

Si ma riesci a procurartela in negozio?
Perché ci sarebbe anche la versione di s3 con 2gb di ram e exynos.. eppure nessuno ce l'ha

Lucaaa

Android ha sempre lagga e ha sempre laggato!

Mmmmm

Lucaaa

Si ma lagga comunque

LoSparasemi

Secondo me invece la ottimizzazione è necessaria, sopratutto quelle delle app; non è possibile che il nexus 5 non possa renderizzare fluidamente i pdf con adobe reader, la potenza di sicuro non manca. Comunque in parte il tuo discorso è vero, su nexus 5 lag su chrome non li vedo per esempio.

Matteo Cazzoli

tutti i blog e le roadmap uscite da 1/2 anni a questa parte :D

Alex Gombi

Credo che ci sia anche una versione di s4 con s800

Alex Gombi

Lo so lo so, la mia era solo una battuta, comunque concordo con te ;)

Riccardo sacchetti

Oddio.. Anche quello è vero! Forse ancora più che il 4k! Col G2, mod camera, filmato a 1080P@60FPS da 1:32 minuti.. Circa 340 MB....

Nickg126

Si per questo la vedo dura per il 1080 a 120fps, difficilmente gli oem mettono tanta memoria all'interno del dispositivo

Riccardo sacchetti

Se non hai lo slot no! =) La memoria on-board è nettamente più veloce!

Drak69

gli i7 sono in po esagerati attualmente xD e cmq abbiamo gli snapdragon 800 di cui non sfruttiamo neanche la meta del potenziale

gablib83

Samsung è partito ufficialmente, cosi come intel e mediatek.....

a febbraio marzo saranno gia disponibili i processori e device...... (news presenti anche in questo blog)

forse stavolta qualcomm non ha retto il confronto.....

Chris94

Fonte?

Matteo Cazzoli

non è a 64bit..
arriveranno tutti a febbraio con le presentazioni e marzo/aprile/maggio con la commercializzazione

gablib83

Lucaaa, tu mi insegni che con la parallelizzazione si riescono a migliorare di molto le prestazioni senza bisogno di aumentare il clock e il voltage del core, in questo caso il miglioramento dato dal krait 420 (suppongo faccia piu o meno 3,8 istruzioni per ciclo di clock) dovrebbe percorrere quella strada, per cui non vedo il bisogno di aumentare ancora la frequenza di clock....

gablib83

da nessuna parte si parla del fatto che il nuovo chip (sembra) non sfrutti istruzioni a 64 bit...
in un era in cui tutti i principali produttori di smartphone stanno orientandosi verso questa "nuova" tecnlogia, restare col "vecchio" set di istruzioni 32 bit significa restare indietro.......

Fabrizio La Daga

Semplicemente perchè mi sembra un S800 iperpompato e perchè non si parla di consumi, tutto qua. E' semplicemente una impressione dovuta a quanto c'è scritto nell'articolo, nulla di tecnico o di verità assoluta.
Per il resto non capisco cosa c'entri iphone, sempre polemiche...perchè ad ogni notizia si finisce sempre col parlare di Android, laggandroid, ios, lagga ios, samsung laggosi, iphone più o meno laggosi ecc???
Fatemi leggere l'articolo e i commenti costruttivi in santa pace senza cadere nellle solite diatribe...a me non interessano e non tifo per nessuno, per fortuna.

Claudio Mariani

Narnia 4

arghh

Beh anche ios7 lagga... è bastato un pò di multitasking epr laggare...

arghh

Cavolo con questa risposta educata è meglio il mio cervello laggoso o il tuo

Maurizio Mugelli

c'e' ancora tempo, comunque non dimenticare che l'immagine e' molto piu' importante della sostanza in questo mercato.

carlomangano

non è vero consumerà lo stesso

e poi voi dimostrate di non capirne nulla di video editing

il 4k non è fatto per essere solamente visto ma per essere visto su tv 4k,per estrarre un fotogramma dal video

anzichè come dice l'utente sotto video 4k a 45 fps conviene fare video 4k con un bitrate più elevato

i video in 4k con un bitrate 46000 kb non catturano veramente 8,8 mpx ma appena 5 mpx e poi gli artefatti di compressione non rendono il video 4k utilizzabile per editing o per estrarre un fotogramma dal video.

ovviamente è un telefono, non ti puoi aspettare altissime prestazioni però anzichè il 4k a 45 fps meglio un 4k a 24 fps ma con un bitrate maggiore

stef684

ma stai zitto..android ha sempre lagga e ha sempre laggato!

Lucaaa

su che base dici ciò? sul fatto che arriva a 2.5ghz?

lo sai che esiste il DVFS?
lo sai che esistono i governor cpu?
lo sai che la potenza massima dev'essere disponibile per un breve momento?
lo sai che non è un iphone? :-P

Lucaaa

note4

Alex Gombi

Presto vedremo Intel core i-7 su smartphone :)

Lucaaa

gnurante, studia come funziona il kernel linux e poi capirai

in più, studia come funziona android
studia come funziona ios
e come funziona windows phone

lagga? perchè ios non lagga? prova ad aprire l'app musica e fa un bello scroll nella lista con i tag degli mp3, vedrai che caduta di framerate

p.s. la cosa vale se hai più di 3 mp3 in tutto il cellulare...

Lucaaa

il tuo cervello ha i lag

Lucaaa

si ma per s5 dovranno inventarsi qualcosa di nuovo, potrebbero proporre l's800, visto che s4 ha s600..

n3 ha s800, mica possono riproporre un s800 per n4, e sopratutto, secondo me n4 non avrà exy 64bit, a malapena riescono a rilasciare hmp per il mio exy 5420 su n3, figurarsi..

matteventu

Anche all'inizio dell'anno si pensava che S600 fosse per smartphone e S800 per SmartTV/tablet...

arghh

Peccato che 3 GB di RAM li succhi come niente per poi laggare

orsidoc

La serie s lagga qualche volta ma ti assicuro che la serie note neanche in multi Windows

Maurizio Mugelli

le caratteristiche sembrerebbero indicare piu' qualcosa tipo stb o sistemi specifici, gpu ultrapotenziata sul fronte video ma cpu di basso livello.

Nickg126

conta che per 1080 a 60fps serve una sd classe 10...

Andrea Zaffardi

be, non esageriamo, intel le cpu le progetta..qualcomm customizza le achitetture progettate da arm..un po' come fa apple.

Recensione e Riprova Google Pixel Buds Pro, rinate con l'aggiornamento

24H con Oppo Find N2 Flip, la sfida a Samsung è servita | VIDEO

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città