Qualcomm espande ulteriormente il suo portfolio e svela alcuni nuovi chip dedicati sia all'universo mobile che a quello multimediale. Tra i protagonisti abbiamo lo Snapdragon 805, un chip inedito che potrà essere utilizzato dagli OEM partner all'interno di smartphone, tablet, Smart TV ed altri device dedicati all'intrattenimento multimediale, tra le sue capacità abbiamo infatti l'ottimizzazione di segnali 4K sia in riproduzione che acquisizione. Queste le caratteristiche tecniche:
- GPU Adreno 420 GPU
- Krait 450 quad-core CPU at 2.5 GHz
- Ultra HD support
- dual camera Image Signal Processors (ISPs) support
- memory bandwidth support of up to 25.6 GB/second
Un altro dei modelli presentati da Qualcomm nella giornata di ieri è il Gobi 9x35, modem 4G LTE di quarta generazione (data rates of up to 150Mbps) che supporta come ovvio anche le altre tecnologie passate come il 3G: si tratta del primo modem per device mobili ideato con processo produttivo a 20nm. Altra new-entry è la ricetrasmittente RF WTR3925 che porta con se singificativi miglioramenti nelle performance e consumi. Importante anche l'ingresso sul mercato del modulo dual-band Qualcomm VIVE 802.11ac, capace di supportare lo streaming video 4K.
Murthy Renduchintala, executive vice president alla Qualcomm Technologies ha dichiarato in un comunicato ufficiale:
Utilizzando uno smartphone o un tablet che integra uno Snapdragon 805 sarà come avere un home theater UltraHD nelle vostre mani, con video 4K, immagini e grafica a questa risoluzione, tutto costruito per il mobile. Se accoppiato con la nostra ultima soluzione Gobi, la ricetrasmittente RF WTR3925, streaming e visione di contenuti alla risoluzione 4K sarà finalmente possibile.
Inevitabile pensare ai risvolti, sappiamo bene che il 4K è il futuro e le soluzioni tecnologiche a supporto sono sempre di più, ma dovranno evidentemente cambiare anche le dimensioni medie dello storage di questi dispositivi mobili, pena la saturazione immediata dello spazio di archiviazione. Per un'esperienza completa bisognerà poi disporre di pannelli con questa risoluzione UltraHD, anche nel mobile.
Commenti
questo è sicuro, non per nulla siam passati da A8 ad A9, ora A15, con un inframezzo di A7 e A12!
e ora stanno uscendo gli A53 e A57, quindi, ampliare la qualità dell'architettura è sempre un vantaggio
bada però, cortexA15 non ha la migliore efficienza, ha solo le migliori performance, perchè non puoi avere 10 mila miliardi di transistor, e sperare che questi consumino poco, perchè, anche se con processo produttivo consono, comunque son TANTI, e quindi, tanti piccoli conusmi creano un gran consumo
e difatti, hanno ideato big.little per risolvere la lacuna in consumo degli A15.. e ti assicuro che A15 è una sanguisuga!
immagino che gli A57 saranno peggio, visto che i moduli sono a 64bit, quindi, ancora più transistors
per ovviare al problema di performance e bassi consumi, hanno ideato big.little in HMP, ovvero, per tutti i tasks di bassa entità che non hanno bisogno di grosse performance vi è computazione da parte dei cortexA7, che attualmente hanno il miglior rendimento fra consumi e prestazioni, ovvero, a pari prestazioni consuma molto meno di qualunque altro chip
ovviamente essendo architetture povere, non si può pretendere che riescano a compilare anche tasks grossi, e quindi, in quel caso il carico va spostato nei core A15, che servono esclusivamente come effetto turbina in quei momenti in cui vi è veramente necessità di avere di più
ergo, massimo rendimento per l'80% del tempo, e massime prestazioni per il restante 20%
la logica sta proprio li, usare una archittettura povera e parsimoniosa finchè si può, per poi passare a quella prestante
sarebbe meglio aumentare la frequenza della parsimoniosa?
certo, fino a quel gap che fa diminuire il rendimento
ho visto che cortexA7 arriva tranquillamente a 2ghz, il mio note3 è cloccato a 1.3ghz in A7, quindi, immagino che sia tranquillamente overcloccabile
si insomma, come vedi, architettura nuova non sempre comporta un vero calo dei consumi.. cioè.. bisogna ricordarsi che col passare del tempo i carichi diventano sempre più esosi!
+1 (vorrei poterti dare un +10 se si potesse;) )
È chiarissimo il discorso sulla corsa all'aumento del clock, ed effettivamente è più che giustificabile, anche se in un ottica di risparmio energetico penso dia un risultato migliore lo sviluppo di cache maggiori e un efficienza produttiva del core data dalle istruzioni per ciclo
Entrambi avete i cervelli laggosi :D
Mostrami come si fa che non son capace
Vai prima tu. Poi arrivo
We figlio della me...a
L'unica cosa di inutile qui sei tu, ergo buttati da un ponte
Appunto il note 3 ha molti servizi inutili in RAM che occupano la memoria e lo fanno laggare. Gnurant e testa di caz... O
e comunque, dopo averti dato dell'ignurante, ti dimostro pure il perchè
https://atomicorp.com/company/...
spero tu sappia l'inglese
comunque, in soldoni spicci spicci, tutti i sistemi operativi hanno un ram cache, cos'è?
siccome i supporti hard disk son lenti, per ovviare al LAG nell'apertura delle app, il sistema alloca nella ram libera le app più comuni, senza attivare le pagine di ram adibite al "logghing" dell'app, ovvero, i bit risiedono in ram, ma è come se non fossero in uso.
A cosa serve? semplicemente, appena chiedi l'apertura dell'app, questa, avendo già le pagine locate nella memoria, deve solo essere loggata, quindi, tagli il tempo perso per copiare i file da hard disk a Ram
si chiama ram cache, ce l'hanno tutti
e ti dico che in media io col mio note3 attualmente ho quasi 2gb di ram occupata da processi attivi, e il resto è tutto in cache
però calcola che IO NON CHIUDO MAI NULLA, perchè chiudendo e riaprendo arriverei a dover rifare il logghing, cosa che consuma energia visto che richiede innalzamento di frequenza cpu..
2gb occupati son tanti? sai quanti processi ho attualmente attivi? 79
aaaah, occhio perchè quei 2gb son di ram complessiva allocata, ivi comprensiva della inattiva, perchè non è che tutto quello che è attivo in background è veramente attivo, es, un web browser con una pagina web caricata non richiede più computazione da parte del kernel, quindi rimane allocata in ram, ma sotto inattiva
linux usa tanta ram? tutti i sistemi operativi multitasking usano ram
ios/windows hanno bisogno di meno ram? il multitasking in questi 2 è molto diverso rispetto ad android, è imparagonabile la cosa
aaah, molti dei lag son dovuti da governor settati male..
ios non ha lag? a parte che è una palla
ios dura 2h di schermo acceso, forse..
allora, vero, le cache sono le parti che dissipano di più nel chip, o almeno, incidono molto nei consumi
il consumo è dettato da tanti fattori, il processo produttivo, ovvero, quanto grande è un transistors con correlativa connessione, poi vi è la qualità del chip, più è puro e meno resistività ha, quindi dissipa meno
dissipa eh, perchè in realtà il chip di per se ha un consumo ridicolo, il problema sta nel Vcore, che è quella tensione che viene applicata ai transistor per permettergli di fare switch on/off
all'aumentare della frequenza aumenta la resistività, e quindi serve sempre più energia per mantenere il chip stabile
la temperatura influisce a sua volta, ed ecco il motivo per cui fanno gli overclock in azoto liquido.. un OC a 40°C non è identico ad uno a -30°C
l'obbligo di aumentare la frequenza c'è, e se vuoi ti spiego pure il perchè.
è un lato software, ovvero, non tutto è PARALLELIZZABILE.
il rendering delle pagine web non lo è.
il main task dei giochi non è parallelizzabile, ovvero, quel task che dipende direttamente dalle azioni del giocatore.. puoi parallelizzare le porzioni di oggetti in caricamento, ma non puoi parallelizzare le scelte di comando, cioè, una azione ha bisogno di calcoli matematici, e non puoi parallelizare dei calcoli che son contigui fra loro, cioè, il calcolo successivo deve aspettare il risultato del precedente per essere fatto
per dire, devi buttarti da un ponte con le relative sicurezze, non puoi buttarti se non ti dico l'altezza del ponte, e quindi, come cazz fai a dimensionare le sicurezze?
fortunatamente i thread (gruppi di istruzioni) non parallelizzabili son pochi, o almeno, in realtà è il contrario, però son pochi i thread grossi imparallelizzabili..
ed ecco che capisci anche te che vi è l'obbligo di innalzare la frequenza, o almeno, vi sarebbe anche un discorso di marketing, cioè, vendi con un numerino maggiore, e dai per scontato che sia migliore.. Apple e Microsoft non mettono in chiaro la frequenza del chip, e quindi, loro non sono soggetti direttamente all'hardware, mentre android si..
In più, attualmente, vi sono dei sistemi di hotplug assolutamente ridicoli che io ho eclissato passando ad una cpu big.little, che non si avvale di più di hotplug, ma usa il power gating, e, ti assicuro che il salto si nota, cioè, non vedo più i lag da hotplug
molti lag di android son dovuti proprio a questo, perchè il kernel decide di attivare altri core, che prima erano spenti, e lo scheduler deve rimodulare tutto spostando parte dei threads/tasks/processi nel nuovo core, questo comporta un lag nello scheduler, ma sopratutto, il lag sta di per se nel fatto che l'hotplug usa una logica di sampling, ovvero, decide ogni tot millisecondi, e quindi, potrebbe arrivare in ritardo
per ovviare a ciò si aumenta la frequenza, così vi è più porzione di core usabile da subito in attesa dell'hotplug, per poi spostare task nell'altro core
ecco perchè si usa governor ondemand..
insomma, le variabili son talmenta tante che i commenti diventerebbero troppo prolissi
se vuoi una risposta tecnica.. all'aumentare dell'architettura aumenta l'efficienza energetica, ovvero, aumenta il rapporto fra operazioni computabili per watt
tralasciando il fatto che i sistemi operativi siano sempre più ingombranti ad ogni upgrade hardware, ne è l'esempio android 4.4, che su un monocore da 1ghz cortexA8 non ci pensa proprio a girare fluidamente!
l'unica realtà sta nel fatto che, una architettura migliore permette un aumento meno repentino delle frequenze.. Poi, lascia stare che i nuovi cell debbano avere + frequenza dei vecchi, quello è puro marketing.. l'utente medio riconosce solo il valore di frequenza e il numero di core, siano di un tipo o di un altro frega nulla..
ecco perchè ti dico che è generico dire che è essetato come un disperso nel mezzo del sahara
vuoi un esempio lampante?
prova a paragonare un vecchio pentium 4 con un nuovo i7.. il vecchio p4 andava tranquillamente a 90Watt di tdp con un monocore da 3ghz poco meno, un nuovo i7 con transistors 3d riesce ad avere un 3ghz quadcore + HT rimanendo sotto i 70Watt di tdp.. in più l'efficienza dell'architettura è maggiore, quindi, 7-10 volte la potenza del P4 con 2/3 dei contumi
perchè? semplicemente perchè la tecnologia si evolve
eppure occhio che i7 è un pompamento di pentium eh, la base dell'architettura è la core x86, non è che siamo passati ad altro sistema di computazione..
capito?
Appunto.. per la massa s4 ha un s600.. anzi.. ha un quadcore a 1.9ghz..
Se facessero un s5 con octa mediatek da 1.7ghz 8 core A7, la gente penserà che é meglio perché 1.7x 8 > 1.9 x 4
Ad oggi le cache dei processori arm based sono ampiamente più piccole dei processori per pc desktop, forse anche per questioni di consumo di energia e calore prodotto?
Proprio i consumi credo siano alla base dello sviluppo di processori con bassi livelli di clock... Credo che un clock a 5-6 GHz qaulunque sia il processo produttivo sarebbe una sanguisuga....
Io ti ho solo detto che esiste , le tue domande sulla disponibilità le devi chiedere alla Samsung
Si beh ma, fino a quando la cache L1 non sarà grande quanto la ram.. puoi creare architetture a raffica, sempre cachemiss
Difatto si é sempre aumentato la frequenza.. vedi i processori intel.. mai chiesto perché nessuno arrivi mai a far uscire una cpu da 6ghz in su?
Processo produttivo del transistor.. in più più aumenti il numero dei transistors per rendere il chip più efficiente, e più hai la pista lunga, e quindi ancora meno frequenza
La parallelizzazione é obbligatoria..non hai scelte
Se non passare alla luce.. con transistors fotonici.. ma anche questi avranno un limite.. di quanto? 100ghz? E poi?
Appunto.. 805 é 5 punti più potente di 800
:D
Si ma riesci a procurartela in negozio?
Perché ci sarebbe anche la versione di s3 con 2gb di ram e exynos.. eppure nessuno ce l'ha
Android ha sempre lagga e ha sempre laggato!
Mmmmm
Si ma lagga comunque
Secondo me invece la ottimizzazione è necessaria, sopratutto quelle delle app; non è possibile che il nexus 5 non possa renderizzare fluidamente i pdf con adobe reader, la potenza di sicuro non manca. Comunque in parte il tuo discorso è vero, su nexus 5 lag su chrome non li vedo per esempio.
tutti i blog e le roadmap uscite da 1/2 anni a questa parte :D
Credo che ci sia anche una versione di s4 con s800
Lo so lo so, la mia era solo una battuta, comunque concordo con te ;)
Oddio.. Anche quello è vero! Forse ancora più che il 4k! Col G2, mod camera, filmato a 1080P@60FPS da 1:32 minuti.. Circa 340 MB....
Si per questo la vedo dura per il 1080 a 120fps, difficilmente gli oem mettono tanta memoria all'interno del dispositivo
Se non hai lo slot no! =) La memoria on-board è nettamente più veloce!
gli i7 sono in po esagerati attualmente xD e cmq abbiamo gli snapdragon 800 di cui non sfruttiamo neanche la meta del potenziale
Samsung è partito ufficialmente, cosi come intel e mediatek.....
a febbraio marzo saranno gia disponibili i processori e device...... (news presenti anche in questo blog)
forse stavolta qualcomm non ha retto il confronto.....
Fonte?
non è a 64bit..
arriveranno tutti a febbraio con le presentazioni e marzo/aprile/maggio con la commercializzazione
Lucaaa, tu mi insegni che con la parallelizzazione si riescono a migliorare di molto le prestazioni senza bisogno di aumentare il clock e il voltage del core, in questo caso il miglioramento dato dal krait 420 (suppongo faccia piu o meno 3,8 istruzioni per ciclo di clock) dovrebbe percorrere quella strada, per cui non vedo il bisogno di aumentare ancora la frequenza di clock....
da nessuna parte si parla del fatto che il nuovo chip (sembra) non sfrutti istruzioni a 64 bit...
in un era in cui tutti i principali produttori di smartphone stanno orientandosi verso questa "nuova" tecnlogia, restare col "vecchio" set di istruzioni 32 bit significa restare indietro.......
Semplicemente perchè mi sembra un S800 iperpompato e perchè non si parla di consumi, tutto qua. E' semplicemente una impressione dovuta a quanto c'è scritto nell'articolo, nulla di tecnico o di verità assoluta.
Per il resto non capisco cosa c'entri iphone, sempre polemiche...perchè ad ogni notizia si finisce sempre col parlare di Android, laggandroid, ios, lagga ios, samsung laggosi, iphone più o meno laggosi ecc???
Fatemi leggere l'articolo e i commenti costruttivi in santa pace senza cadere nellle solite diatribe...a me non interessano e non tifo per nessuno, per fortuna.
Narnia 4
Beh anche ios7 lagga... è bastato un pò di multitasking epr laggare...
Cavolo con questa risposta educata è meglio il mio cervello laggoso o il tuo
c'e' ancora tempo, comunque non dimenticare che l'immagine e' molto piu' importante della sostanza in questo mercato.
non è vero consumerà lo stesso
e poi voi dimostrate di non capirne nulla di video editing
il 4k non è fatto per essere solamente visto ma per essere visto su tv 4k,per estrarre un fotogramma dal video
anzichè come dice l'utente sotto video 4k a 45 fps conviene fare video 4k con un bitrate più elevato
i video in 4k con un bitrate 46000 kb non catturano veramente 8,8 mpx ma appena 5 mpx e poi gli artefatti di compressione non rendono il video 4k utilizzabile per editing o per estrarre un fotogramma dal video.
ovviamente è un telefono, non ti puoi aspettare altissime prestazioni però anzichè il 4k a 45 fps meglio un 4k a 24 fps ma con un bitrate maggiore
ma stai zitto..android ha sempre lagga e ha sempre laggato!
su che base dici ciò? sul fatto che arriva a 2.5ghz?
lo sai che esiste il DVFS?
lo sai che esistono i governor cpu?
lo sai che la potenza massima dev'essere disponibile per un breve momento?
lo sai che non è un iphone? :-P
note4
Presto vedremo Intel core i-7 su smartphone :)
gnurante, studia come funziona il kernel linux e poi capirai
in più, studia come funziona android
studia come funziona ios
e come funziona windows phone
lagga? perchè ios non lagga? prova ad aprire l'app musica e fa un bello scroll nella lista con i tag degli mp3, vedrai che caduta di framerate
p.s. la cosa vale se hai più di 3 mp3 in tutto il cellulare...
il tuo cervello ha i lag
si ma per s5 dovranno inventarsi qualcosa di nuovo, potrebbero proporre l's800, visto che s4 ha s600..
n3 ha s800, mica possono riproporre un s800 per n4, e sopratutto, secondo me n4 non avrà exy 64bit, a malapena riescono a rilasciare hmp per il mio exy 5420 su n3, figurarsi..
Anche all'inizio dell'anno si pensava che S600 fosse per smartphone e S800 per SmartTV/tablet...
Peccato che 3 GB di RAM li succhi come niente per poi laggare
La serie s lagga qualche volta ma ti assicuro che la serie note neanche in multi Windows
le caratteristiche sembrerebbero indicare piu' qualcosa tipo stb o sistemi specifici, gpu ultrapotenziata sul fronte video ma cpu di basso livello.
conta che per 1080 a 60fps serve una sd classe 10...
be, non esageriamo, intel le cpu le progetta..qualcomm customizza le achitetture progettate da arm..un po' come fa apple.