No CPU w PC to kiszka. Ale to kwestia kasy na R&D. Tam gdzie się jeszcze chce - GPU. Ostatnio mieliśmy wzrost 40-70% w zależności od rozdzielczości (porównując Geforce 1080 do 980 - pomijam 980Ti, tak jak pominąłem A9X, inna liga).
Forum > Mobilne > Zapowiadane nowe topowe telefony i tablety.... na co czekamy? vol 2
Wysłane 2016-09-06 01:15
@straszny
no dobra - ale no serio - mówimy już o wydajności rdzenia naprawdę takiej jak mają niemobilne, prawdziwe procesory
Nie rozumiem - procesory mobilne nie są prawdziwe czy nie są mobilne? Otóż procesory mobilne, choćby Intela, są mobilne...
Wysłane 2016-09-06 07:39
@djluke wiesz że Paweł wiedzę ma ogromną, ale faktycznie czasem jak coś powie, to się człowiekowi wydaje jakby to była jeszcze era procesorów jednordzeniowych, nawet bez HT, o mobilnych nie mówiąc.
PS Mogę to udowodnić.
Wysłane 2016-09-06 08:28
Wynik Single Core w Apple rzeczywiście świetny, tylko że jest to cecha poboczna bo liczy się ogólna wydajność procesora jako całości. A dokładniej sprawę opisując - liczy się wydajność procesora w warunkach i przy zadaniach z jakimi ma pracować. Czy to coś zmieni? Tak, Apple w dalszym ciągu będzie dysponować rewelacyjnym procesorem, ale nagle okaże się, że konkurencja nie jest wcale taka zła.
Nie umniejszam absolutnie A10 niczego, ale porównywanie go do procesorów x86, nawet tych ultramobilnych nie ma sensu. Dopóki nie będzie możliwości przetestowania i porównania na dokładnie takich samych platformach/warunkach (jedyne różnice to procesory) takie zestawienia będą tylko prowokacją do niepotrzebnych spięć.
Osobiście czekam z niecierpliwością aż Apple w końcu zdecyduje się przygotować coś z serii MBA ze swoim procesorem. Póki co Intel w postaci przeróżnych wariacji nad i5 i chyba nawet Core M wystarcza, więc chyba z tymi Intelami nie jest aż tak źle
Wysłane 2016-09-06 08:45 , Edytowane 2016-09-06 08:45
@djluke/kotin
boże drogi co za czepianie się słówek... wiecie co mi w tym momencie przypomnieliście.... ?
Wysłane 2016-09-06 08:58 , Edytowane 2016-09-06 09:03
@ -ADSO-
Android bardzo dobrze wykorzystuje 4 i 4+4 rdzeniowe procesory.
Wystarczy zainstalować nakładkę pokazującą obciążenie rdzeni, np. PerfMon i zobaczyć jak to wygląda w czasie rzeczywistym. Nawet w najprostszych czynnościach (np. przeglądanie stron, uruchomianie aplikacji, itp.) wszystkie rdzenie są obciążane równomiernie. Więcej rdzeni, to mniejsze zapotrzebowanie energetyczne. Obciążone 2 rdzenie po 1GHz (gdzie maksymalnie mają 2Ghz) pobiorą mniej energii niż jeden 2GHz.
Wysłane 2016-09-06 09:04 , Edytowane 2016-09-06 09:05
@Netman
ale po pierwsze sam Android nie potrzebuje takie mocy, to tylko OS.... po drugie w Mediateku prawie zawsze rdzenie nie działają razem, działają albo-albo.
Zresztą, generalnie nie ma o co kruszyć kopii. W najblizszych latach świat PC i mobilków będzie się stopniowo stapiał to i tak zobaczymy coraz więcej zbliżonych zastosowań.
Wysłane 2016-09-06 09:10 , Edytowane 2016-09-06 09:13
@straszny ojej pewnie że się czepiamy słówek, ale z czegoś to wynika. Dokładnie z Twojej postawy:
- lubisz Apple
- nie lubisz Mediateka
Generalnie masz rację, ale żeby ją podkreślić, idziesz w zaparte w niepotrzebne fałszowanie rzeczywistości:
Wynik jednego rdzenia w jakimś benchmarku jest dla Ciebie bogiem elektroniki, a multicore niczym.
To jakaś paranoja, a przynajmniej sztuczność, bo jednordzeniowe procesory nie istnieją.
Nie musisz tak przeginać, żeby pokazać że Qualcom robi lepsze procesory od Mediatek, a Intel od AMD.
Właśnie Ty powinieneś być bardziej na luzie, obiektywny - a potrafisz. O!
PS Czy na dole rysunku to nie Hitler? Nie ma z Tobą rozmowy.
Wysłane 2016-09-06 09:42 , Edytowane 2016-09-06 09:45
Przyglądałem się tabeli Luxxxa i jedna rzecz mnie jeszcze tknęła. Wzrosty w Single Core owszem są imponujące, ale jak się one mają do taktowania zegara?
A8 - iP 6/6plus - 1,4GHz
A9 - iP SE - 1,8GHz
a10 - iP 7 - 2,4GHz (tutaj gdybam, bo póki co czekamy na premierę)
Wtedy wychodzi na to, że między A9 a A10 jest zysk Single Core 40% ale przy wzroście taktowania o ponad 30%. Nie wiem jak to interpretować, niech każdy zrobi to sam dla siebie. Dla mnie albo Apple poczyniło stosunkowo niewielkie usprawnienia w architekturze, albo test Single Core nie jest w stanie przełożyć ich an wynik. Trzecia możliwość jest taka, że test można sobie włożyć między Władcę Pierścieni a scenariusz Smoleńska a wydajność procesora oceniać powinno się tylko w normalnej pracy.
Edit: Oczywiście nie zmienia to faktu, że procesory Apple to ścisły TOP, odnosiłem się tylko do poprawy ich wyników w Single Core...
Wysłane 2016-09-06 10:01 , Edytowane 2016-09-06 10:02
@-ADSO-
z przecieków wiadomo że nowy A10 ma być mniejszy i dużo bardziej energooszczędny niż A9, więc róznica taktowania to taki bufor jaki pewnie zrobił im się przez to że konstrukcja wydziela dużo mniej ciepła i łatwiej je odprowadzić
Wysłane 2016-09-06 11:49
@ -ADSO-
Dla mnie albo Apple poczyniło stosunkowo niewielkie usprawnienia w architekturze,
Doszedłem do tego samego wniosku. Ale skoro architektura była jauż wystarczająco wydajna a zmniejszenie procesu litograficznego pozwoliło na podniesienie taktować to wzrost wydajności i tak zstał osiągnięty. I w sumie mniejsza o to jak ważne że będzie szybciej. I to zauważalnie szybciej.
Pytanie bardziej przez ile jeszcze generacji będziemy obserwować tak obfite skoki wydajnośći (40%) a kiedy zacznie się to co mamy teraz w PC czyli drobne skoczki po 10%.
Wysłane 2016-09-06 11:56
Proponuję zakłady o datę wprowadzenia chłodzenia wodnego.
Pierwszy kandydat już był, Snapdragon 810, ale ponieważ mieli przewagę wydajności, to skończyło się na obniżeniu taktowania.
Wysłane 2016-09-06 12:07 , Edytowane 2016-09-06 12:08
@kotin
przecież to już było.... Sony Xperia Z2 ma układ chłodzenia cieczą.... http://komorkomania.pl/1173,xperia-z2-jest-nie-tylko-wodoodporna-ale-i..., podobny układ chłodzenia cieczą ma Lumia 950 XL.
Wysłane 2016-09-06 12:35 , Edytowane 2016-09-06 12:40
@straszny nie chodzi mi o heat pipe, a o prawdziwe chłodzenie wodne. To w sumie taki żart miał być. Oparty o zbliżającą się barierę cieplną (prawda) i istotę dziś używanego chłodzenia wodnego, nie do pogodzenia z mobilnością (groteska).
Taki tam naukowy przepis na dobry dowcip...
PS Mało udany?
Wysłane 2016-09-06 14:12 , Edytowane 2016-09-06 14:15
@kotin
tak średnio jeśli mam być szczery, ale doceniam intencje ;)
bez dowciapów ... "to se ne vrati", chłodzenia wodne, duże pudełka z komputerami.... ostatnie lata tego widzimy. Owszem możliwe ze jakoś bedą podkręcane wyniki przez mechaniczne sposoby, ale szał lat 90tych i 2000-2010 na modowanie, chłodzenie itd już będzie chyba na zawsze zanikał... miniaturyzacja, mobilność, wszechobecność (internet rzeczy).
Wysłane 2016-09-06 14:36
@ kotin
Bo widzisz zle kombinujesz. Tu nie chodzi o to jak chłodzić tylko ja to ciepło przesyłać dalej. Zamiast w elektrociepłowni spalać tony węgla takie ciepełko teleportować do miejskiej sieci ciepłowniczej i przesyłać do mieszkań
Wysłane 2016-09-06 15:31 , Edytowane 2016-09-06 15:34
@beton No bo to jednak miał być żart. Nie no tak na prawdę, to nic nie stoi na przeszkodzie, żeby tak jak mamy już "plecki" telefonu ochronne, z baterią, z aparatem, ozdobne... zrobić takie plecki z radiatorem na przykład.
Poza tym myślę że odwróci się trend jaki jest dotychczas z mocnymi smartfonami, a słabszymi tabletami.
tablet lepiej da się schłodzić, jest po prostu więcej miejsca i tam wylądują bardziej wysilone wersje procesorów.
Poza tym moc ARM nie musi zaraz dramatycznie rosnąć. Jeszcze trochę i wystarczy na początek do:
- Tak jak smartfon może być niedługo odpowiednikiem domowego peceta, tak tablet (zachowując proporcje), by był odpowiednikiem stacji roboczej. Obydwa te urządzenia mogły by przecież być nie tylko mobilne, ale po powrocie do domu mogły by pracować w domowej sieci, wyświetlać na ekranie telewizora, itd...
Nie muszą do tego być mobilne procesory aż takiej mocy jak 12 rdzeniowe topowe Intele x86. Kiedyś procesory były za słabe do montażu DVD (!), więc Matrox i Pinnacle zrobiły karty wideo ze sprzętowym kodekiem mpeg2, jako uzupełnienie peceta, tak teraz można by już było zrobić mobilną stację wideo, z kartą wideo ze sprzętowymi kodekami H264 i Hevc.
Kwestia tylko żeby nie tylko zabawkowe wersje profesjonalnego softu napisać na ARM.
(Posłużyłem się przykładem zastosowania który trochę znam, ale w innych dziedzinach pewnie też się by dało).
Wysłane 2016-09-06 15:42 , Edytowane 2016-09-06 15:44
@kotin
przy tym jakie transfery między urządzeniami zaoferuje internet rzeczy i sieć 5G... to wszystko przestanie mieć znaczenie, 5G ma być 30 razy szybsza niż LTE i ma wyprzeć WiFI/Bluetooth itd.... rok temu Intel zrobił o tym fajny show, zrecenzowany przez spidersweb http://www.spidersweb.pl/2015/08/w-5g-internet-bedzie-jak-powietrze.ht...
..oczywiście nie stanie się to za rok czy dwa, tylko za 10-12 lat. Ale generalnie w całkiem w bliskiej przyszłości.
Wysłane 2016-09-06 17:16
@straszny
oczywiście nie stanie się to za rok czy dwa, tylko za 10-12 lat
Właśnie wyżej zastanawiam się jak trochę "sposobem", ARM może zastąpić x86 już teraz.
To znaczy w rok, dwa, trzy... Mocą jeszcze nie dorównuje, ale moc da się wspomóc kartą grafiki, kartami dedykowanymi, tylko softu jeszcze nie ma.
Kto jest online: 0 użytkowników, 236 gości