wszystko fajnie ale za bardzo nie ma co porównywać. Quallcom zrobił test używający ich SoC tylko jak to porównać jeśli chodzi o moc CPU do np C2D Q6600? ano się nie da...
Forum > Mobilne > wydajność urządzeń mobilnych wobec PC....
Wysłane 2012-09-12 12:26
Wysłane 2012-09-12 13:32 , Edytowane 2012-09-12 13:43
@pi_nio
Ale ARM to nie są układy specjalizowane. To są pełnoprawne procesory.
O układach specjalizowanych można mówić w telefonach pokroju 3310
@xxx7x
Chodzi o to, że CPU ma 4/6 wysokowydajnych rdzeni.
Natomiast GPU posiada tysiące nisko wydajnych rdzeni.
W przypadku dekodowania wideo, czym więcej rdzeni, tym lepiej.
Tak w skrócie.
Wysłane 2012-09-12 13:53
Zobaczcie tutaj:
[LINK]
"ARM hasn't published DMIPS/MHz numbers for the Cortex A15, although rumors place its performance around 3.5 DMIPS/MHz" vzyli dla 1500MHz mamy 5250 DMIPS/s
oraz tutaj:
[LINK]
ARM v7-A9 1500 MHz = 1650 DMIPS/s
Phenom II 1 CP = 9462 DMIPS/s
Należałoby przemnożyć obydwa wyniki przez 4 dla 4 rdzeni, ale proporcji to nie zmieni.
"NOTE: ARM's own results are much faster than these
- different compiler and optimisation?"
Ma takie porównanie jakiś sens? :)
Wzrost wydajności z 1650 dla A9 do 5250 dla A15 wydaje się podejrzany, ale i tak Phenom II będzie 2x wydajniejszy, choć wyliczając perf/wat wynik będzie miażdżący. x86 jest po prostu żałosne.
Wysłane 2012-09-12 14:14
@Gakudini
Ja jeszcze tyko dodam, że Snapdragon jest hybrydą między A9, a A15.
Nowy, zapowiedziany Exynos dwurdzeniowy będzie A15.
PS Kiedyś wielki szał, a dzisiaj netbooki odchodzą już w niepamięć.
Już nawet Asus, czyli czołowy producent kończy produkcję.
Tablety górą, a kto potrzebuje klasycznego rozwiązania będzie mieć tablety z dołączaną klawiaturą i z i5 (z deskopowym win8)
Wysłane 2012-09-12 14:22
@Gakudini
dzięki za linka, własnie miałem tego szukać. Przyjmując te proporcje nowe mobilne CPU bardzo zbliżają się już wydajnością do naszych CPU sprzed ok. 2-3 lat, natomiast w wydajności watt/performance dosłownie biją je na głowę
Wysłane 2012-09-12 14:27
@Netman
Wiem, moj cpu ma 4 rdzenie, a gpu 12 blokow i w przypadku gpu mamy jeszcze mniejsze uklady czesciej zdublowane/powielone(jesli nazewnictwa nie pomylilem). Te przez Ciebie wspomniane "tysiace nisko wydajnych rdzeni"
No ale chodzi o to samo :) mi. Tylko pominalem ten aspekt arch. i podelem dane cpu i gpu.
Mozna sobie sprawdzic programem GPU Caps Viewer jak sobie radzi cpu a jak gpu, w tych samych "syntetycznych obliczeniach".
Wysłane 2012-09-12 14:46
@straszny
Z drugiej strony ciężko porównywać do x86, gdzie procki posiadają multum rozszerzeń, głównie do operacji wektorowych.
Wysłane 2012-09-12 20:35
@straszny
proporcje nowe mobilne CPU bardzo zbliżają się już wydajnością do naszych CPU sprzed ok. 2-3 lat
ja pitole ale żal...
ty tak serio?
Wysłane 2012-09-13 09:15 , Edytowane 2012-09-13 11:19
@XoR
serio.
całkiem serio.
przeczytałeś wyżej liczby w czystej mocy CPU w MIPSach ?
A Żal to Ci może być osób, które nie widzą że się świat zmienia. Poniżej masz proste zestawienie z wydajnością CPU.
Twój i3-540 jeszcze będzie trochę wydajniejszy od S4 Pro Kraita, ale już nie tak dużo, jego następca pobije te x86 procesory wyraźnie
@Netman
tyle że ja nie napisałem o premierach topowych CPU sprzed 3 lat tylko przeciętnych procesorach używanych przez userów desktopów 2-3 lata temu. Wiesz jak mały procent desktop-PC ma topowe CPU? To są pojedyńcze procenty. Dlatego gry są ciągle pisane pod X2 i C2D. Bo teraz więcej gier instaluje się na laptopach a desktop PC cą coraz rzadziej modernizowane.
Cały czas pisze o normalnym sprzęcie w masowym używaniu. Tablety są sprzętem masowym, nie wyjątkowymi wyśrubowanymi enthusiast pc-workstation.
tak na szybko orientacyjnie:
ramy wydajności PC: Intel Atom robi 500-1500 MIPS, najlepsze modele Pentium 4D (2 cores) miał ok 2000 MIPS, jeden z najszybszych z Phenków II AMD X4 965 (4 cores) robi 13 000 MIPS, obecny Intel i7 3770 (4 cores) robi 22300 MIPS.
Intel I5 650 robi:
1 rdzeń: 3000 MIPS
2 rdzenie: 6000 MIPS
4 rdzenie: 9000 MIPS
obecny król mobilnego rynku Cortex A9 robi 1500 do 2000 MIPS (2 cores, 2-4 threads)
S4 Pro ma robić 5000 MIPS
(tutaj projektując przyszłość, postęp na rynku mobilnym przez ostatnie lata był ok 2.5 krotny co ok 1.5 roku, co dałoby S5 o wydajności 12500 MIPS, ale to już gdybanie)
To wszystko przy nieproporcjonalnie mniejszej od procesorów x86 emisji ciepła i równie dramatycznie mniejszym poborze mocy.
Wysłane 2012-09-13 12:50 , Edytowane 2012-09-13 12:59
@straszny
obecnie szykuje się mała rewolucja na rynku mobilnym bo na szeroką skalę będzie zaimplementowany Out Of Order z prawdziwego zdarzenia. Dodając do tego dużą ilość rdzeni jak na mały zegar i małe ogólne skomplikowanie układów ogólna moc obliczeniowa jest bardzo dobra, szczególnie porónując do typowego uzywanego dzisiaj w większości domów laptopa (bo większość domów używa laptopa a nie stacjonarki, co jest myślę dość oczywiste)
ALE co my tu porównujemy właściwie i ważniejsze PO CO?
mam wrażenie że starasz się przedstawić całą sytuację w takich barwach: "świat PC umrze a za 10 lat będą wszyscy używać pitu pitu tabletów a stacjonarki się nie kupi" co jest bzdurą bo za 10 i za 20 lat ten rynek dalej będzie i zawsze te kilka lat do przodu z wydajnością bo zapotrzebowanie na moc będzie zawsze i zawsze więcej mocy będzie z wielkiego układu chłodzonego ogromnym radiatorem z wentylatorem niż pasywny układzik. Poprostu za jakiś czas może się okazać że trzeba trochę więcej dopłacić do stacjonarki. Już teraz za porządny procesor trzeba dać 1000zł a cały np. Galaxy S3 masz za ok 2000zł a to już imho "future is here" Intelowi się więc zawsze opłacało zrobić układ za cenę połowy topowego telefonu. Tak samo klepanie płyt głównych to nie jest duży koszt a zarobek na tym jest, może mniejszy niż ma Apple z ifona ale wystarczający aby znalazła się nie jedna a tuzin firm chcacych się w to bawić
Więc nie strasz wizją świata bez stacjonarek bo jest ona niepoważna
postęp mobilnych urządzeń zaliczy porządny skok bo wchodzi Out Of Order i to jest ostatnia taka technologia dzięki której można łatwo i szybko zwiększyć moc CPU niewielkim nakładem tranzystorów. Poza tym jest już tylko piłowanie takie jak robi obecnie Intel czyli rzucanie milionów tranzystorów dla minimalnie większego IPC. Po Cortex-A15 następne skoki wydajności nie będą takie imponujące, szczególnie że dochodzimy do granicy krzemu jeśli nie zauważyłeś a sam A15 jest dość duży i średnio się go w obecnym procesie technologicznym da upchać do np. telefonu. W testach ogólnych 2 rdzeniowy A15 nie będzie dużo lepszy od 4 rdzeniowego A9 a mimo to w odczuciach z użytkowania różnica będzie gigantyczna I tu też jest pies pogrzebany: najwazniejsze jest IPC ! Sensu nie ma i nie miało pchanie 4 rdzeni do mobilnych urządzeń. Szybkie 2 rdzenie wystarczą na kilka lat stąd czekam na telefony z dwurdzeniówkami A15 a z jakichś tegr 3 to mam nawyżej zlewkę
X86 nie jest problemem i nigdy nie było. To taka bajka wymyślona w latach 90 aby RISCe się lepiej sprzedawały. Nikt się jednak nie nabrał na to oprócz zwykłych ludzi którzy mają jakieś irracjonalne żale do X86 (może nawet przez Amigę
). Teraz jest kontratak tych bzdur bo Intel przespał i nie zrobił na czas SoC'a i dalej śpi bo robi to od dupy strony (cały Atom to jedno wielkie badziewie, powinni odrazu robić ukłąd Out Of Order i SoC a nie używać mostka bazowanego i945 zużywającego więcej mocy od procesora
). Technicznie jednak ARM nie daje prawie żadnej przewagi nad X86. Jeśli już to przy 32bit jakieś 10-20% wydajności na wat, nie więcej. Tak duża różnica pomiędzy i7 a Cortex-A15 wydajność/wat wynika tylko i wyłącznie z zupełnie innych celów designu... X86_64 poprawia słaby IPC przez dorzucenie brakujących rejestrów i wszystko się zaciera
Twój i3-540 jeszcze będzie trochę wydajniejszy od S4 Pro Kraita, ale już nie tak dużo, jego następca pobije te x86 procesory wyraźnie
buahahaha
nie wiem skąd te szacunki w ogóle bierzesz ale radze się ogarnąć
2.5GHz Cortex A15 ma na 4 rdzeniach w sumie ok 35000 MIPS 3.5 MIPS/MHz/rdzeń
Core 2 Quad QX6700 2.66GHz ma prawie 50000 MIPS, 4.6 MIPS/MHz/rdzeń
powiedzmy że szacunki dla C2Q są przesadzone, jednak imho dalej Q6600 będzie szybszy od A15 najszybszego cudu techniki który jeszcze nie wyszedł....
teraz quadów A15 z 2.5 zegarem i tak nie zobaczysz nigdzie indziej niż jakiś większy laptop armowy albo set top box. Mobile to dwa rdzenie i zegar ~1.5GHz i tak pewnie będzie jeszcze cały następny rok
Z czego więc się tak jarasz? Że osiągnięto niższą wydajność niż proc z 2007 roku? Mini-ITX z Ivy Bridge masz dzisiaj już dostępne i zjada to Q6600 a tym bardziej A15. Mogę tylko jeszcze dodać że moje i3 wciąga nosem Q6600 w każdym jednym zastosowaniu w tym rednering używający 4 wątków. Skąd te "trochę" w twoich szacunkach nie mam pojęcia. Następna jak będzie miał wydajność większą przez większą ilość rdzeni też nie sprawi że będzie szybszy niż mój już 2.5 letni tani i3...
Z czym więc do ludzi? Twój i7 to już całkiem masakruje te mobilne pitu-pitu popierdułki. Zrób jakiś SunSpider na pececie i na tegrze. Różnica 10 krotna. I gdzie ta mega wydajność tegry?
5-6 lat w plecy jest wydajność mobilna wg. optymalnych szacunków. Oczywiście te nowe cuda pobiją laptopy z Core 2 Duo bo laptopy mają zawsze dużo gorsze procesory więc faktycznie moze dla większości ludzi ta wydajność będzie w plecy bardziej 3 niż 6 lat i gitara. Jednak jeśli wrzucić taki procek ARMowy do tego samego laptopa to tak czy siak szału by nie było. Laptop to większość ekran, dysk itp więc pochodziłby na baterii ze dwie godziny dłużej i dalej by było jedno i to samo. Do nowych lapów z Ivy Bridge ma się to w ogóle nijak...
Dajesz się omamić marketingowi ARMowemu i tyle. Jakby Qualcomm napisał że nowy ich procek ma "blast processing" to byś też się jarał? czekaj, wróc, ten temat o tym jest przecież...
Wysłane 2012-09-13 13:13 , Edytowane 2012-09-13 13:26
@XoR
Więc nie strasz wizją świata bez stacjonarek bo jest ona niepoważna
to nie wizja, to najprawdopodobniejsza wersja najbliższej przyszłości. Światowi desktopów zostało parę lat. Potem to tylko wyspecjalizowane stacje robocze do grafiki 2D/3D i podobnych zastosowań.
Reszte rzeczy, niestety stary - dla mnie to nie ogarniasz zmian, Xor. No przykre takie czytanie buhaha, bo tylko tyle Ci zostaje jako podsumowania. Za 10 lat będziesz mógł mnie zacytować, tyle że nikt już tutaj na forum nie będzie miał niemobilnego desktopa (poza może 2-3 grafikami). No i oczywiście pewnie poza Tobą, bo jak pamiętam do tej pory używasz monitora CRT.
Wysłane 2012-09-13 13:14 , Edytowane 2012-09-13 13:19
@straszny "Zobaczysz że za 10 lat desktop PC będziesz oglądał tylko jako wspomnienie. Nie to że będzie do gier czy czegoś konkretnego, po prostu ich już nie będzie z kompletnego braku zainteresowania stacjonarnym nieruchawym sprzętem, ich czas własnie teraz przemija nieodwołalnie."
...tak się mówi od 10 lat.
Przedwczoraj byłem na konferencji HP, gdzie z ich danych sprzedaży wynikło, że od paru lat wcale rynek stacjonarnych komputerów nie kurczy się wyraźnie - są raczej duże roszady pomiędzy notebookami/ultrabookami/tabletami. Komputer stacjonarny ma pewne zalety, na których szczególnie zależy dużym klientom i z nich nie zrezygnują - koszty zakupu i eksploatacji sprzętu (przede wszystkim), możliwości ich rozbudowy, utrudnienie kradzieży czy właśnie wydajność.
Jeśli firma zatrudnia grafika, który kosztuje ją 10 tys miesięcznie, zapewnia mu oprogramowanie za 40 tys. zł rocznie, to chce zapewnić mu takie warunki pracy, żeby w tym czasie zdążył jak najwięcej zrobić - komputer musi być najwydajniejszy (każde 5% wydajności się liczy), cichy jak myszka i możliwy do naprawienia w ciągu najwyżej kilku godzin, a jak pojawi się na rynku 20% wydajniejszy procesor, który do niego pasuje, to następnego dnia go kupuje i podmienia, bo każdy dzień wolniejszej pracy kosztuje i to znacznie więcej, niż zużywany przez tą maszynę prąd.
Edit: Co więcej, z danych sprzedaży HP wynika, że sprzedaż desktopów maleje (bardzo powoli), ale bardzo rośnie sprzedaż innych rozwiązań stacjonarnych - Terminale - które to też właściwie są Desktopami.
Wysłane 2012-09-13 13:15 , Edytowane 2012-09-13 13:32
@Maveriq
pewnie że tak, dlatego piszę wyżej
"...Potem to tylko wyspecjalizowane stacje robocze do grafiki 2D/3D i podobnych zastosowań...."
a propo wymian CPU itd - pokaż mi taką firmę - znam, i to osobiście, największe domy medialne w kraju, znam wielkie firmy od grafiki 3D . Wcale nikt tam nie lata po każdy nowy CPU. Chłopaki od 3D dawno zlecają na wynajmowane wirtualnie render-farmy prace, Ci od grafiki 2D pracują na 2-3-4 letnich komputerach, większość już na dużych laptopach + zewnętrzny monitor. W wielkich studiach tempo zmian dyktuje spłata leasingu a nie premiera nowego CPU, a ta następuje najczęściej co 5 lat.
To są popularne przesądy ludzi, którzy po prostu przyzwyczaili się do obecnego stanu rzeczy i nie do końca chcą widzieć jak to się będzie zmieniać. Ostatnio byłem w centrali Xerox-Polska, piętro analityków... rozglądam się i eeee wtf? ze 30 laptopów spiętych do monitorów i drukarek i ani jednego desktopa.
Wysłane 2012-09-13 13:23 , Edytowane 2012-09-13 13:35
A telewizja - na przykładzie grafików przygotowujących na gorąco plansze wyświetlanie na ekranie telewizora.
Mówisz, ze tylko wyspecjalizowane maszyny... wcale nie.
1 - przykład terminali
2 - zwykły domowy użytkownik, taki jak ja - komputer stacjonarny działa szybciej od urządzenia mobilnego za tą samą kasę, ma własny duży ekran, zapewnia dużo zdrowszą dla kręgosłupa/nadgarstków/wzroku pozycję pracy i w przeciwieństwie do laptopów działa pod obciążeniem niemal bezgłośnie.
Edit: Miewałem laptopy, bawiłem się/bawię tabletami... nie widzę dla nich zastosowania. W domu korzystam w najwygodniejszy możliwy sposób z komputera stacjonarnego, a w terenie do wszystkiego wystarczy przeciętny smartfon... to jest najlepsze połączenie.
Edit2: Upadek PCtów zwiastują sami producenci sprzętu, ale nie dlatego, że tak będzie (bo nie będzie), a dlatego, że tego chcą - chcą doić od nas coraz więcej kasy, stąd wszystko małe i zintegrowane, żeby nie dawało się tego naprawić, żeby nie dawało się tego rozbudować względem zwiększenia wydajności/możliwości po jakimś czasie, żebyśmy nosili to przy sobie w łapie i upuszczali w pociągu na podłogę w celu pozbycia się nowiuśkiego hipernowoczesnego ekranu scalonego z szybką. To im się po prostu opłaca.
Wysłane 2012-09-13 13:39 , Edytowane 2012-09-13 13:39
@straszny Wszystko co piszesz to prawda, firmy graficzne pewnie powoli przesiądą się na zestaw NB+monitor, ale przecież sztukowo najwięcej PC jest gdzieś indziej. Uczelnie czy urzędy to zdecydowanie większy odbiorca urządzeń PC niż firmy, o których piszesz. Wystarczy chwilę się zastanowić dlaczego nie przesiądą się one na NB i już jest jasne, że rynek PC tak po prostu nie umrze.
Owszem możemy PC, który służy do grania nazwać terminalem do gier, PC który służy księgowej nazwijmy terminalem biurowym... wtedy tak, rynek PC zniknie zastąpiony przez terminale. PC zniknie z rynku dopiero jak nie będzie na niego popytu, narazie powoli maleje, ale to tylko z jednej przyczyny popsuty PC o wiele rzadziej wymaga wymiany na nowy niż popsuty NB i dlatego tych drugich sprzedaje/kupuje się więcej.
Wysłane 2012-09-13 13:41 , Edytowane 2012-09-13 13:44
@Maveriq
Chyba nie śledziłeś wcześniejszej dyskusji i nie rozumiesz do końca o co dla Strasznego chodzi.
Masz smartphona. W domu podłączasz go do stacji dokującej z monitorem, klawą, myszką, itd. i masz już 'PC'
Chcesz wygodnej mobilności, to do tego masz doka w formie latopa.
Chcesz jeszcze większej mobilności, to dok w formie tabletu.
A największa mobilność to sam telefon.
Wysłane 2012-09-13 13:44
@-ADSO- Dokładnie - koszty eksploatacji - PC łatwiej/taniej naprawić, łatwiej zabezpieczyć się przed utratą danych.
Taki np. Tablet w urzędzie nie ma miejsca, bo nie ma gwarancji - wewnątrz znajduje się nośnik pamięci, którego nie można wymontować przed wysłaniem sprzętu do naprawy, a żadnego nośnika nie wolno dać osobie, która nie jest upoważnionym pracownikiem.
Wysłane 2012-09-13 13:47 , Edytowane 2012-09-13 13:50
@Maveriq
ależ dlatego producenci tabletów i smartfonów teraz tak ostro inwestują w zabezpieczanie przed utratą danych. W tej chwili są one lepsze z miesiąca na miesiąc.
Co do reszty to nie prawda - popatrz na polski Sejm, jakiego sprzętu IT uzywają polscy posłowie? iPadów Apple. Czyli jednak można używać w urzędach, nawet takie kalekie sprzęty jak iPad.
Ta wizja o której pisze Netman to jest to do czego sam jestem przekonany. Smartfon stanie się przez 10 lat centrum całej rozrywki i całego IT.
Wysłane 2012-09-13 13:53
@Netman
"Masz smartphona. W domu podłączasz go do stacji dokującej z monitorem, klawą, myszką i całą resztą."
No fajnie... ale działa wolniej od stacjonarki, a poza tym i tak nie wynoszę go z domu, bo boję się, że ktoś mi go ukradnie albo potrąci mnie samochód i stracę ważne dla mnie e-maile i zdjęcie mojego dziecka zrobione w 10tym tygodniu ciąży.
Laptop taki ni w du** ni w oko... przenośna stacjonarka - za duża do noszenia wszędzie ze sobą, za wolna do tego, żeby opłacało się tym zastąpić PCta.
Tablet ma te same możliwości, co mniejszy smartfon, a oba zbyt wolne do tego, żeby pograć w fajne najnowsze tytuły gier, za mało ma pamięci, żeby trzymać na nim mała wideotekę itd... nadaje się do przeglądania internetu i oglądania wiadomości oraz komunikacji... i taka jest jego rola.
Uważam, że prędzej z rynku znikną właśnie tablety (kwestia tych 10 lat), niż komputery stacjonarne.
Kto jest online: 0 użytkowników, 180 gości