Forum > Mobilne > ARM vs Intel - porównanie CPU?

Strona 4 z 7 <<<1234567>>>
skocz

straszny

Wysłane 2015-09-28 09:03 , Edytowane 2015-09-28 09:27

@djluke
ale ARM ma ogromny potencjał, który pokazuje ten artykuł Panzera... w notebookach, albo już w hybrydach/dużych tabletach nie będzie musiał dbać tak rygorystycznie o energię jak to jest w smartfonach czy małych tabletach. A juz w desktopach... jaki tam jest potencjał na OC takiej architektury!

Jeśli ARM użyjemy do desktopa to może to być 8 czy 16 prawdziwych dużych rdzeni bez żadnych sztucznych rdzeni-oszczędzaczy, na dodatek można usunąc wszystkie te sztuczne ograniczenia throttlingu dla smartfonów.

Wydajność na pewno bardzo na tym zyska

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-09-28 20:43 , Edytowane 2015-09-28 20:52

Mówienie, że RISC(ARM) jest lepsze od CISC (Intel) świadczy tylko o małej znajomości tematu. 
To prawda, że x86 ma ogromny 'narzut', a wewnętrznie jest typowym RISCiem. 
W tym przypadku sporo osób interpretuje ten 'narzut' jako coś złego - z definicji.
Natomiast cały ten 'narzut' oferuje bogaty zbiór instrukcji, który de facto przyspiesza znaczną część operacji. Oczywiście da się to zastąpić prostymi instrukcjami RISC, ale nie będzie to tak wydajne, gdyż ograniczona ilość rejestrów skutecznie ogranicza możliwości i pole do popisu.
W bardzo dużym uproszczeniu - coś za coś. 

Przejdźmy do porównania ARM vs Intel. Sporo osób odnosi wrażenie, że ARM miażdży Intela, bo wystarczy spojrzeć tylko na stosunek poboru prądu do oferowanej wydajności. Są to ponownie mylne wnioski.
Zastanówmy się trochę. 
Procek intela pobiera 60-70W, a z kolei ARM 2-3W.
Mówi się, że ARM ma rewelacyjny stosunek poboru prądu do wydajności. Jednak parę lat temu mieliśmy smartfonowe Intele, które, jak mnie pamięć nie myli, były nawet odrobinę wydajniejsze od ARM. 
Dało się osiągnąć w x86 zbliżony wynik W/IPC do ARM? Dało się. Czemu Intel wycofał się z dalszego rozwoju? Nie wiadomo.  

Pójdźmy w drugą stronę. Ktoś tu już o tym wspomniał. Jeśli ARM są takie super, to czemu jeszcze nie mamy ARM ciągnących 50W w rozwiązaniach serwerowych? Przecież tam nie ma różnicy jaka architektura jest wykorzystywana. Najprawdopodobniej ARM 50W wcale nie byłby wydajniejszy od Intela. 
Nikogo nigdy nie zastanowiło, czemu grafa ciągnąca 3x więcej prądu od CPU jest 20x wydajniejsza od i7 (szybkie policzenie na oko bazując na wiki)? 

Dziennikarze dobrali się do Geekbench i się podniecają. Czy jest czym?
Absolutnie nie. Powstało już wiele prac doktorskich porównujących RISC do CISC. 
Żaden szanujący się specjalista w tym temacie nie jest wstanie powiedzieć, która architektura jest wydajniejsza.

W internecie można odnaleźć konkretne materiały na ten temat, np.  http://research.cs.wisc.edu/vertical/papers/2013/hpca13-isa-power-stru...

In this work, we revisit the RISC vs. CISC debate considering contemporary ARM and x86 processors running modern workloads to understand the role of ISA on performance, power, and energy. During this study, we encountered infrastructure and system challenges, missteps, and software/hardware bugs. Table 9 outlines these issues as a potentially useful guide for similar studies. Our study suggests that whether the ISA is RISC or CISC is irrelevant, as summarized in Table 10, which includes a key representative quantitative measure for each analysis step. We reflect on whether there are certain metrics for which RISC or CISC matters, and place our findings in the context of past ISA evolution and future ISA and microarchitecture evolution. 


Dla mnie Geekbench z miejsca jest spalony jako benchmark - mimo, że na kompie mam zdecydowanie więcej pkt, to czemu test wykonuje się 2-3 dłużej niż na telefonie? 
To jedynie świadczy, że nie wykonują się te same 1:1 algorytmy testujące.

Wolę uruchomić własnoręcznie identyczny kod na kompie i na telefonie. To jest prawdziwy wyznacznik porównania, a nie pojedynczy program, gdzie na dobrą sprawę, nikt nie wie jak wewnętrznie działa \"\ziew\"

Jeszcze na koniec dodam parę liczb do rozważenia (innych nie byłem w stanie odszukać w internecie):
GPU z A8X ma 230 GFlops
i7 Haswell (CPU) posiada 300 Glops
A jak powszechnie wiemy, jest przepaść między wydajnością CPU i GPU ;-)
2x CPU z A8X = i7 ?? ;-)

Nie patrzcie na napalonych dziennikarzy wysuwających daleko idące wnioski, bazujących na jakimś programie, gdzie mamy szereg prac naukowych mówiących co innego.

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

straszny

Wysłane 2015-09-28 21:13 , Edytowane 2015-09-28 21:29

@Netman

Jednak parę lat temu mieliśmy smartfonowe Intele, które, jak mnie pamięć nie myli, były nawet odrobinę wydajniejsze od ARM.

no to bardzo myli Cię pamięc bo był z tego mega krzyk bo okazało się że Intel sztucznie oszukiwał w benchmarkach żeby zbliżyć wydajność swoich Atomów do ARM

i nie było to "kiedyś" tylko dwa lata temu Intel ogłosił że dogonił świat ARMów
Intel Atom kontra ARM - sfałszowane wyniki... 
Intel ciągle nie potrafi zaprezentować konstrukcji tak wydajniej jak Snapdragon 800, nie mówiąc o 808 czy 810 czy Apple A8X.

.. właśnie sobie uświadomiłem: kurcze jednak jak takie oszukiwanie jednak się opłaca! Nawet osoby z branży znające się na rzeczy, jak Netman mają już wbite do pamięci że Atom dogonił... choć nie dogonił, to swoje Intel w opinii publicznej ukształtował.  \"\olaboga\"

Pójdźmy w drugą stronę. Ktoś tu już o tym wspomniał. Jeśli ARM są takie super, to czemu jeszcze nie mamy ARM ciągnących 50W w rozwiązaniach serwerowych? Przecież tam nie ma różnicy jaka architektura jest wykorzystywana. Najprawdopodobniej ARM 50W wcale nie byłby wydajniejszy od Intela.

Qualcomm właśnie ogłosił 2 miesiące temu 64-rdzeniowy serwerowy procesor Hydra. Całkowicie oparty na architekturze ARM

Hydra, zapowiedź 

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-09-28 21:39 , Edytowane 2015-09-28 21:45

@straszny
A czy tylko Antutu istnieje na świecie? Nie ma innych testów na necie?
Zresztą, nie o to chodzi czy dany procek jest +/- 10% wydajniejszy od konkurencji. 
Rozmawiamy tu o porównaniu x86 z ARM.

Intel ciągle nie potrafi zaprezentować konstrukcji tak wydajniej jak Snapdragon 800, nie mówiąc o 808 czy 810 czy Apple A8X.

Jak Intel zaprezentował smartphonowy procek, to był konkurencyjny. Dalej nie rozwijał się w tej gałęzi, to co Ty chcesz porównywać z współczesnymi konstrukcjami? \"\hmmm\"

.. właśnie sobie uświadomiłem: kurcze jednak jak takie oszukiwanie jednak się opłaca! Nawet osoby z branży znające się na rzeczy, jak Netman mają już wbite do pamięci że Atom dogonił... choć nie dogonił, to swoje Intel w opinii publicznej ukształtował.

Za to Ty jesteś mądrzejszy od naukowców i osób piszących doktoraty na temat danego zagadnienia ;)

Qualcomm właśnie ogłosił 2 miesiące temu 64-rdzeniowy serwerowy procesor Hydra. Całkowicie oparty na architekturze ARM

Chyba coś przeoczyłem, poproszę wyniki testów ;)


Straszny, czy ty tak na serio? 
Żaden naukowiec nie jest w stanie odpowiedzieć na pytanie co jest lepsze, RISC czy CISC

W przyszłości pewnie wygra lepsza 'firma' - coś na wzór Intel vs AMD.
Ale czy to będzie Intel, ARM, Apple, Samsung, czy ktoś inny - nie wiadomo \"\mikolaj\"

Ja mocno kibicuję dla ARM z prostego powodu - licencje, licencje jeszcze raz licencje (widzimy co się dzieje na rynku x86)

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

straszny

Wysłane 2015-09-28 21:44

@Netman
ale ja cie nie obrażam, po prostu stwierdzam fakt skuteczności fałszywego marketingu Intela, który zadziałał nawet na osobę zorientowana w branży, taka jak Ty.

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-09-28 22:11 , Edytowane 2015-09-28 22:35

@straszny

 Jak się okazało, wydajność procesora Intel Atom miała być znacznie wyższa od prezentowanej przez układy ARM 

Jednak nie jest 'znacznie wyższa'. Na Antutu świat się nie kończy. Ogółem z grubsza różne testy wskazywały na podobną wydajność względem konkurencji. Zresztą, to nieistotne, czy było to + czy -10%. 
Chodzi o samą idee porównania 2 różnych architektur. Co ma do tego czarny marketing Intela w jednym benchamrku? \"\hmmm\"
Badania naukowe nie rozstrzygają, która architektura jest lepsza, wydajniejsza, to tym bardziej my nie możemy tego zrobić. Z prockiem Intela, to był tylko przykład, że x86 też może być tak samo energooszczędny co ARM. 
Wygra lepsza firma/firmy bez względu na to jaką architekturę będzie nam serwować. 

I w tym miejscu ARM zapowiada się bombowo - praktycznie każdy może tworzyć takie procki. 
Brak monopolu i obserwujemy piękny wyścig między wieloma firmami - nie to co nudy - Intel vs AMD + VIA ciągnące się po krzakach \"\spoko\"

PS Nigdy nie jarałem się tym Intelem w telefonie, a kibicowałem i wciąż kibicuję dla ARMów \"\mikolaj\"

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

straszny

Wysłane 2015-09-29 08:21 , Edytowane 2015-09-29 09:07

@Netman

 Co ma do tego czarny marketing Intela w jednym benchamrku?

własnie to że firma robi wszystko żeby postrzegać ją jako liderach technologicznego, choć tak naprawdę to ona goni liderów rynku

to stara zagrywka marketingowa - ten który prowadzi narzuca warunki i tempo reszcie, jeśli opinia światowa za lidera rynku mobilnego uzna Intela - marże od razu rosną. Bo przecież kupujesz najwydajniejszego.... 

I w tym miejscu ARM zapowiada się bombowo - praktycznie każdy może tworzyć takie procki. 
Brak monopolu i obserwujemy piękny wyścig między wieloma firmami - nie to co nudy - Intel vs AMD + VIA ciągnące się po krzakach 

całkowicie się zgadzam, ta różnorodność jest niesamowicie fajną rzeczą...

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

beton

  • beton
  • wiadomość Użytkownik

  • 7383 wypowiedzi

Wysłane 2015-09-29 15:16

@ Netman
\"\piwo\"\"\brawa\"
Za porownanie. Jak możesz udostepnij wersję .Net czy Javową aby można  było to zapuścić na porownywalnych (czy niby słabszych i7, i5 i porownać wynik z S6). 
Co do architektur to nie mamy się co spierać ale im więcej porównan obecnego ARMa do mocy Intela (sprzed kilku lat) tym ciekawiej. 
O serwerze na Armie też słyszałęm i cały czas się zastanawiam czy to bardziej w celu promocji, reklamy czy właśnie mają zamiar przyszykować mocniejsze procki jednak o wyższym TDP\"\hmmm\"

@straszny

Jeśli ARM użyjemy do desktopa to może to być 8 czy 16 prawdziwych dużych rdzeni bez żadnych sztucznych rdzeni-oszczędzaczy, na dodatek można usunąc wszystkie te sztuczne ograniczenia throttlingu dla smartfonów.

 Tu to akurat nie wiem czy ma sens iśc w procesor 8 czy 16sto rdzeniowy. Chyba raczej nie. Lepiej może jak Apple z A9 mniej rdeni a wydajniejszych? Ja wolałbym żeby to szło tą drogą bo zwiększając tylko ilość rdzeni a nie wydajnośc jednego to tak trochę stoimy w miejscu. 

kotin

Wysłane 2015-09-29 17:30

Coraz dalej odchodzicie od cyfr i obiektywizmu, w kierunku opisów i relatywizmu.
Jak nie kompresja filmu, jak nie robienie ZIPa na czas, to może chociaż policzmy Pi na czas?
https://play.google.com/store/apps/details?id=com.rhmsoft.pi&hl=pl
Bo tak to Wasze mądre wypowiedzi tylko mi horyzonty poszerzają, a skali różnicy między x86/64 a ARM nie widać. \"\lol\"

i5-11600 / SilentiumPC Fortis 3 / Asus Prime B560 Plus / RAM 2x16 GB 3600MHz / 4 SSD / Inno3D GeForce RTX 4070 Twin X2 12GB / SB X AE-5 PLUS / BeQuiet Pure Power BQT-L8-600W / SilentiumPC Gladius M40 / MSI Optix 2560 x 1080 / Logitech X230 / KOS UR40 ? Win 11 Pro... Lenovo G70-70 i5-4210U/8GB/500 GB SSD (zmieniony).

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38049 wypowiedzi

Wysłane 2015-09-29 19:51

@beton
Java jest przecież emulowana na Androidzie, na PC też nie działa zbyt wydajnie (bo nie ma być wydajna - ma być multiplatformowa).
.net teżnie wiem jak na mobilkach tzn ARM będzie chodzić...najlepiej jakiś progtam w C# czy czymś podobnym, tylko tutaj już trzeba chyba pisać pod architekturę? Czy kompilator załatwi sprawę?

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-09-29 21:32 , Edytowane 2015-09-29 22:20

@ djluke
Obecnie kod programu na Androidzie jest kompilowany do kodu natywnego podczas instalowania aplikacji (ART). 

Wydajność Javy/.Neta nie ma żadnego związku z faktem iż są wieloplatformowe (.Net powoli zaczyna działać również na Linuksie - MS sam to robi!). 
Wspomniane języki charakteryzują się kodem pośrednim, który jest kompilowany dopiero na platformach docelowych podczas działania programu. 

Tak w zasadzie jest odwrotnie jak napisałeś - programy w .Net (i może Javie też - nie siedzę w niej, ale działa na takiej samej zasadzie, ale z drugiej strony nie jest tak mocno rozwijana pod maską) czasem potrafią być szybsze (ale nie muszą, są z reguły porównywalne) od programów napisanych w C/C++ (natywnie). 
Powoduje to ogromne zaskoczenie u wielu (ponownie, 'jak aplikacja z narzutem kompilacji w locie może być wydajniejsza od aplikacji w pełni natywnej'?)
Jest to bardzo obszerny temat i nie wiem czy jest jakiś sens w omawianiu jego. 
Dla zainteresowanych głęboką wiedzą, polecam książkę CLR via C# :-P 


@beton
Później wrzucę, razem z większym komentarzem wyników \"\mikolaj\"

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

Fr3aKy

  • Fr3aKy
  • wiadomość Użytkownik

  • 814 wypowiedzi

Wysłane 2015-09-30 03:01

Super Pi
1M:
i5 2500K@4200MHz - 9,043s
Snapdragon S4Pro@1500MHz - 20,559s
Snapdragon 400@1200MHz - 42,082s

2M:
i5 2500K - 21,027s
Snapdragon S4Pro - 58,278s
Snapdragon 400 - 97,624s

4M:
i5 2500K - 48,161s
Snapdragon S4Pro - 117,817s
Snapdragon 400 - 233,406s

[i5 2500K @4,5GHz Contac 29|ASRock P67 Extreme4|Gigabyte GTX460 768MB OC @850/4000MHz|Geil Enhance Plus 2x4GB @1333MHz|Samsung 840 EVO 120GB+Segate Barracuda 7200.10 250GB+7200.12 500GB|Chieftec CFT-620A-12S|AeroCool PGS RS-9|Samsung 49KS7000|Logitech Driving Force GT][Asus GL703GM Scar|i7 8750H|16GB|256 SSD NVMe|1TB SHDD|GTX1060|17,3" FHD 120Hz][PS3 Slim 120GB]

straszny

Wysłane 2015-09-30 11:26 , Edytowane 2015-09-30 12:00

no to czysty pure power: 

SuperPI

Snapdragon 800 z galaxy Note 3
1 M: 13,040 s (w kontekście i5 ciekawy wynik)
2 M: 29,664 s
4 M: 70,196 s


niech mi ktoś wytłumaczy skąd taka mała różnica w czystej mocy obliczeniowej ? Mój Snapdragon 800 wypada tylko 50% gorzej od i5 2500K i to podkręconego.... 

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38049 wypowiedzi

Wysłane 2015-09-30 13:45

Czy chodzi o ten program [LINK] ?
W takim razie pomierzyłem i stwierdzam: to co pokazuje na ekranie (wynik w sekundach) totalnie odbiega od realnie minionego czasu! Dla przykładu mija ok. 9s a on mi pokazuje wynik od 11 do 16s. Albo dla 4M minęło niecałe 25s a na wyświetlaczu 34.xxx...
To jak ja mam rozumieć te wyniki? On sobie 2/3 próbki liczy i prognozuje? Coś z programem? Romem? Sprzętem? Pic na wodę?

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

straszny

Wysłane 2015-09-30 13:58

@djluke
tego samego użyłem.

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-09-30 20:39 , Edytowane 2015-09-30 21:07

@ straszny
Algorytmów liczących liczbę PI jest parę, a każdy z nich można zaimplementować na tysiąc sposobów, a z kolei każdy sposób może być inaczej zoptymalizowany przez kompilator. 

http://stackoverflow.com/questions/9793157/implementing-an-algorithm-t...

Skopiowałem powyższy pierwszy z brzegu gotowy kod liczący liczbę PI (nawet nie wnikałem w niego - dodałem jedynie poprawki z komentarzy poniżej). 
Generuje on 999 miejsc po przecinku. 

i5 750@3.8GHz -   6 sekund
S6 edge            - 49 sekund 

Jeśli ktoś jest ciekawy wyniku u siebie
Apka na androida -  https://www.dropbox.com/s/iaczk4x1m9wrg0q/TEEST.apk?dl=0
Wersję w Javie wrzucę później - muszę dorzucić interfejs aby dało się odpalić normalnie, a teraz jestem w biegu.

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38049 wypowiedzi

Wysłane 2015-09-30 21:27 , Edytowane 2015-09-30 21:28

Poza tym dodam że SPI na PC jest jak wiemy jednordzeniowy jednowątkowy także wynik trzeba by podzielić przez 2-4-8 i dopiero wtedy porównywać.

Z drugiej strony to co napisał Netman - wcale nie wiadomo czy SuperPi na PC i Andka to te same programy, te same algorytmy, ten sam sposób myślenia programistów. To że wynik jest ten sam to nic nie znaczy. Oczywiście można powiedzieć że liczy się wynik a nie środki i to też jest prawdą, ale nie może być to sensem porównania platform!

Kolejny aspekt to słynne już na rynku PC syntetyki i głębokie poważanie w jakim je mamy w kwestii odwzorowania wydajności. Ale tutaj przy ARM radośnie je sobie porównujemy (bo i nie bardzo jest co innego porównywać to fakt) i wszystko ma być spoko. Ano nie jest i nie będzie... Jedyny sens będzie miało porównanie tego samego programu, napisanego pod ten sam system, tylko uruchomiony na różnych platformach (np. Win10 x86 i ARM, ew. inny Linux).

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

piotreklol1

Wysłane 2015-10-07 01:49

Aplikacja z dropboxa mi nie odpala. Czekam na pi w Javie. Tez myślę że cudów nie ma, i różnica w poborze mocy procesorów jest zbyt duża by nie dzielił je przynajmniej rząd wielkości wydajności w realnych zastosowaniach. 

Netman

  • Netman
  • wiadomość Użytkownik

  • 6787 wypowiedzi

Wysłane 2015-10-07 19:51 , Edytowane 2015-10-07 19:52

@ piotreklol1
Jaki masz błąd? 
Apka pod minimum KitKata (akurat tę wersję sdk miałem na dysku) 
Javę wrzucę później jak znajdę chwilkę czasu.

i7 6700k, G.Skill 16GB 3000Mhz, Asus GTX970 DirectCu II Strix, SSD Samsung 256GB, Gigabyte GA-Z170-HD3P, Xonar XD, Dell U2715h ۻۻ Galaxy Tab S ۻۻ Galaxy S8 ۻۻ

Panzer

  • Panzer
  • wiadomość Użytkownik

  • 5181 wypowiedzi

Wysłane 2015-10-08 18:09

Kolejny artykuł

MacBook Air M1 16GB/1TB | iPhone 15 Plus 512GB | iPad Pro 11 512GB |  TV 4K 128GB | Xbox Series X | Kindle Oasis 32GB | HomePod Mini x8
Strona 4 z 7 <<<1234567>>>
skocz

Kto jest online: 0 użytkowników, 176 gości