Jak na zawołanie Kruger&Matz właśnie wypuścił ultrabooka Explore 1401 na Core M
Wrzucił bym linka ale jest do zakazanego portalu.
Forum > Mobilne > Zapowiadane nowe topowe telefony i tablety.... na co czekamy? vol 2
Wysłane 2016-05-04 14:39 , Edytowane 2016-05-04 15:58
wg mnie Apple za 10-15 lat bardzo mało będzie zarabiał na telefonach, i bedą one po prostu czymś takim normalnym.
już teraz zaproponowali Amerykanom abonament wypożyczeniowy - co 2 lata rozkładany na 24 miesiące abonament za najnowsze modele
Firma idzie w:
- usługi (na kurczącym się rynku to jest niesamowite ale zysk z iTunes wzrósł im znowu)
- health-care - nie ma na świecie bardziej rozbudowanego ekosystemu do pomocy medycznej jak iOS
- smart-house - tak samo jak wyżej
- samochody - Apple Car w końcu jest już bardzo zaawansowany, te setki podebranych Tesli inżynierów od 5 lat robią coś cichaczem....
- integracja OSów - iOS i OSX w jeden macOS przyszłości.
a i jeszcze jedno: Apple zadeklarowało że co 3-4 tygodnie, w związku z tymi górami gotówki, będzie dokonywać zakupu co najmniej jednego dochodowego dużego podmiotu wymyślającego/produkującego high-tech lub prowadzacego usługi w ich branżach
Wysłane 2016-05-04 14:42 , Edytowane 2016-05-04 14:46
@koradon ok. 2400 zł. na razie.
Na http://www.notebookcheck.net/Intel-Core-M-5Y10c-SoC.129330.0.html procesor w nim użyty pojawia się w otoczeniu innych zacnych nazw. Celeron, Athlon, Turion.
Wysłane 2016-05-04 15:03 , Edytowane 2016-05-04 15:22
@kotin
Bo to jest ta klasa wydajności. Tylko zuzycie energii jest sporo mniejsze a lapki na nim sa pasywnie chłodzone
/edyta/
O pojawiaja sie już teksty
[LINK]
Wysłane 2016-05-04 16:11
Tutaj o Krugerze na Core M http://www.spidersweb.pl/2016/05/krugermatz-explore-1401.html
Wysłane 2016-05-04 16:40
@maq2
Hmm a czym się różni ten link od tego wyżej sprzed 49 minut?
Wysłane 2016-05-04 19:55 , Edytowane 2016-05-04 20:24
@kordon
Gdyby tak wydajność się skalowała względem poboru prądu byłoby zbyt pięknie.
Intel M jest przecież niczym innym jak Skylakiem, który jest obkrojony. Sam siebie nie może prześcignąć.
Tutaj fajnie widać, jaką ma wydajność względem ARM
Bazując na wiki, w tabelce jest zamieszczona najsłabsza wersja Skylaka (6Y30)
[LINK]
Najmocniejsza wersja różni się znacznie prędkością zegara przy zachowaniu tego samego TDP wynoszącego 4.5W.
Uśredniając i zakładając, że najmocniejsza M jest jeszcze wydajniejsza, to nie widać tu żadnej przewagi ARM, wręcz przeciwnie.
Tak jak pisałeś, jaki jest sens ciągnięcia serii Atom, która jak dobrze pamiętam, jest na innej architekturze ciągniętej równolegle (i jak teraz widzimy, słabej architekturze)?
Wysłane 2016-05-04 20:45
@Netman
Po pierwsze syntetyk.
Po drugie estimated.
Po trzecie to chyba stary test (2006) no ale i tak 1 i 2...
Po czwarte ktoś kto nie siedzi wystarczająco głęboko w temacie będzie miał problem z odniesieniem wyników, pomijając już fakt że...
Po piąte nawet nie wiadomo czy lower czy higher is better (można jedynie wywnioskować po % że higher ale rozrzut jest zbyt kolosalny by czegokolwiek dowieść).
Jednak ogólnie się zgadzam - to Skylake więc nigdy siebie nie prześcignie, należy jednak pamiętać że wydajność względem TDP nie jest liniowa.
Wysłane 2016-05-04 21:00 , Edytowane 2016-05-04 21:30
Po pierwsze mamy tu wyszczególnione konkretne algorytmy. Czym niby to się różni od Geekbench, którym każdy tak się jara?
Po drugie, czy nas interesuje dokładność porównania do 0.1%? Gdyby te wyniki nie były w miarę dokładne, to nie byłoby sensu robienia porównania.
Po trzecie, to są wciąż najzwyklejsze algorytmy, które się nie zmieniają na przestrzeni lat.
Po czwarte w czym jest trudność? W tabelce jest ARM z iPada Pro i dwie generacje M
Po piąte chyba łatwo wywnioskować patrząc na starą i nową generację M z tej samej półki
A jak jest kłopot z tym, to wystarczy spojrzeć do tabelki z wiki aby się połapać który to który
należy jednak pamiętać że wydajność względem TDP nie jest liniowa
Czytając ten wątek mam wrażenie, że każdy z tym się nie zgadza

Generalnie ogółem przyjmuje się, że TDP rośnie liniowo względem Mhz i geometrycznie względem natężenia na rdzeniu (a czym więcej Mhz, tym więcej papu trzeba dać).
Robiąc nawet obliczenia mocno na oko, to wychodząc z Skylake i7 91W:
91/2/3,3 - dwa rdzenie, tyle razy mniejsza częstotliwość i mamy już 14W, do tego mniejsze natężenie (znacznie), nieco obkrojenie architektury i mamy te magiczne 4.5W... zrobione z 91W

Obliczenia są bardzo ogólne, ale obrazują dość dobrze jaka jest relacja między procesorem mobilnym a desktopowym.
Na koniec mogę się założyć, że za rok znowu zaczniemy tą samą dyskusję (zresztą jak co roku) i znowu będziemy w tym samym miejscu

Wysłane 2016-05-04 21:49 , Edytowane 2016-05-04 21:50
@djluke
akurat te testy wyjątkowo dobrze symulują prawdziwe zastosowania , nic do nich nie mam.. są standardem od dawien dawna i panuje wokół nich consensus. Zresztą tak samo jak wokół Geekbencha, nikt poważny nie podważa jego sposobu mierzenia wydajności procesorów.
wiesz, w ten sposób "że to syntetyk" można zdeprecjonować słownie każdy system mierzenia wydajności.. "bo tak"
Wysłane 2016-05-04 22:01
@ straszny
Ot, w geeku jest po prostu większa lista testów i tyle. Taka różnica.
Wysłane 2016-05-04 22:01
@Netman
Po pierwsze mamy tu wyszczególnione konkretne algorytmy.
Niczym się nie różni i dlatego uważam (wzorem demokracji) że jest to najgłupszy test jaki można było wymyślić, choć lepszego nie ma.
Po drugie, czy nas interesuje dokładność porównania do 0.1%?
Nie zrozumieliśmy się. Te wyniki są szacowane - czyli nie uzyskano ich realnie. Nie wiem jakie wyniki uzyskano - na czym i w jakich testach, być może faktycznie tylko przy wyższych/niższych taktowaniach i wtedy wyniki są reprezentatywne, a być może nie.
Po trzecie, to są wciąż najzwyklejsze algorytmy, które się nie zmieniają na przestrzeni la
Ale można je wykonać z lub bez wsparcia nowych zestawów instrukcji czy rozszerzeń. Podejrzewam że architektura Pentium (bez MMX) mimo Bóg wie jakiego hipotetycznego taktowania z odtwarzaniem 4K nie poradziłaby sobie nigdy.
Po czwarte w czym jest trudność? W tabelce jest ARM z iPada Pro i dwie generacje M
W tym że raz jest to +38% a raz -74% i nie wiadomo co jest ważniejsze i jak te wyniki zinterpretować.
Po piąte chyba łatwo wywnioskować patrząc na starą i nową generację M z tej samej półki
W zasadzie tak, choć patrząc na przedostatni test 464.h264ref już tak oczywiście to nie wygląda - dlaczego? Bo h265?
Czytając ten wątek mam wrażenie, że każdy z tym się nie zgadza
Bo tak jest. Do uzyskania domyślnych MHz w desktopowym procku potrzebujesz załóżmy 1.2V i pobór mocy daleko mieści się w deklarowanym przez Intela TDP. Do OC potrzebujesz już różnie, ale jest pewna granica gdzie TDP rośnie nieproporcjonalnie do wydajności. Tak samo wszelkie wersje S, T i podobne mają prawie dwukrotnie obniżone TDP (zwykle z 65 do 35W) a taktowanie tylko o kilkaset MHz.
Wysłane 2016-05-04 22:18 , Edytowane 2016-05-04 22:26
Niczym się nie różni i dlatego uważam (wzorem demokracji) że jest to najgłupszy test jaki można było wymyślić, choć lepszego nie ma.
To niczym się nie różni od geega oprócz wielkością zbioru testów. Niżej masz listę algorytmów składających się na wynik https://browser.primatelabs.com/geekbench3/6375856
Nie zrozumieliśmy się. Te wyniki są szacowane - czyli nie uzyskano ich realnie. Nie wiem jakie wyniki uzyskano - na czym i w jakich testach, być może faktycznie tylko przy wyższych/niższych taktowaniach i wtedy wyniki są reprezentatywne, a być może nie.
Naprawdę tak Cię niepokoi słowo 'estimated'?

Ale można je wykonać z lub bez wsparcia nowych zestawów instrukcji czy rozszerzeń. Podejrzewam że architektura Pentium (bez MMX) mimo Bóg wie jakiego hipotetycznego taktowania z odtwarzaniem 4K nie poradziłaby sobie nigdy.
Idąc tym tropem, to hipotetycznie x86 zyskałoby przewagę. ARM to wciąż RISC, a do x86 wciąż dodają ogromne instrukcje.
W tym że raz jest to +38% a raz -74% i nie wiadomo co jest ważniejsze i jak te wyniki zinterpretować.
Co jest ważniejsze, prędkość dekodowania jpegów na stronach czy filmów na YT? A może prędkość kompresji plików?
Kwestia subiektywna. Należy znaleźć złoty środek.
Jeśli naprawdę chcesz dogłębnie przeanalizować wyniki - https://en.wikipedia.org/wiki/SPECint
Te testy są naprawdę 'grube'
Wysłane 2016-05-04 22:24 , Edytowane 2016-05-04 22:25
@Netman
Idąc tym tropem, to hipotetycznie x86 zyskałoby przewagę. ARM to wciąż RISC, a do x86 wciąż dodają ogromne instrukcje.
I dlatego x86 jest wziąć szybsze. Poczekajmy trochę aż osiągną kres ARM i też zaczną je optymalizować. A zaraz, tam co chwilę zmieniają architekturę, coraz to mamy nowe rdzenie Cortex podnoszące wydajność i obniżające TDP.
Poza tym co my porównujemy? Wydajność najnowszych IGP z GTX980Ti? I co z tego że GTX bierze wielokrotnie więcej prądu? Pograsz na integrze?
Wysłane 2016-05-04 22:34 , Edytowane 2016-05-04 22:56
@djluke
Poza tym co my porównujemy? Wydajność najnowszych IGP z GTX980Ti? I co z tego że GTX bierze wielokrotnie więcej prądu? Pograsz na integrze?
Wiesz, trzeba patrzeć globalnie

Dla przeciętnego Kowalskiego starczy IGP - bo nie gra

Dla mnie np. desktopowej i7 jest za mało do pracy, a praca na pełnej mobilnej i7 4q uważam za katorgę

Ale dla większości osób wystarcza obecnie, powiedzmy i3 do pełni szczęścia.
Zobaczymy jak się historia potoczy. Sam jestem bardzo ciekawy i będę kibicować rozwiązaniu, które dostarczy mi więcej mocy

Na razie Intel wygrywa bezapelacyjnie

Poza tym co my porównujemy? Wydajność najnowszych IGP z GTX980Ti?
Myślę, że znalazłeś genialne porównanie. IGP bije na głowę GTX pod kątem stosunku wydajności do poboru prądu. Czemu Intel nie zrobił grafy lepszej od GTX? Ba, nawet przecież próbował i nie wyszło

Dobra, gadu gadu, ale może wróćmy do tematu

Jak myślicie czym może się okazać Surface Phone? Pogłoski chodzą o pełnym x86 z Win10.
Wysłane 2016-05-04 23:02
@Netman
Jak myślicie czym może się okazać Surface Phone? Pogłoski chodzą o pełnym x86 z Win10.
Rozwijając naszą dyskusję - kategorycznie nie! Bateria nie wytrzymie

Wysłane 2016-05-04 23:08 , Edytowane 2016-05-04 23:08
@ djluke
Wprowadzą ynteligentną hibernację
Wysłane 2016-05-05 07:52 , Edytowane 2016-05-05 08:56
@Netman
Na razie Intel wygrywa bezapelacyjnie
Na koniec mogę się założyć, że za rok znowu zaczniemy tą samą dyskusję (zresztą jak co roku) i znowu będziemy w tym samym miejscuOgółem mam wrażenie, że te ostatnie strony tematu są jak kopiuj wklej z przed roku.
Popatrzmy. Stacjonarny PC mam. (Intel / AMD obojętnie, bo to już nie ważne z którym).
Mam bo Wiedźmina na niczym innym nie zagram, Dragon Age też, nie przypomnę sobie Gothica na tablecie na przykład. Nie wyjdę poza jeden kodek w montażu filmu z wakacji i paru jeszcze rzeczy nie zrobię na ARM.
Ba nawet "na wynos" mam x86 - laptopa, nie tablet, tu kwestia ekranu akurat gra rolę.
No to dlaczego twierdzę, że Intel przegrał?
Bo się nie rozwija. Udusił AMD, skopał Nvidię, na x86 nie ma konkurencji, a na ARM jest cieniasem.
Wiem. W zeszłym roku tak mówiliśmy, za rok tak powiemy, a ja nadal będę miał PC, ale to tylko kwestia czasu.
Intel się nie rozwija, a razem z nim nie rozwija się x86. Zobacz. AMD nie zrobił nic, zduszony patentami Intela i brakiem kasy. Zmiana - moda na wielowątkowe programy, gry pozwoliła AMD na drugi oddech po kilku latach BEZ jakichkolwiek inwestycji - ale to nie jest postęp. To tylko kwestia czasu, nawet jak ARM napotka barierę cieplną, to tylko kwestia czasu.
Monopol (a Win Tel to był praktycznie monopol) to martwica. Przestali się rozwijać i iOS wyszedł na wolne pole, a gdy dostał współzawodnika do wyścigu - Androida, to ruszyli tak szybko, że Win Tel, to coraz bardziej peryferie.
Kto jest online: 0 użytkowników, 158 gości