Jak podaja dobreprogramy.pl [LINK]
Moduł G-SYNC w monitorach nie robi kompletnie nic. Poza wysyłaniem informacji do sterowników że istnieje. (Jezeli to prawda to ja się zastanawiam po cholerę tak wielki jest ten moduł)
Wychodzi na to że cała sprawa z G-SYNC od zielonych to może być jedna wielka farsa...
Czy w związku z tym że najnowsza recka na in4, to właśnie monitor z tym chipem, to czy SlawoyAMD mógłby sprawdzić czy to prawda?
Forum > Software > G-SYNC to oszustwo nVidii?
Wysłane 2015-01-29 11:12 , Edytowane 2015-01-29 11:14
Wysłane 2015-01-29 11:20
Nie no jasne, Slawoy też jest AMD :P
Chodzi mi o to że w filmiku rzeczywiście na modowanych sterach koles właczył G-SYNC w sterach na laptopie. Tylko chciałbym wiedziec czy to działa. A że Slawoy właśnie dopiero co testował taki monitor to pewnie by widział różnicę.
Tu masz źródło:
[LINK]
Wysłane 2015-01-29 11:23 , Edytowane 2015-01-29 13:31
@koradon
ale zobacz komentarze w sieci że to wcale ludziom nie działa... w Polsce info rozpropagował PurePC... który jednak po pewnym czasie uczciwie przyznał że u nich na monitorach ta sztuczka też nie działa
btw:
AMD raportuje właśnie kolejne załamania sprzedaży... cóż, nie zdziwiłbym się jakby to była ich robota bo ostatni spadek o 30% właśnie zanegowali tym infem o G-syncu
akcjonariusze wyprzedają akcje...
Wysłane 2015-01-29 11:44 , Edytowane 2015-01-29 12:22
.
w sumie to moze miec sens bo freesync od amd to ma byc rozwiazanie czysto programowe, a robi dokladnie to samo
straszny: czemu do tematu o kolejnej wtopie nvidii od razu proboujesz przemycac informacje o AMD ? moze zaloz osobny temat o spadku wartosci AMD, jesli tak cie to interesuje
a sama nvidia notuje kolejna mega wtope w jednym tygodniu !!
gdyby ktos nie byl zorientowany to ta pierwsza to 3,5gb ramu dostepne w gtx970 (zamiast 4)
Wysłane 2015-01-29 12:21 , Edytowane 2015-01-29 12:37
@I want to believe
bo jestem przekonany że to zagrywka AMD, ratująca spadającą sprzedaż ich kart graficznych. Odwrócenie uwagi. Pojawienie się artykułu uratowało firmę przed katastrofa na giełdzie.
Bez oglądania danych finansowych firmy zainteresowanej pisanie o tym nie miałoby sensu.
Wysłane 2015-01-29 12:51 , Edytowane 2015-01-29 12:52
Mam laptopa MSI GT72 2qe z 980m - panel na eDP bez Optimusa - wg. info od kolesia powinno mi to działać na 100% - niestety nic z tego :)
Jak na razie jedyną osobą której to "działa" jest autor tych sensacji. Nikomu innemu nie, ale NV już ukamienowana.
Jednak tak na logikę to może być pół-prawda... Adaptive-sync to technologia kupiona od VESA która miała być wprowadzona programowo wszędzie od DP 1.2a wzwyż - skończyło się jak skończyło. Nie jestem jednak przekonany czy GSync = AS = FreeSync, czy aby GSync nie jest jednak lepszy.
Inna sprawa że blokowanie freesynca na kartach NV to jednak było by chamstwo.
Temat podchwyci teraz wielu zdolnych ludzi, zobaczymy co z tego wyjdzie - nie widzę powodu do nadmiernej ekscytacji :)
Wysłane 2015-01-29 13:02 , Edytowane 2015-01-29 13:03
Ja bym chciał ustalić u najbardziej wiarygodnego źródła (in4.pl) po prostu.
A całą sprawe uwazam i tak za wyciąganie kasy od ludzi bo ta synchronizacja wchodzi przecież w skład standardu VESA...
/edyta/
Ok czyli cała sprawa to jednak ściema. Jak dla mnie EOT
Wysłane 2015-01-29 13:34 , Edytowane 2015-01-29 13:35
Obawiam się, że na monitorze z G-Synciem nie idzie tego udowodnić, bo jak wyłączyć ten moduł?
Tutaj potrzebny byłby monitor obsługujący co najmniej DisplayPort 1.2a, bo dopiero w tej specyfikacji pojawia się Adaptive Sync / FreeSync. Niestety mój Dell U2711 się nie nadaje.
Wysłane 2015-01-29 14:27 , Edytowane 2015-01-29 19:07
@NetCop ale skoro jest to moduł, to czy nie można otworzyć monitora i go w cholere wyjąć i sprawdzić ponownie jak monitor pracuje bez niego. No chyba, że jest "wspawany" na stale, w co mi się wierzyć nie chce.
Rozumiem, że Sławek dostał monitor AOC do testów, ale skoro teraz takie chopki wychodzą z tym G-SYNCem, to powinniście to jakoś sprawdzić, żeby nie robić z portalu .........
@EDYTA
Wysłane 2015-01-29 15:04
@Schiffer
No raczej że jest wlutowany w płytę!
A obrazek ładny Ci się udał, taa...
Wysłane 2015-01-29 15:25
@Schiffer
To nie jest takie proste jak Ci się wydaje. Trzy kwestie.
1) Rozbieranie monitora w celu wymontowania czegokolwiek nie podchodzi pod standardowe testy. Wymaga zgody firmy, a z tym słabo. Ostatnio nie wolno nawet zdejmować chłodzenia z kart graficznych, a co dopiero dobierać się do elektroniki monitora. Inna kwestia, że nie wiemy czy jest to moduł wkładany czy wlutowany.
2) W chwili kiedy ty czytasz recenzję, sprzęt już dawno pojechał dalej i tak jest w 99,9% przypadków wszystkiego co testujemy, a nie mamy stałej, szerokiej bazy własnego sprzętu pod ręką, a te testowe u nas nie zostają tylko jadą zwiedzać dziesiątki innych redakcji.
3) Nie musimy sprawdzać wszelakich plotek, szczególnie tych kompletnie nie potwierdzonych. Oczywiście możemy to sprawdzić jeśli tylko będziemy mieć taką możliwość, a w tej chwili nie mamy.
Wysłane 2015-01-29 15:46 , Edytowane 2015-01-29 16:37
@I want to believe
piszesz o tym samym drugi raz już, przecież to samo napisałeś wyżej
Z tego co widzę po portalach 970 jest hitem sprzedażowym.
AMD notuje rekordy strat i rekordy słabej sprzedazy, Nvidia odwrotnie, raporty pokazują kolejne rekordowe zyski firmy..
więc cóż... więcej takich wpadek NV należy życzyć, albo chociaż jednej AMD...
nie wiem czy negatywna kampania marketingowa jest lekiem na problemy AMD. Kiedyś zadziałała ?
Wysłane 2015-01-29 16:49
Szkoda tylko że na razie nikomu to nie działa. Działa tylko autorowi tych rewelacji i tylko jemu.
a sama nvidia notuje kolejna mega wtope w jednym tygodniu !!
gdyby ktos nie byl zorientowany to ta pierwsza to 3,5gb ramu dostepne w gtx970 (zamiast 4)
Bzdura. GTX970 ma 4GB pamięci ram, podzielona na dwie partycje. 3.5 i 0,5GB. Cała pamięć jest dostępna tylko te 0,5GB jest na wolniejszej szynie. Jednak jeszcze nikomu w testach nie udało się wykazać że ma to wpływ na wydajność w grach.
Wysłane 2015-01-29 16:52 , Edytowane 2015-01-29 16:55
@straszny
Nie no, generalnie prześmiewcze reklamy są spoko, vide ta z nalotem na hodowców...Fermi problem jedynie w tym że AMD robi te reklamy...smutne dość. Nie wiem, nie mają jaj chłopaki, trochę jak PiS - sprawa słuszna, materiał jest, tylko z pomysłem na realizację słabo. Taki zmarnowany potencjał.
@D@nielo
Jest to ciężkie do wykazania bo by to uczynić (tzn. by zająć więcej VRAMu) trzeba zwiększyć wymagania - większa rozdzielczość, więcej detali, dokładniejsze filtrowanie itp. - i wtedy nie wiadomo czy spadek wydajności został spowodowany wolniejszą pamięcią czy większą ilością informacji do przetworzenia.
Jednak testy są, tylko np. dla mnie wnioski testujących nie były takie jasne.
Wysłane 2015-01-29 17:17
Monitor niestety odjechał do innej redakcji jeszcze przed publikacją recenzji... Do sprawdzenia działania teorii programowej potrzeba "normalnego" monitora TN z portem DisplayPort 1.2a i możliwością odświeżania 144Hz, a takiego też nie posiadam. W innej konfiguracji sprzętowej teoria jest raczej nie do potwierdzenia...
Kto jest online: 0 użytkowników, 149 gości