jak zwykle dużo gadania i lekki wzrost wydajności. trzeba chyba wydajności kart wyższej o rząd wielkości, żeby rts miało jakikolwiek sens. czy ktoś w ogóle próbował w ogóle policzyć na jakimś przykładzie jaką wydajność musiałoby mieć urządzenie do wyświetlania grafiki powiedzmy 60fps w konkretnej rozdzielczości z uzyciem raytracingu przy jakiś założeniach dotyczących , no nie wiem, chociaż ilości poligonów? szukam wszędzie ale nie bardzo cokolwiek znajduję.
Forum > Hardware > nowe karty graficzne nvidii
Wysłane 2018-08-24 11:27
Wysłane 2018-08-24 14:39
Lekki? Kłóciłbym się z tym bo zmiany nie są symboliczne. Nowa architektura Turing różni się znacząco (pal licho pamięci GDDR6) za sprawą jednostek Tensor Core. Procesory te mogą być wykorzystane nie tylko do raytracingu w trybie rzeczywistym ale także do wygładzania DLSS czy wykonywania profesjonalnych zrzutów aplikacją wbudowaną w SDK Nvidii. W tradycyjnych grach w rozdzielczości 4K z włączonym DLSS różnica może być nawet dwukrotna . Tak przynajmniej podała Nvidia porównując RTX 2080 z GTXX 1080. Musimy poczekać na oficjalne (to znaczy niezależne testy) by to potwierdzić.
Wysłane 2018-08-24 15:41 , Edytowane 2018-08-25 00:35
Obawiam się, że aż takiego dużego wzrostu nie będzie... Oczywiście na razie sterowniki są jeszcze w powijakach, ale jak pokazały pierwsze testy gry korzystającej z nowych dobrodziejstw, czyli nowy Tomb Rider, w rozdzielczości FHD i max opcjach, nie uzyskano pułapu 60 FPS. Na ile pomogą nowe optymalizacje programowe? Myślę że nie dużo więcej, niż dodatkowe 20 FPS, więc o graniu w 4K raczej można zapomnieć... W nieco starsze gry, może się uda, ale też raczej "szału" klatkowego bym się nie spodziewał. Może osiągnie zupełnie stateczną sześćdziesiątkę, dającą uczucie dość komfortowego grania. Jednak analitycy różnych redakcji piszą, że 4K będzie można w bajki włożyć... Zobaczymy.
Wysłane 2018-08-24 19:42
Jak linkowałem w komentarzu do newsa o Inno3d rewolucja technologiczna jest, tylko nabywca będzie miał zysk tylko w napisanych pod to grach, stare gry 10-15% szybciej LINK
Wysłane 2018-08-25 09:36
Po pierwsze, nie jak zwykle, bo 9xx i 10xx to były realne skoki. Po drugie, skupili się na "nowej" technologii, niestety, która jak zwykle będzie generowała póki co świecące jak psu obiekty na ekranie. Warto poczekać na przyszły rok, póki co testują rynek cena i bajerem, jak bardzo pozwoli na śrubowanie cen. Ruch bardzo dziwny, biorąc pod uwagę wkurzenie ludzi śrubowaniem cen z okazji koparek.
Wysłane 2018-08-25 18:07
Dodanie deep learning do hardware, to skok na miarę akceleratorów graficznych wieeele lat temu. DLSS będzie zapewniał wygląd TAA będąc o wiele szybszy.
RT to też fenomenalna zabawka.
Trochę smutno że wiele osób uważa to za "jakieś tam odbicia, świeci jak psu jajca" itp. (na wielu forach)
To jest ZUPEŁNIE inny wymiar niż takie hairworxy np.
Te karty nie są i nie mają być dla "ludu". Masowy Tensor Core to jeszcze troszkę czasu.
Jeśli kogoś interesuje tylko czysty wzrost wydajności, bez nowych funkcji, to w ogóle nie ma czego szukać na tej premierze.
NV idzie do przodu. AMD patrzy i będzie musiał zrobić to co NV. Intel może zaskoczyć.
(przy każdej nowej tech. jest płacz że droga i że nic nie robi - CUDA na co to komu? 800x600, na co to komu? )
Wysłane 2018-08-25 20:42
aY227 To że jest to postęp i przyszłość, nie można temu zaprzeczyć. Tylko zysk producenta, reklama (kup dziś bo nowość i będzie super) i interes klienta to różne sprawy. Wyprodukować i wypromować coś jest łatwiej niż zapewnić powszechną obsługę w oprogramowaniu, a na to czekamy często kilka lat.
Wysłane 2018-08-26 18:10
Płacz może i jest, ale w kierunku gdzie te karty są dedykowane (czyli gry), wszystko i tak zależy od konsol obecnie. Tak więc, widząc prezentację BF z RT, po prostu płakałem ze śmiechu. Wszystko musi świecić.
Jeśli chodzi o DL - pożyjemy, zobaczymy. Póki co jest dużo gadania, mało szczegółów.
Żadnego tech demo, żadnych realnych wyników - nic.
Wysłane 2018-08-26 21:46
Tech demo jest przecież 0_o Osiągneli +100% wydajności. W grach będzie gorzej, wiadomo.
Z gier wyników nie ma, bo i tak NV musi "wytresować" sieci neuronowe pod silniki gier (oni to będą robić).
wszystko i tak zależy od konsol obecnie

Tego się nawet nie da skomentować sensownie :) Witamy w alternatywnej rzeczywistości.
(To producenci grafiki ustalają standardy na lata, a nie platformy.)
Ja nie wiem czemu od tylu lat ten mit się utrzymuje :/ Co chwila widać że gry na PC wyglądają dużo lepiej niż ich odpowiedniki na konsole, ale nie - konsole/downgrade/spisek
Wysłane 2018-08-27 08:53 , Edytowane 2018-08-27 11:19
jedyna rzecz jaka będzie dla mnie prawdziwym przełomem to masowo stosowany jako podstawowa technika wizualizacji ray-tracing, zamiast obecnego teksturowania wektorowych polygonów i dorabiania do tego gigantycznej bazy post-produkcji w locie.
I jeśli karty Nvidii taką rewolucję rozpoczną to rewelacja. Ale to jest tak że gry bedą musiały być pisane całkowicie pod taką technologię wizualizacji bo z obecną ma ona bardzo mało wspólnego.
pozostałe wszelkie technologie post-procesingu teksturowanych wektorów zupełnie nie wywołują u mnie ekscytacji - to dalej wektorówka, ze wszystkimi jej wadami.
Wysłane 2018-08-27 11:53
przy raytracingu jest szansa że scenowe dema 4k osiągną nową jakość ;) aczkolwiek do tego, żeby raytracing rozpowszechnił się na tyle, że wszyscy będą z niego korzystać to pewno jeszcze kilkanaście lat upłynie :/
@straszny: raytacing jest właściwe tylko metodą wizualizacji właśnie teksturowanych poligonów (wektor jest dwuwymiarowy i za żadne skarby nie pokryje się go teksturą ;) ) czyli w tym przypadku tak jakby postprocesingiem, a tym czym się podniecasz to chyba jest CSG i opis obiektów formułami matematycznymi ;)
Wysłane 2018-08-27 18:51 , Edytowane 2018-08-28 01:16
@albercik
jeśli na czymś sie nie znasz, nie zabieraj głosu i jeszcze nie próbuj pouczać.
Użyłem spolszczonego określenie wektorowe poligony, na polygon vectors, czyli na wektorowe wieloboki, tak się nazywa w grafice wektorowej zamknięte płaszczyzny opisane tak że można je dowolnie skalować. Jeśli nie wiesz czym jest grafika wektorowa zacznij naukę od podstaw a nie zwracaj uwagę innym.
to pewno jeszcze kilkanaście lat upłynie :/
własnie ze względu na nadchodzącą rewolucję w wizualizacji 3D mark uwzględnił raytracing w swoim teście. Teraz.
źródło
Wysłane 2018-08-27 19:24
@straszny ale ja się znam na tym całkiem nieźle :) tutaj kluczem jest moc obliczeniowa, a ta nie wzrośnie znacząco przez kilka najbliższych lat - przynajmniej nie przy obecnym tempie rozwoju. ale emocje są i to najważniejsze jak widać;)
teksturowanych wektorów
tak napisałeś :D
Wysłane 2018-08-29 20:50
straszny
Wektorowe poligony to vector polygons jak już, nie polygon vectors.
Taka tylko wstawka odnośnie pouczania i Twoich ulubionych wycieczek osobistych i wiedzy objawionej...
Wysłane 2018-08-30 08:28 , Edytowane 2018-08-30 10:21
@djluke
jakiej kurcze wiedzy objawionej? Używam tych sformułowań na co dzień w rozmowach z grafikami. Dla ciebie to teoria dla mnie codzienna praca. I tak się nazywa - współczesną grafikę nazywa się w uproszczeniu "teksturowanymi wektorkami" tak jak czystą skalowalną grafikę 2D/3D (bez elementów tekstur/bitmap, wtedy wiadomo, skalowanie nie jest nieograniczone) nazywa się po prostu "wektorkami" i nikomu nie przyjdzie do głowy czepiać się że jak mówię ze "masz coś w wektorach" to przecież nie może mieć wektora bo ten nie jest klasycznym obiektem z powierzchnią tylko nośnikiem kierunku z zwrotem...
Wysłane 2018-08-30 10:39 , Edytowane 2018-08-30 10:40
@elkoos
dokładnie, i na tym zakończmy ten offtop.
btw: Nvidia dla mnie to lokomotywa branży wizualizacji 3D... robią świetną robotę i wg mnie jesteśmy dużo bliżej przejścia na ray-trace jako domyślny sposób wizualizacji w grach/programach, niż się wielu z Was wydaje.
Kto jest online: 0 użytkowników, 234 gości