Dwa lata temu sprawdzałem czy granie w 4K ma sens. Nie miało. A dzisiaj?

W kwietniu 2014 roku podawałem plusy i minusy grania w Ultra HD i pytałem o sens tak wysokiej rozdzielczości w naszych ukochanych giereczkach.

Przeczytaj: Gry w Ultra HD – plusy, minusy, możliwości i ograniczenia

Jakość gier w Ultra HD robiła wrażenie już wtedy. Szczególnie kwestia ostrości nawet z wyłączonym antyaliasingiem.

Ultra HD VS Full HD VS HD Ready - Far Cry 2 miska

Obraz 4K zmniejsza też konieczność używania zaawansowanego antyaliasingu. Nie tylko dlatego, by zaoszczędzić moc obliczeniową, ale też dlatego, że wyższa rozdzielczość sama w sobie poprawia jakość. W rozgrywce antyalising 2x MSAA w rozdzielczości 3840 x 2160 jest tak samo dobry jak 8x w 1920 x 1080 pikseli. Nasze testy potwierdziły to w różnych grach – niektóre gry potrzebują więcej AA niż inne, ale nie jest ono aż tak konieczne w 4K jak w 1080p

pisał Joel Hruska z ExtremeTech i pokazywał dowody na przykładzie Skyrima.

Skyrim 1080p 8x MSAA Fot. Joel Hruska

Skyrim 1080p 8x MSAA Fot. Joel Hruska

Skyrim 4K 2x MSAA Fot. Joel Hruska

Skyrim 4K 2x MSAA Fot. Joel Hruska

Jakość bez bardzo wysokiego AA w Ultra HD jest nadal znakomita, a oszczędza się sporo klatek. Np.

  • Batman: Arkham City – FXAA jest około 30% szybsze niż 8x MSAA
  • Hitman: Absolution – 4x MSAA zmniejsza liczbę klatek o 35%, a 8x MSAA aż o 61%.

Problemem były ograniczenia technologiczne i finansowe.

Od strony technicznej brakowało sprzętu (szczególnie monitorów), gry były często fatalnie skalowane, przez co np. elementy menu były tak malutkie, że traciło to jakikolwiek sens, a do tego pojawiały się liczne problemy z wyświetlaniem obrazu (np. brak obsługi 60 Hz i podwojenie obrazu na niektórych odbiornikach).

Drugi problem był czysto finansowy. Telewizory 4K dopiero co zadomowiły się na rynku, monitorów było jak na lekarstwo, karty graficzne dopiero dochodziły do takich rozdzielczości, a wszystko było paskudnie drogie.

Pojedyncza karta graficzna ma problem z udźwignięciem gier 4K z szybkością większą niż 30 klatek na sekundę. Aktualnie jedynym rozwiązaniem są dwie karty graficzne. To spory wydatek. Np. karta graficzna GeForce GTX 780 w Polsce kosztuje około 1800 zł, a np. Radeon R9 290 – 1600 zł. Pomnóżcie sobie to razy dwa i spróbujcie nie dostać zawału

– pisałem w oryginalnym tekście.

Minęły dwa lata. Co się zmieniło?

 

Czy pogramy w 4K?

Co się poprawiło?

Na pewno dostępność sprzętu nie sprawia już problemu.

Nowych telewizorów Ultra HD jest więcej niż Full HD. HDMI 2.0 weszło pod strzechy. Są już nowe, silniejsze karty graficzne, które często nawet w pojedynkę są w stanie udźwignąć gry 4K w mniejszej liczbie klatek.

W czym nadal jest problem?

Oczywiście problemem jest nadal cena. Ale również wydajność i… temperatura.

Telewizory UHD potaniały, monitory 4K są nadal drogie, ale już nie kosmicznie drogie (o nich jeszcze za chwilę). Dużym problemem są wciąż karty graficzne. Oczywiście możecie poczekać na PlayStation 4 NEO, ale szanse na to, że ta konsola będzie oferowała gry 4K z 60 klatkami na sekundę są znikome (jeśli już to upscaling i obsługę Blu-ray UHD).

Podstawą grania w UHD jest i jeszcze długo będzie PeCet. A jeśli tak, to silna karta graficzna. Ba! Po dwóch latach nadal najlepiej dwie, a to już wydatek większy niż większość Waszych komputerów i telewizorów. Nawet tych dużych.

Toshiba 4K serial L9 84 cale

Istnieją już potwory takie jak GeForce GTX Titan X (cena prawie 5000 zł) czy Radeon R9 Fury X (około 3000 zł), które są w stanie samodzielnie udźwignąć nawet 60 klatek na sekundę w Ultra HD. Tylko, że kosztują absurdalnie dużo.

Tańsze, ale nadal bardzo wypasione karty takie jak AMD Radeon R9 390 (około 1600 zł) czy Nvidia Geforce 980 (od około 2000 zł za wersje podstawowe do 3700 za GTX 980 TI) nie podołają samodzielnie wysokim detalom 4K w nowych tytułach. Chyba, że pogodzicie się z 30 klatkami na sekundę, ale w takim razie po co w ogóle grać na PeCecie? Oczywiście można kupić dwie takie karty i wtedy ma się więcej mocy niż Lord Vader. Ale to znowu wydatek z kosmosu.

Do tego wszystkiego w piwnicy warto by było mieć własną elektrownię atomową, bo super silne karty zasysają co najmniej 400 watów, a te najpotężniejsze jeszcze więcej. Rozgrzewają się też do temperatur pozwalających na usmażenie jajka, więc zaawansowane chłodzenie nie jest luksusem, tylko koniecznością.

Sadzone jajko

 

Gry Ultra HD w 2016 – czy to ma sens?

Krótko i na temat – nie.

Skok jakości jest widoczny, to oczywiste. Ale odradzam z dwóch powodów.

Jeśli nie macie zbyt dużego budżetu, to ceny sprzętu nadal będą dla Was sporą przeszkodą. Jest już dużo taniej niż dwa lata temu, ale nadal dość drogo, jeśli zależy Wam na płynności gier (a powinno).

Z drugiej strony jeśli Was stać i chcecie zbudować wypasiony zestaw dla gracza, to macie dwie drogi: możecie kupić drogi telewizor lub drogi monitor.

Telewizor zapewnia rozmiar, co zawsze jest plusem. Przy 4K trzeba pamiętać tylko o tym, by był to model z HDMI 2.0.

Przeczytaj: Wszystko o HDMI 2.0

HDMI kontra Szymon Adamus

Alternatywą jest monitor. W tym przypadku okazuje się, że dla gracza, modele 4K są mniej ciekawe niż egzemplarze z niższą rozdzielczością, ale większą płynnością i ciekawszymi dodatkami.

W zeszłym roku był istny wysyp monitorów do gier o dużych przekątnych (nawet 35 cali) z matrycami 100, 144, a nawet 200 Hz i obsługą technologii G-Sync (Nvidia) lub FreeSync (AMD). Wiele z nich ma proporcje 21:9, które rewelacyjnie sprawdzają się w grach, i rozdzielczość np. 2560 x 1440 pikseli. Niby to mniej pikseli niż UHD (3840 x 2160), ale nadal bardzo dużo, a wszystkie inne zalety deklasują zwykłe 4K w 60 Hz.

To np.:

Jeśli miałbym do wyboru ekran 4K/Ultra HD 60 Hz, a QHD lub nawet zwykłe Full HD, ale ze 144 Hz i technologią G-Syn lub Freesync, to do gier bez zastanowienia wybrałbym ten drugi.

Przed monitorem siedzi się blisko, więc 4K ma sens, ale różnica między 3840 x 2160, a 2560 x 1440 pikseli nie jest aż tak ogromna. Za to większa szybkość ekranu i nowe technologie usuwania „rwania” obrazu (screen tearing), sprawiają ogromną różnicę. Co więcej, większość z nas i tak nie widzi delikatnych zmian w jakości. Za to łatwiej dostrzegamy utratę płynności. Pisałem o tym we wrześniu zeszłego roku na przykładzie Lary Croft w 4K.

Przeczytaj: Lara Croft taka piękna… i tak bez sensu

Tomb Raider UHD Lara Croft

 

 

Podsumowując

Dwa lata temu największymi przeszkodami stojącymi na drodze do gamingu w 4K były ograniczenia technologiczne i ceny sprzętu.

W roku 2016 jest… dokładnie tak samo. Ceny robią się coraz bardziej przystępne i pewnie za kolejne dwa lata kupno karty graficznej pod 4K będzie już możliwe nawet dla średnio zamożnych graczy. Obecnie ta zabawa kosztuje jednak sporo, a dodatkowo rozwiązania o niższej rozdzielczości są wzbogacane o bardziej pożądane przez graczy dodatki. Same piksele, to nie wszystko.

Tak więc w roku 2016 grać w 4K już można, jest to łatwiejsze i tańsze, ale póki co sensu w tym dużego nie widzę. Chyba, że macie tylko telewizor 4K, nie zależy Wam na stabilnych 60 fps, a Wasz PeCet to potwór z innego wymiaru.

 

Może za kolejne dwa lata…