Pitopedia

<<< Wróć do Pitopedii
Piteusz Blog - Czy przyszłość to brak karty graficznej?

Czy przyszłość to brak karty graficznej?

05 Czerwca 2021

Elo mordy, jak tam idzie kupowanie RTXów? No pewnie tak samo, jak mi. Aaaale spokojna głooowa! Są jeszcze inne karty graficzne takie jak...

... No dobra, to też nie jest dobry pomysł. Co pozostaje robić? Kupować Geforce GT 1030 za cenę standardowej karty graficznej? Przecież to jest bardziej dopakowana integra. No właśnie... integra. Może właśnie integra jest odpowiedzią na te wszystkie problemy?

Dotychczas karty graficzne były niemalże nieodzowną częścią każdego komputera. W domowych zastosowaniach umożliwiały komputerowi odpalanie jakichkolwiek bardziej wymagających gier, akcelerowały wideo, obraz na pulpicie i ogólnie cokolwiek multimedialnego i graficznego - było w rękach karty graficznej. W profesjonalnych zastosowaniach akcelerowały rendering wideo oraz 3D, często też same obliczenia. Karta graficzna była brana za pewnik. W pewnym okresie najcześciej nie było innej opcji niż dedykowany układ wideo - zarówno w laptopach jak i w komputerach stacjonarnych. Aczkolwiek nie zawsze tak było.

W czasach IBM-PC, Macintoshów, Amigi i Atari - karty graficzne były czymś niestandardowym i często zarezerwowanym dla najwydajniejszych komputerów. Królowały wtedy układy wideo zintegrowane z chipsetem lub procesorem - przykładowo w Amidze 1000 i 500 za grafikę odpowiadał OCS - Original Chip Set. Odpowiadał nie tylko za grafikę, ale również za muzykę oraz I/O.

Jak jest obecnie? Coraz więcej procesorów oraz urządzeń ma zintegrowane układy graficzne. Układy te również osiągają od poprzedniej dekady drastyczny wzrost wydajności. Nowoczesne Intel HD Graphics nadaje się spokojnie do grania w gry, które niegdyś były killerami. Nowoczesne APU od AMD nadaje się spokojnie do grania we WSZYSTKO. Nie jest to tak potężne jak karty RTX/GTX czy nawet Radeony z serii RX - jednak nie muszą być. Twórcy powinni nareszcie zauważyć, iż ultra realistyczna i "przepiękna" grafika to ślepy zaułek. Gdyż gra zawsze pozostanie grą. Nigdy nie osiągniemy pełnego realizmu. A grafika przyjemna dla oka i klimatyczna - jest możliwa do osiągnięcia bez kart graficznych z serii RTX. Najpopularniejsze obecnie gry - potwierdzają to.

Ale ogolnie co i jak. Jaki Minecraft. Jaki League of Legends. Jaki Kanter Strajk. O czo chodzi mordzix. Ano o to, że byle Intel HD Graphics 4000 jest w stanie odpalić te gry i jesteś w stanie się dobrze bawić. Chociaż sam nie lubię CSa oraz LOLa - to Minecraft uważam za fajną grę. Dochodzi do tego masa innych gier pokroju OSU, Terrarii. Albo dodać można też gry Indie - przykładowo moją ukochaną Va-11 Hall-A. A o japońskich grach pokroju Touhou i innych doujinach nie wspominam już. Do tego nie potrzeba potężnej grafiki. Liczy się pomysł. Liczy się grywalność. Póki grafika jest przyjemna dla oka, czytelna i klimatyczna - nie jest problemem. Brak kart graficznych to jest idealny moment, by wreszcie przełknąć zakończyć wyścig zbrojeń graficznych. Życie z integrą wtedy będzie bardziej do przełknięcia.

Zastanówmy się nad ciekawym zagadnieniem. Co by było, gdyby nagle Tobie umarła karta graficzna? Stwierdziłem, że dobrym pomysłem będzie to sprawdzić. Wyciągnałem ze swojego komputera Radeona RX 570. Nic szczególnego, ale przy obecnych cenach - karta prawie o wartości mojej wypłaty. Musiałem swojego Xeona 1231 v3 wymienić na poprzedni procesor, gdyż Xeonik nie miał w sobie integry. Tak wylądowałem z i5-4570 oraz Intel HD Graphics 4000. No i jak to się sprawdzało? Tragedia, panika, śmierć, kamienie i gruz. No... nie do końca.

Zauważyłem, iż nie gram we współczesne gry. Nie interesują mnie. Jest wiele tytułów, które warto ograć z powodu ciekawego klimatu i fajnej fabuły. Często jednak ten klimat jest sztuczny i dość... Sztampowy. Idealnym przykładem jest gra Cyberpunk. Jest ofiara ambicji twórców. Przerostu formy nad treścią. Gdzie bugi będą naprawiane latami. Chociaż obecnie - gra jest już całkiem nieźle grywalna, to nadal twierdzę, że cały koncept, miasto i fabułę bezproblemowo można by było przenieść na prostszy, mniej zasobożerny silnik - lokacje przerobić tak, by powalały pomysłem i ogółem a nie szczegółem a pieniędzy by zostało na dokończenie i zrealizowanie wszyskich planowanych pomysłów. Możliwe, że wtedy nawet gra byłaby 10x lepsza i atmosfera mogłaby być dużo bardziej futurystyczna i odrealniona - a o to w cyberpunku chodzi. Obecnie wygląda to zbyt realistycznie i jest to jedyna gra z nurtu cyberpunk, która po prostu obrzydza mnie wizualnie. Pogoń za grafiką i "next-genem" zniszczyła tę grę.

Całe szczęście nie muszę w to grać z integrą. Mogę sobie pograć w pierwszego Deus Ex. Nareszcie zacząłem nadrabiać tego klasyka. Byłem powalony, jak bardzo była to klimatyczna a zarazem wizjonerska gra. Pograłem sobie również w Torchlighta 2 - na średnich detalach. Gra, która atmosferą rozwalała na łopatki Diablo 3. Pod względem mechaniki troszkę mniej, ale to dlatego, iż system rozwoju postaci w D3 po prostu mi się podobał. W Neptunię lub Tales of Berseria też sobie pograłem. O dziwo działały. Lecz te późniejsze części, które słynęły z bardziewnej optymalizacji oraz niepotrzebnego przepychu shaderami - już nie. Możliwe, że coś stracilismy, ale Vega w Ryzenie już by sobie z tym poradziła.

Co poza tym robiłem? Montowanie filmików działało dobrze, bo Intel posiada akcelerację dekodowania i enkodowania wideo - przez co osiąga w renderingu video taką samą prędkość jak mój RX 570. W międzyczasie przeglądałem internet, oglądałem filmy, pisałem stronę i zarządzałem swoimi serwerkami. Interfejs graficzny obecnie jest tak prosty, że w zasadzie nie ma sensu nawet go akcelerować, a nadal to robi integra. I sobie dobrze nawet radzi. No, ale w Wiedźmina 3 sobie nie pograłem. Ale to nie problem. Bez karty graficznej zawsze możecie nadrobić Baldur's Gate.

No i cóż. Osobiście uważam, że układy zintegrowane to jest przyszłość. Wiele osób kompletnie zrezygnowało z potężnych kart graficznych, które obecnie są nieosiągalne. Sporo osób zrezygnowało nawet wcześniej, bo zauważyło, iż po prostu jest to niepotrzebne. Sam w 2015 już to zauważyłem i od tamtej pory żaden mój laptop nie posiada karty graficznej i za każdym razem jak tworzę komputer z Linuxem, to karty dedykowanej nie używam - jest to problem, obciążenie dla zasilacza i niepotrzebne wydatki. Sam w głównym komputerze ją mam, bo Xeon jest lepszy niż tamto i5 a zamiast kupować rzadkiego i7 haswellowego, lepiej po prostu wymienić kompa na Ryzena z integrą.

Będąc przy samym AMD - bardzo dobrym ruchem było dodanie zintegrowanych układów do bardziej potężnych procesorów z serii Ryzen. Dodatkowo AMD wprowadziło certyfikację dla laptopów gamingowych - przez co zintegrowane układy mają więcej sensu niż kiedykolwiek. Gdyż dedykowane GPU w laptopach to niemal jak zintegrowany układ. Nie wymienisz go i jest po prostu silniejszym, oddzielnie chłodzonym chipem. Z powodu braku kart graficznych, nastąpił ogromny wzrost sprzedaży laptopów gamingowych. Sprzedaż oraz ich bardziej większa użyteczność powoduje dodatkowy rozwój układów zintegrowanych. A no i komputery z integrą są mniej narażone na awarię.

Karty graficzne niebawem dla standardowego człowieka nie będą potrzebne.
Tak, zintegrowane układy to jest przyszłość.

<<< Wróć do Pitopedii