Zotac GAMING GeForce RTX 4080 Trinity to karta graficzna wykorzystująca jeden z najpotężniejszych układów na rynku – NVIDIA GeForce RTX 4080. Dzięki temu, że wykorzystuje on najnowszą architekturę marki NVIDIA – Ada Lovelace, karta jest w stanie zachwycać niezrównanymi osiągami w grach i pracy kreatywnej.
W artykule Test najpopularniejszych kart graficznych ostatniej dekady sprawdzaliśmy, jak zmieniała się wydajność najchętniej kupowanych kart graficznych w ciągu ostatnich lat. Kolejne generacje GPU, zmiany procesu technologicznego wpływały na znaczny wzrost wydajności. Oczywiście rosła również cena. Aktualnie na przeciętną kartę graficzną trzeba przeznaczyć około 1000 złotych, kilka lat temu za 1500 złotych można było kupić znacznie wyżej usytuowany w hierarchii model. W obrębie 10 lat postęp jest bardzo duży, jeżeli jednak spojrzymy na znacznie krótszy okres czasu, który obejmuje jedną lub dwie architektury, rodzi się pytanie o segmentacje kart. Flagowy GPU określa aktualne możliwości najnowszej technologii i technik, na nic więcej nie możemy liczyć. Oczywiście karty wyposażone topowy układ graficzny, są drogie, obecnie nawet bardzo. Tak duża kwota wstępu do grona graczy byłaby dla wielu osób zaporą nie do przebycia, toteż od wielu lat producenci układów graficznych skutecznie tworzą wiele słabszych i niżej wycenionych dzieje się to w dwojaki sposób. W trakcie produkcji nowych układów lepszy uzysk daje możliwość stworzenia jeszcze lepszej karty, która będzie działać szybciej. Z drugiej strony naturalne jest, że powstają słabsze modele ograniczone sztucznie przez producenta. Ograniczenie to może być zrealizowane na kilka sposobów: Niższa częstotliwość taktowania rdzenia oraz TDP. Mniejsza liczba bloków funkcjonalnych, która bezpośrednio przekłada się na wydajność obliczeniową. Mniej pamięci graficznej, co ma znaczenie w przypadku niektórych gier. Węższa magistrala pamięci. W ten sposób, regulując te parametry, można stworzyć całą rodzinę kart, zapewniającą pełne spektrum wydajnościowe i cenowe. W wypadku architektury Turing, w sklepach znajdziemy karty z serii GTX, z czego najtańszy model GeForce GTX 1650, pozbawiony modułów RT, kosztuje nieco ponad 600 złotych. Flagowy model GeForce RTX 2080 Ti dostępny jest w cenie ponad 5000 złotych. Architektura ta sama, jednak konfiguracja GPU, rozmiar rdzenia i możliwości jakże inne. O ile firma AMD nie ma jeszcze propozycji w najwydajniejszym segmencie, to zarówno Nvidia, jak i AMD w średnim i budżetowym przedziale cenowym mają bardzo wiele modeli GPU. Co ciekawe, pod względem wydajności i cen, karty rzadko rywalizują ze sobą. Owszem, są modele mniej lub bardziej opłacalne, ale poprzez zmianę wyżej wymienionych parametrów producenci GPU są w stanie precyzyjnie umieścić dany model w segmencie wydajnościowym. Patrząc od strony użytkownika, pewne parametry można zmieniać poprzez konfigurację, natomiast zawsze w ograniczonym zakresie. Parametry, na które wpływ ma użytkownik to: Częstotliwość pracy rdzenia graficznego - zwykle można ją zwiększyć, jednak wcześniej należy przydzielić karcie większy budżet energetyczny poprzez zwiększenie parametru TDP. Możliwości podkręcania zależą od wielu czynników, także tych zależnych od konkretnego egzemplarza, a wzrost wydajności nie przekracza kilkunastu-kilkunastu procent. Częstotliwość pracy pamięci - podobnie jak w wypadku GPU, także i pamięć VRAM można podkręcać. W tym wypadku wszystko zależy od modelu i zainstalowanych w nim pamięci. CO więcej, w zależności od architektury wzrost wydajności uzyskany tą metodą może być różny. Po drugiej stronie stoją parametry, które zostały arbitralnie nadane przez producenta GPU podczas segmentacji modeli. Nie mamy na nie wpływu, wszelkie decyzje związane ze specyfikacją GPU podejmujemy podczas zakupu. Liczba i rodzaj jednostek obliczeniowych w GPU Szerokość szyny pamięci Rozmiar zamontowanej pamięci Producent karty ─ wpływ na wydajność Dobrze wiecie, że sam producent karty graficznej nie ma bezpośrednio dużego wpływu na wydajność GPU. Z testów kart niereferencyjnych, które dla Was przeprowadzamy, wynika, że różnice w szybkości podobnie wycenionych modeli nie przekraczają kilku procent. Zdecydowanie ważniejsze są jednak inne kryteria, na przykład układ chłodzący GPU. To on odpowiada za możliwości OC oraz za osiąganą maksymalną częstotliwość w trybie boost. Oczywiście kluczowa jest także głośność pracy, bo jeśli wydajność jest na podobnym poziomie, to podczas wyboru konkretnego modelu pod uwagę należy wziąć kolejne kryteria - również cenowe. Co będziemy testować? W tym artykule postanowiliśmy sprawdzić dla Was czynniki nie zawsze zależne od użytkownika. Na kolejnych stronach dowiecie się, jak TDP, częstotliwość taktowania, a także i napięcie zasilające GPU wpływają na końcową wydajność. Jakiego rodzaju są to zależności oraz jak duży jest to wpływ. Dodatkowo udało nam się wyizolować takie różnice jak: szerokość szyny pamięci, pojemność pamięci lub liczba rdzeni RT. Zapraszamy do lektury. Wpływ TDP na wydajność TDP jest to współczynnik, który służy do odpowiedniego doboru układu chłodzenia do konkretnego procesora - niezależnie, czy to jest CPU lub GPU. Moc tracona w postaci ciepła jest bezpośrednio związana z mocą prądu elektrycznego dostarczanego do urządzenia. Idąc dalej tą ścieżką, logiczne jest więc, że im wyższa wydajność, tym dany sprzęt będzie pobierał więcej prądu. Zależności te w ogólnym rozumieniu są proste, jednak przyglądając się szczegółom, trudniej je interpretować. Warto zauważyć, że w ofercie jednego, konkretnego producenta znajdziemy przynajmniej kilka modeli z tym samym GPU. W wypadku Asus Phoenix RTX 2060 i ROG Strix RTX 2060 największą różnicą, którą zobaczymy na pierwszy rzut oka, to wielkość układu chłodzącego. Asus Phoenix RTX 2060 wyposażony jest w bardzo prosty schładzacz, którego współczynnik TDP wynosi 115 watów (spełnia on więc referencyjne TDP), natomiast w modelu ROG Strix układ chłodzenia charakteryzuje się współczynnikiem 160 do 190 watów. Czy w takim razie 165 procent domyślnego TDP przełoży się na o 65 procent lepszą wydajność? Oczywiście, że nie! Jej wzrost będzie dużo mniejszy, najczęściej możemy mówić najwyżej o dodatkowych 5- lub 10 procentach. TDP jest wiec parametrem, który możemy regulować w ograniczonym zakresie. Zwiększając go, zmieniamy budżet mocy danego układu graficznego. Oznacza to, że układ będzie pobierał więcej prądu, częstotliwość wzrośnie (podobnie jak wytwarzana energia cieplna) i wydajność też. TDP co to jest? TDP, czyli thermal desing power, to parametr opisujący, ile ciepła jest w stanie wygenerować układ graficzny w scenariuszu przy typowym (dużym) obciążeniu np. granie w gry komputerowe. Na podstawie tego parametru dobierana jest wydajność schładzacza. Oczywiście rdzeń karty graficznej nie może pobrać dowolnie dużo prądu. Ma on swoje limity, tj. limit mocy oraz maksymalnego prądu. Limity te określają maksymalny budżet prądowy, którego rdzeń graficzny nie jest w stanie przekroczyć. Więc jak łatwo zauważyć parametr TDP ma wpływ nie tylko na samą temperaturę (aczkolwiek jest to definicja encyklopedyczna), lecz też na pozostałe limity rdzenia graficznego. Dlatego jeśli będziemy w stanie wpłynąć na ten parametr to, możliwe będzie podniesienie wydajności samego układu graficznego. Warunki eksperymentu Testom poddaliśmy trzy popularne karty graficzne: Asus ROG Strix RTX 2070, Nvidia GeForce RTX 2060 Founders Edition i AMD Radeon RX 5700. Test polegał na zwieszaniu w kroku 5 % parametru opisywanego jako TDP. Jednocześnie resztę ustawień zostawialiśmy na ustawieniach referencyjnych, czyli nie podnosiliśmy ręcznie częstotliwości rdzenia, tylko sprawdzaliśmy jak karta graficzna zareaguje na zniesienie domyślnych limitów mocy. Liczyliśmy więc tutaj na działanie trybów turbo. Dodatkowo przy każdej zmianie limitu mocy monitorowaliśmy takie współczynniki jak: pobór mocy rdzenia i całego zestawu. Wyniki Test został wykonany w grze Wiedźmin 3: Dziki Gon. Wybór podyktowany był wzorcową powtarzalnością testów, a odsetek błędu rzadko kiedy przekracza więcej niż 0,2 klatki na sekundę. Średnio karty graficzne przyspieszyły o około dwie klatki na sekundę, czyli niewiele więcej niż 3%. Ich średni pobór prądu wzrósł o około od 10 % dla ROG Strix RTX 2070 do około 19% dla pozostałych kart graficznych. Co nas trochę zaskoczyło to to, że znając mechanizmy Boost w kartach graficznych Nvidii i AMD, spodziewaliśmy się, że wzrost częstotliwości taktowania poszczególnych kart graficznych będize większy. To tylko prowadzi do konkluzji, żeby skorzystać w pełni możliwości podniesienia limitu mocy, trzeba ręcznie zwiększyć częstotliwość pracy rdzenia karty graficznej. Warto zauważyć, że wzrost TDP przekłada się na wzrost napięcia zasilania, to zaś proporcjonalnie wpływa na zmianę mocy prądu pobieranego przez kartę. Podobna zależność jest pomiędzy częstotliwością taktowania a wydajnością. W zależności od modelu karty liczy się jednak przedział, w którym możemy regulować parametr TDP. Undervolting i podkręcanie karty graficznej. Undervolting to celowe obniżanie napięcia na rdzeniu karty graficznej, które ma spowodować niższe zapotrzebowanie karty graficznej na energię elektryczną. Zerknijcie jeszcze raz na poprzednią stronę - zmieniany parametr TDP jest naniesiony na skali liniowej, zaś przebieg Vcore zmienia się wykładniczo. Dlatego w wypadku tego procesu szukamy optymalnej wartości napięcia, przy której nie nastąpi przekroczenie limitów energetycznych GPU przy maksymalnej częstotliwości taktowania. Zazwyczaj jednak po obniżeniu napięcia na rdzeniu realna częstotliwość pracy układu graficznego też ulega pogorszeniu, ale umiejętnie przeprowadzony undervolting nie powinien skutkować dużym spadkiem wydajności. Bardzo często wydajność pozostaje na tym samym poziomie, karta pracuje natomiast ciszej i jest mniej prądożerna. Co ciekawe zdarzają się układy, w których obniżenie napięcia pozwala uzyskać lepszą wydajność. Undervolting w praktyce W wypadku kart z logo AMD w sterownikach Adrenalin mamy nawet opcję do automatycznego undervoltingu. Samo określenie undervoltingu w polskiej wersji sterowników zostało przetłumaczone na podnapięcie GPU. Trochę nieporadnie, ale wiadomo o co chodzi. Możemy je znaleźć w menu o tak samo intuicyjnej nazwie Dostrajanie (ang. Tuning). Możemy też wykonać underwolting ręcznie. W przypadku testowanych kart AMD ręczne ustawienie undervoltingu dało lepsze rezultaty. Na kolejnych slajdach pokażemy tę procedurę krok po kroku. Krok pierwszy - przechodzimy do zakładki dostrajanie i wybieramy tryb ręczny. Krok drugi - obniżamy napięcie rdzenia GPU, do momentu, aż komputer przestanie pracować stabilnie. Bardzo ważne: poprzez obniżenie napięcia na rdzeniu GPU nie uszkodzimy naszej karty graficznej. Po utracie stabilności nastąpi ponowne uruchomienie komputera - wystarczy skonfigurować ostatnie stabilne ustawienia i przetestować je. Szukanie stabilnego napięcia dla GPU potrafi być procesem czasochłonnym, więc nie powinniśmy się zniechęcać od razu. Krok trzeci - sprawdzamy stabilność uzyskanych ustawień. W przypadku testowanych kart graficznych AMD Radeon RX 5700 i 5600 XT wartością graniczną do stabilnej pracy układy granicznego było 0,825 V. Operacja undervoltingu na kartach graficznych Nvidii nie jest tak intuicyjna jak w przypadku AMD. Po pierwsze, nie mamy dedykowanego menu w sterownikach, musimy posiłkować się aplikacjami firm trzecich. W laboratorium używamy oprogramowania MSI Afetrburner. Sam proces przebiega bardzo podobnie, obniżamy napięcie rdzenia do wartości, przy której stabilność jest niezachowana. Następnie szukamy kombinacji wartości częstotliwości rdzenia i jego napięcia, która nas zadowoli. Jak przebiega cała procedura, przedstawiamy na kolejnych slajdach krok po kroku. Krok pierwszy - uruchamiamy MSI Afterburner, następnie wciskamy kombinację klawiszy Ctrl+F, otwiera się nowe okno z krzywą napięcia rdzenia i częstotliwości. Krok drugi - obniżamy krzywą, łapiąc myszką jeden z punktów i ze wciśniętym przyciskiem Shift przesuwamy całą krzywą do dołu. Krok trzeci - wybieramy pojedynczy punkt z krzywej, częstotliwości i napięć rdzenia i akceptujemy go, krzywa wtedy się ustawia. Wyniki Undervolting, okazał się strzałem w dziesiątkę dla testowanych kart graficznych, udało się uzyskać bardzo satysfakcjonujące rezultaty. Na kartach graficznych Nvidii spadek wydajności praktycznie nie występował, pomimo mniejszego napięcia na rdzeniu i niższym nastawom częstotliwości rdzenia. AMD wypada odrobinę gorzej, AMD Radeon RX 5600 XT przed undervoltingiem osiągał średnią liczbę klatek na sekundę w Wiedźminie 3 na poziomie 64,1 kl./s. Po tym zabiegu wartość ta spada do 61,2 kl./s co naszym zdaniem jest nadal bardzo dobrym wynikiem. Wydajniejszy Radeon RX 5700 zachowuje się podobnie. Podkręcanie kart graficznych Możliwość podkręcenia karty graficznej to darmowy bonus od producentów kart graficznych. Jest on co prawda bardzo losowy, ale prawie zawsze możemy liczyć na delikatny wzrost wydajności. Przetestowaliśmy kilka kart graficznych, żeby sprawdzić, ile uda nam się podnieść ich wydajność i czy gra jest warta zachodu. Producenci kart graficznych lubią chwalić się tym, że ich karta graficzna jest podkręcona względem modelu referencyjnego. Nawet takie modele mają jeszcze trochę zapasu wydajności. Dobrym przykładem jest ROG Strix RTX 2070. Ręcznie przeprowadzony proces OC skutkował zyskiem wydajności na poziomie 2 klatek na sekundę. W przypadku kart niepodkręconych fabrycznie możemy liczyć na wzrost wydajności wynoszący około od pięciu do dziesięciu procent, w sporadycznych przypadkach więcej. Szyna danych w karcie graficznej: 192 bit kontra 256 bit - Co to jest? Szyna danych to magistrala komunikacyjna karty graficznej, która odpowiada za przekazywanie (transmisję) danych pomiędzy rdzeniem karty graficznej a pamięcią VRAM. W przypadku karty graficznej komunikacja ta jest równoległa. Najważniejszym parametrem szyny danych jest jej szybkość. W wypadku równoległej transmisji liczba bitów proporcjonalnie przekłada się na wzrost szybkości wymiany danych. Szyna danych (pamięci) - jak to wygląda w praktyce. To bardzo prosty test, a ponieważ szerokość szyny danych to założenie nałożone przez producenta GPU i karty, to trudno jest wyizolować idealnie takie samo GPU z różną szerokością magistrali pamięci. Udało nam się to osiągnąć dzięki najnowszym kartom AMD z rodziny Navi. Na rynku dostępne są bowiem dwie karty z praktycznie tym samy GPU i różną konfiguracją pamięci. Radeon RX 5700 ma szynę pamięci 256 bitów, natomiast Radeon RX 5600 XT wyposażano w pamięć o szerokości magistrali 192 bity. Właśnie tych dwóch kart graficznych użyliśmy do przeprowadzenia naszego eksperymentu. Warunki eksperymentu. Obie karty graficzne dysponują identycznym rdzeniem graficznym Navi i pamięciami VRAM o identycznej szybkości działania. Jedyną różnicą pomiędzy nimi jest pojemność modułów pamięci. Mocniejszy RX 5700 dysponuje 8 GB VRAM, a słabszy RX 5600 XT do swojej dyspozycji ma 6 GB. Naszym zadaniem było wybranie odpowiedniego tytułu, który nie będzie wymagał dużej ilości pamięci VRAM, ale nadal będzie wymagający. Nasz wybór padł na Wiedźmina 3. Kolejnym warunkiem, jaki spełniliśmy, było ustawienie częstotliwości pracy rdzenia obydwu kart graficznych na jednakową częstotliwość (1680 MHz). Moduły pamięci w obydwu kartach graficznych pracowały z jednakową częstotliwością 14000 MHz - na rynku dostępne były różne wersje kart AMD Radeon RX 5600 XT. Kiedy już wszystko zostało ustawione, przystąpiliśmy do testów. Wyniki Wynik był przewidywalny, karta z szybszą magistralą danych okazała się szybsza, ale jej przewaga nad wolniejszym Radeonem to zaledwie średnio 3,6 klatki sekundę. To zaledwie 5 procent szybciej. Rdzenie RT i ich wydajność w śledzeniu promieni W najnowszych kartach graficznych Nvidii z serii RTX otrzymaliśmy kilka nowych rozwiązań technologicznych, z czego najważniejsze są rdzenie RT. Śledzenie promieni w praktyce Na dzień dzisiejszy gier wykorzystujących technikę ray tracingu jest mało, niewiele ponad 10 tytułów. Na szczególne wyróżnienie zasługują: Battlefield V ─ jest to pierwszy tytuł wykorzystujący efekty ray tracingu do symulacji naturalnych odbić w powierzchniach refleksyjnych. Control, który umiejętnie wykorzystuje rdzenie RT do generowania cieni i odbić. Metro: Exodus, które jako jedyny tytuł śledzenie promieni wykorzystuje do generowania całego oświetlenia w grze. Karty graficzne z serii RTX wyposażone są w rdzenie RT, które w sposób sprzętowy przyspieszają wykonywanie obliczeń związanych ze śledzeniem promieni. Pojedynczy rdzeń RT może wykonywać dwie operacje. Sprawdzać, czy pojedynczy promień zderzył się z obiektem (pojedynczym werteksem) na scenie 3D lub obliczać, które struktury akceleracji BVH dany promień przecina (akceleracja BVH była opisywana w tym artykule). Poszczególne karty graficzne serii RTX są wyposażone w różną liczbę rdzeni RT: GeForce RTX 2060 - 30 rdzeni RT GeForce RTX 2060 SUPER - 34 rdzeni RT GeForce RTX 2070 - 36 rdzeni RT GeForce RTX 2070 SUPER - 40 rdzeni RT GeForce RTX 2080 - 46 rdzeni RT GeForce RTX 2080 SUPER - 48 rdzeni RT GeForce RTX 2080 Ti - 68 rdzeni RT Warunki eksperymentu Jak zmierzyć wydajność samego RT nie angażując do tego rdzeni CUDA. To bardzo trudne, praktycznie niemożliwe zadanie. Dobierając odpowiednie oprogramowanie udało nam się jednak zniwelować użycie rdzeni CUDA. Nasz wybór padł na syntetyczny benchmark Vray NEXT, w którym możemy sprawdzić, jak dana karta graficzna poradzi sobie z renderowaniem sceny 3D, która w całości generowana jest na podstawie obliczeń śledzenia promieni. Domyślnie otrzymujemy pojedynczy wynik, który określa, ile ścieżek śledzenia promieni udało się policzyć przez 60 sekund. Szukając trochę głębiej, możemy dowiedzieć się, ile ścieżek promieni zostało policzonych na sekundę dla jednego piksela oraz ile próbek maksymalnie pojedynczy piksel może przechować. Wyniki Dodatkowo dodaliśmy wynik, jaki osiągnął procesor Intel Core i7 8700K 4,9 GHz. Już na pierwszy rzut oka widać, że wraz ze wzrostem liczby rdzeni RT rośnie wydajność w liczbie przetworzonych promieni na scenie. Było to do przewidzenia. Dodatkowo teraz wiemy, że wydajność ta skaluje się liniowo, choć nie jesteśmy w stanie wykluczyć wszystkich zmiennych z tego testu, tylko je zminimalizować. Wykres przedstawia maksymalną liczbę promieni prześledzonych na scenie 3D na sekundę. Na wykresie pokazującym liczbę próbek, które może przechować pojedynczy piksel, widzimy te same wartości dla pięciu kart z siedmiu. Odpowiedzialna za to jest pojemność dostępnej pamięci VRAM, to w niej przechowywane są informacje o próbkowaniu. RTX 2060 dysponuje sześcioma gigabajtami VRAM, pozostałe karty użyte w teście dostępne mają odpowiednio 8 GB VRAM to te z wynikiem 432 próbek i 11 GB to GeForce RTX 2080 Ti on osiągnął wynik 576 próbek. Znając wyniki z syntetycznego testu, postanowiliśmy, je przełożyć na bardziej przemawiające dla nas wyniki, jak w takim razie rdzenie RT mają wpływ na wydajność w grach. I znowu chcieliśmy wziąć tytuł, który jest najbardziej wymagający pod względem obliczeń RT. Ten warunek spełniło Metro: Exodus. Wyniki, jakie otrzymaliśmy w Metro: Exodus udowadniają nam, jak duże znaczenie mają rdzenie RT dla obliczeń śledzenia promieni. Wydajność skalowała się idealnie wraz ze wzrostem rdzeni RT. Najwolniejszy RTX 2060 ma 30 rdzeni RT, jego wynik to średnio 26,9 kl./s. Najszybszy z przetestowanych modeli, 2080 Ti na swoim wyposażeniu ma 68 rdzeni RT. To o 125% więcej od najsłabszego RTX'a, jego średnia liczba wyświetlanych klatek na sekundę to 55,1, jest to o 105% wyższy wynik, niż w przypadku najsłabszego w stawce RTX'a 2060.
Twoja karta graficzna powoduje problemy, gdy zaczynasz widzieć dziwne kolory na całym ekranie. Może się również okazać, że na całym ekranie pojawiają się przerwy lub linie. Może to oznaczać, że Twoja karta graficzna ma jakiś problem. #2. Jąkanie. Gdy karta graficzna nie działa poprawnie, ekran może się zacinać.
tutaj masz wszystko rozpisane : na tej stronie masz wypisane dokładne ustawienia graficzne oznaczone jako Very High czyli generalnie prawie wszystko na MAX oprócz wygładzania krawędzi tutaj masz wyniki kart graficznych w tych oto ustawieniach jak widać GTX 980 39-56fps twierdzisz, że GTX 960 stabilne 60 FPS na najwyższych? czyli co, PC Lab i PurePC kłamią? a może te ustawienia dla GTX 960 wcale nie były najwyższe? może inaczej rozumiemy pojęcie najwyższe ustawienia graficzne? :) śmiem twierdzić że w waszym przypadku grafika na "ultra" jest mocno naciągana hehe a może kumpel testował w mało wymagającym miejscu dla karty graficznej, bo PurePC testowało podczas misji "Doradztwo małżeńskie" czyli w wymagającym miejscu dla GPU ale mniejsza, bo nie zajmujemy się komputerem kolegi jak chcesz fachowo porównać wyniki to pojedź w to miejsce ustaw dokładnie takie opcje : FXAA: ON MSAA: OFF TXAA: OFF Vsync: OFF Zagęszczenie ludności: 100% Zróżnicowanie przechodniów: 100% Skalowanie dystansu: 100% Jakość tekstur: B. Wysoka Jakość cieniowania powierzchni: B. Wysoka Jakość Cieni: B. Wysoka Jakość odbić: B. Wysoka Refleksy MSAA: OFF Jakość wody: B. Wysoka Jakość cząstek: B. Wysoka Jakość trawy: B. Wysoka Miękkie cienie: B. Miękkie Post FX: B. Wysoka Nasilenie rozmycia: 0% Głębia ostrości: OFF AF: x16 AO: Wysoka Teselacja: Wysoka Długie cienie: ON Cienie w wysokiej rozdzielczości: ON Tekstury w wysokiej jakości podczas latania: ON i wtedy możemy dopiero porównywać wyniki teoretycznie można byłoby zasugerować się tym, ponieważ GTX 980 to odpowiednik 1060 jednak nie będzie to w 100% adekwatne, ponieważ w teście zastosowany jest RAM o prędkości 2400Mhz a Ty masz 1600 ale na oko można przyjąć, że Twój procesor powinien być w okolicach 60 klatek, jednak o 80 FPS nie ma mowy Edited January 31, 2019 by Mogeto
Normalnie powiedziałbym, że to zależy od reszty konfiguracji, ale najbardziej odpowiednią odpowiedzą jest – karta graficzna. Wyjątkiem jest sytuacja, w której podczas niedawno wykonanej modernizacji, to właśnie ten element był wymieniany i po jakimś czasie reszta podzespołów nie daje rady.
Dzień dobry mam problem ponieważ napisałem do X-kom czy karta graficzna MSI GeForce RTX 2060 SUPER ARMOR OC będzie działał z płytą główną ASUS PRIME B250-PLUS pracownik powiedział że tak ale nie będzie wykorzystywała wtedy całej swojej mocy i dał mi linka do nowej kart Asus prime b360-plus. Chciałbym wiedzieć dlaczego płyta nie wykorzysta pełnej mocy a moje podzespoły to dysk twardy Seagate BarraCuda 1TB,GOODRAM IRDM 240GB system operacyjny Microsoft Windows Home 10 64 bit OEM DVD PL karta graficzna Gigabyte GeForce GTX 1050 Ti GAMING G1 4GB procesor Intel Core i5-7400 obudowa PHANTEKS Eclipse P400 zasilacz SilentiumPC Vero L2 Bronze 500W chłodzenie SilentiumPC Fortis 3 HE1425 RAM GOODRAM IRDM 8GB czerwony [1x8GB 2400MHz DDR4 CL 15-15-15 1024x8 DIMM] za każdą odpowiedź dziękuję, życzę miłego jeszcze dodać czy zasilacz ciągnie te wszystkie podzespoły oprócz karty graficznej a z nową MSI GeForce RTX 2060 SUPER ARMOR OC albo rtx 2060 super aorus i czy będę mógł wtedy jeszcze dokupić 8 ramu i czy będzie działało . Edytowane 22 Października 2019 przez TigrOfficially
Dzięki swojej wydajności i niesamowitej mocy obliczeniowej, ten laptop do gier zapewni Ci przewagę nad innymi graczami. Zintegrowany procesor Intel Core i5 dostarcza niesamowitą moc, która pozwala na płynne działanie nawet najbardziej wymagających gier.
Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! lukiaszek1272 03 Jan 2020 03:56 180 #1 03 Jan 2020 03:56 lukiaszek1272 lukiaszek1272 Level 2 #1 03 Jan 2020 03:56 Witam, po zakupie nowej karty rx570 4GB mam taki problem że karta jak podaje menedżer zadań wykorzystuje swoje 100% gdzie wykorzystane jest 2GB z 4GB. Helpful post #2 03 Jan 2020 08:39 badboy84 badboy84 Level 42 Helpful post #2 03 Jan 2020 08:39 To nie ma żadnego związku, użycie GPU nie jest zależne od wykorzystania pamięci. Tu nie ma problemu ... #3 03 Jan 2020 10:04 User removed account User removed account Level 1 #3 03 Jan 2020 10:04 Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? #4 03 Jan 2020 12:13 lukiaszek1272 lukiaszek1272 Level 2 #4 03 Jan 2020 12:13 Tomequ123 wrote: Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? Przykładowo BF Bad Company 2 Ustawienia ultra + 1920×1080 Helpful post #5 03 Jan 2020 12:32 User removed account User removed account Level 1 Helpful post #5 03 Jan 2020 12:32 No to o czym my mówimy. Włącz grę AAA z 2014+ na Ultra, to zobaczysz 4GB. #6 03 Jan 2020 13:00 lukiaszek1272 lukiaszek1272 Level 2
NVIDIA GeForce RTX 2070 Super. 22025. Sapphire Radeon RX 5600 XT Pulse OC. 19035. GeForce GTX 1060. 11517. GeForce RTX 3080 + Pentium G3220. 9346. GeForce RTX 3080 + Core i9 9900K.
Dlaczego odpowiedni dobór CPU do GPU jest tak ważny? Procesor, czyli centralna jednostka obliczeniowa (CPU – ang. Central Processing Unit), często określany jest mianem serca i mózgu komputera (i nie tylko komputera). Odgrywa on ważną rolę, ponieważ bez niego dane urządzenie nie mogłoby działać. Analizuje i przetwarza informacje, a także wykonuje obliczenia (dowiedz się więcej o tym, jak działa procesor). A w grach? Odpowiada za np. ustalanie pozycji postaci i elementów otoczenia czy liczy każdy ruch przeciwników i pojazdów. Właściwe dopasowanie CPU do karty graficznej (GPU – ang. Graphics Processing Unit) jest kluczowe, ponieważ te komponenty mają największe przełożenie na wydajność naszego komputera. Zły wybór procesora nie pozwoli rozwinąć skrzydeł karcie graficznej, a co za tym idzie – w grach nie uda się osiągnąć odpowiednio wysokiej liczby klatek (fps – ang. frames per second). To z kolei istotnie przekłada się na komfort rozgrywki. Jeśli CPU wysyła zbyt wolno instrukcje do GPU, ten drugi komponent odpowiedzialny za wyświetlanie obrazu, który widzisz na ekranie, musi czekać na kolejny, jakże zbawienny zestaw danych, po prostu nudząc się jak mops. Jest to cel, do którego zdecydowanie nikt nie powinien dążyć. Wbrew pozorom dopasowanie tych podzespołów może być trudniejsze, niż się wydaje. Producenci procesorów zasypują potencjalnych konsumentów licznymi modelami, by mieli oni z czego wybierać. Parafrazując jednak inne, nie mniej znane przysłowie – od przybytku głowa może jednak zaboleć. Dlatego w tym poradniku przybliżymy, na co zwracać uwagę, by mądrze dobrać procesor do karty graficznej. Odpowiemy także na mniej oczywiste pytania, takie jak: czy nie do końca udanie dopasowany tandem ma sens? Jeśli Twój głód wiedzy nie został zaspokojony, więcej informacji o procesorach i kartach graficznych znajdziesz w naszych poradnikach o tym, jak wybrać CPU i GPU. Ułatwią one dopasowanie tych komponentów. Poza tym stanowią dobry punkt wyjścia do niniejszego poradnika. Jak wybrać procesor? Co trzeba wiedzieć o CPU? Jaką kartę graficzną wybrać? Która jest najlepsza? Bottleneck – czym jest? Jak go uniknąć? Zanim przejdziemy do sedna tematu, najpierw wypadałoby odpowiedzieć na zadane pytanie. Odpowiedź na nie jest niezwykle istotna, bo nierozerwalnie wiąże się CPU i GPU oraz odpowiednim doborem tych (i nie tylko tych) komponentów. Bottleneck powstaje wtedy, gdy jeden z podzespołów ogranicza drugi. Wyobraź sobie, że masz szybki samochód, ale przez wbudowany układ ogranicznika prędkości do stosunkowo niskich wartości nie będziesz w stanie poczuć jego mocy. Innymi słowy – nie rozpędzi się tak, jakby mógł rozpędzić się na dobrej autostradzie. Analogicznie jest w połączeniu procesora i karty graficznej, w przypadku którego jeden układ może wyhamowywać drugi. Gdy dobierzesz zbyt słabe CPU do GPU, nie poznasz prawdziwego potencjału tego drugiego komponentu, ponieważ dostosuje się on do pierwszego. Tym samym procesor stanie się rzeczonym ogranicznikiem prędkości. Co czeka kartę graficzną w takim towarzystwie? Dopóki nie wymienisz procesora na wydajniejszy, dopóty będzie się ona marnować nieustannie, a gracz może cierpieć katusze podczas grania. To właśnie w przypadku złego połączenia dochodzi do tzw. bottlenecku, czyli wąskiego gardła, które przytacza się w światku komputerowym najczęściej w kontekście zestawiania CPU i GPU. Co zrobić, by nie dopuścić do tej sytuacji? Czy wystarczy prosta rada: „nie kupuj procesora za 500 zł do karty graficznej wartej 4000 zł”? Takie połączenie nawet na chłopski rozum nie ma większego sensu, ale temat wymaga szerszego rozwinięcia. Zjawisko bottlenecku, które odnosi się nie tylko do CPU i GPU, bo problem może stanowić np. pamięć RAM, jest też ściśle powiązane z grami. Co to znaczy? W tych tytułach, które polegają głównie na mocy karty graficznej, możesz nie odczuć efektu wąskiego gardła, ponieważ wydajność nie jest w nich zależna od procesora albo jest, ale w niewielkim stopniu lub tylko w wybranych lokacjach. Jak może objawiać się bottleneck ze strony CPU? Możesz uświadczyć podczas rozgrywki w grach drastyczne spadki płynności animacji, zwłaszcza w miejscach zależnych od procesora. Karta graficzna może ogólnie oferować niedostateczną lub bardzo nierówną wydajność, jak na swoje możliwości. Wiesz już, że wystąpienie zjawiska bottlenecku ze strony procesora w jednej grze nie musi przełożyć się na ten sam efekt w innej. Co możemy w takim razie zrobić z tą wiedzą? Jak zminimalizować efekty wąskiego gardła? Przejdźmy do najważniejszej części, która szerzej odpowie na nurtujące pytanie: jak uniknąć bottlenecku? Co wziąć pod uwagę przy wyborze procesora i karty graficznej? Zanim zdecydujesz się na odpowiedni procesor do swojej lub planowanej karty graficznej, koniecznie weź pod uwagę kilka czynników. To one zadecydują o tym, jakie CPU będzie najlepsze do Twojego zestawu komputerowego, by nie wyhamowywał on odczuwalnie – albo najlepiej wcale – wydajności GPU. Jakie czynniki są najważniejsze przy doborze CPU do GPU? Przede wszystkim warto zadać samemu sobie kilka pytań: Do czego służy Ci komputer? Jeśli grasz, to w jakie gry i gatunki? W jakiej rozdzielczości grasz? Jakie odświeżanie (w Hz) ma Twój monitor i do jakiego poziomu fps dążysz? Komputer do gier czy nie do gier? Jaki wybrać procesor do gier? To pierwsze pytanie, na które musisz sobie odpowiedzieć. W końcu dobór podzespołów nie musi być uniwersalny. Wszystko zależy od tego, do czego będzie wykorzystywany komputer. Można jednak tak dopasować komponenty, by dobrze spisywały się zarówno w (nowych) grach, jak i np. w streamingu czy w montażu filmów. Obecnie do gier wystarczają 6-rdzeniowe (i najlepiej 12-wątkowe) CPU, ale to, że w konsolach PS5 i Xbox Series X/S znajduje się 8-rdzeniowa i 16-wątkowa jednostka, może przełożyć się w przyszłości na lepsze wykorzystanie większej liczby rdzeni. Przy czym miej na uwadze, że procesor procesorowi nierówny. Zmiany i postęp w architekturze mają duży wpływ na wydajność i na to, czy połączenie z danym GPU będzie (mniej lub bardziej) udane. Dowodem na potwierdzenie tych słów będzie procesor AMD Ryzen 5 1600X (Zen) z 2017 roku, który ma tyle samo rdzeni i wątków, co wydany w 2020 roku Ryzen 5 5600X (Zen 3). Mimo to może „dławić” nowsze i (naj)wydajniejsze karty graficzne, bo jego moc wyraźnie odstaje od nowocześniejszego CPU. W grach bardziej liczą się rdzenie fizyczne, dlatego lepszy będzie procesor 6-rdzeniowy i 6-wątkowy niż 4-rdzeniowy i 8-wątkowy. Nawet współczesne jednostki 4-rdzeniowe i 8-wątkowe będą ograniczać wydajną kartę graficzną (i to starszą niż mocne modele z serii RTX 3000 i RX 6000) – nie tylko w 1080p, ale także często w 1440p, a w niektórych produkcjach nawet w 4K. Jeśli grasz, odpowiedz sobie jeszcze na pytanie: czy streamujesz podczas grania? Tak? W takim razie inwestycja w wydajny procesor w wieloma rdzeniami ma jeszcze więcej sensu. Jakie połączenie CPU i GPU do zastosowań biurowych i (pół)profesjonalnych? Co, jeśli komputer nie ma służyć do gier? Procesor do komputerowego biurowego ma większe znaczenie niż karta graficzna. W tym przypadku ten drugi podzespół zwykle stanowi zintegrowany układ, mimo że system operacyjny Windows coraz bardziej wykorzystuje (i)GPU. Gdy procesor nie ma wbudowanej karty, do prostych zadań biurowych możesz wybrać najtańszy model z rodziny GeForce lub Radeon. Procesor do prostych zadań biurowych, przeglądania internetu czy odtwarzania filmów nie musi być mocny. W zupełności wystarczą tanie modele pokroju Intel Celeron, Pentium, Core i3 lub AMD Athlon czy Ryzen 3 (w przypadku „czerwonych” najlepiej APU ze zintegrowaną grafiką). Do nieco bardziej wymagającego sprzętowo oprogramowania lub np. użytkowania wielu aplikacji naraz może przydać się mocniejsza jednostka (np. Intel Core i5 lub AMD Ryzen 5), ale nie potrzebujesz do tego topowego modelu z odblokowanym mnożnikiem (np. seria K od Intela) i flagowego GPU za kilka tysięcy złotych. Do zastosowań (pół)profesjonalnych, takich jak renderowanie, grafika, montaż filmów, procesor – najlepiej z dużą liczbą rdzeni i wątków – zyskuje jeszcze bardziej na znaczeniu, podobnie jak karta graficzna, ale jest to zależne od tego, czym się zajmujesz. Do najbardziej wymagających zadań, takich jak CAD/CAM, możesz wybrać stworzony z myślą o środowisku profesjonalnym procesor, np. AMD Threadripper, który połączysz z układem graficznym RTX Quadro lub Radeon Pro. W jakie gry (gatunki) grasz? Co jeśli procesor i karta graficzna mają służyć przede wszystkim do gier? Czy grasz w nowe czy stare gry? W jakie gatunki grasz? Czy są to strategie, produkcje niezależne (tzw. indie), przygodówki czy może nowoczesne RPG-i, strzelanki albo tytuły nastawione na kooperację i rozgrywkę sieciową? Wymóg co do podzespołów jest zależny od gier i gatunków, dlatego warto przeanalizować, w co grasz i w co zamierzasz grać. Może w końcu być tak, że po prostu dotychczasowy komputer – niezależnie od tego, czy ograniczenie stanowi CPU, czy GPU – uniemożliwia Ci rozgrywkę w nowości, a nie chcesz się ograniczać w przyszłości do samych „staroci”. Trzeba te czynniki wziąć koniecznie pod uwagę. Do np. izometrycznych RPG-ów, które przywodzą na myśl klasyki gatunku, nie potrzeba (zwykle) tak mocnego CPU i GPU, jak do produkcji klasy AAA. Po co więc inwestować w Core i9 albo Ryzena 9? Inaczej będzie, gdy chcesz grać z możliwie najwyższym fps i ustawieniami graficznymi, włącznie z ray tracingiem, wtedy wybór topowych jednostek ma jak najbardziej sens. Czy procesor przestaje mieć znaczenie w grach? Co jeszcze warto wiedzieć? Prawda jest taka, że współczesne gry w coraz bardziej wykorzystują moc karty graficznej, a procesor często schodzi na drugi plan. Wyjątkiem są chociażby strategie pokroju serii Total War i Civilization czy tytuły e-sportowe, takie jak CS:GO (Counter-Strike: Global Offensive) i LoL (League of Legends), które bardzo mocno wykorzystują moc jednego rdzenia. Z kolei na wielordzeniowość – i ogólnie moc procesora – stawiają gry wieloosobowe z duża liczbą postaci na ekranie, czyli doskonałym przykładem będzie seria Battlefield. Z kolei do Rainbow Six: Siege nawet nie najnowszy 6-rdzeniowiec jest w zupełności wystarczający. Do gry Ubisoftu warto też zainwestować w wydajniejszą kartę graficzną. Nie oznacza to jednak, że CPU przestaje mieć jakiekolwiek znaczenie, bo tak nie jest. W wielu grach, w tym tych z otwartym światem, nadal wymagana jest dość szybka jednostka, która będzie dobrze współpracować z kartą graficzną, zapewniając odpowiednio wysoką wydajność. Nowe produkcje zaczynają też stopniowo wykorzystywać lepiej więcej rdzeni i wątków, więc ich zbyt mała liczba może skutkować efektem wąskiego gardła. Miej tylko na uwadze, że wydajność procesora nie jest zależna tylko od mocy i liczby rdzeni (wątków), ale także od częstotliwości taktowań, ilości pamięci cache czy pamięci RAM. Połączenie z kartą graficzną jest tak ważne, bo GPU będzie tak szybkie, na ile pozwoli CPU. Czy rozdzielczość ma znaczenie przy wyborze procesora i jak duże? Owszem, ma bardzo duże. Im wyższa rozdzielczość, tym procesor traci na znaczeniu. Wówczas możesz pozwolić sobie na dobór słabszego CPU do mocniejszego GPU. Ale nawet w rozdzielczościach 1440p (2560 x 1440 pikseli) i 4K (3840 x 2160 pikseli) procesor nadal jest dość ważny, szczególnie w tej pierwszej. Nie może dzielić tych podzespołów zbyt wielka przepaść. W takim scenariuszu CPU też może okazać się zbyt wolne, by nadążyć za mocnym GPU. W rozdzielczości 1080p (lub niższej) procesor gra pierwsze skrzypce – kieruj się wtedy rozsądkiem. Wówczas karta graficzna nie musi być z topowej półki wydajnościowej, bo i tak nie wykorzystasz w pełni jej mocy. Ona pokaże pełny potencjał dopiero w wyższych rozdzielczościach. Jeśli grasz w Full HD, lepiej wybierz nieco słabszą kartę graficzną, zamiast łączyć tanie, niezbyt wydajne CPU z bardzo mocnym GPU, które sprawdza się przede wszystkim w wysokich rozdzielczościach. W Full HD, aby w pełni wykorzystać potencjał najmocniejszych kart graficznych – czasem nawet w 1440p – może nie wystarczyć nawet Intel Core i9 i AMD Ryzen 9, czyli flagowe jednostki CPU. Warto wówczas pokusić się o OC (podkręcenie) procesora i/lub RAM-u, ewentualnie zakup szybszych pamięci (do tego, jak są one istotne w odniesieniu do procesora, jeszcze wrócimy). Gdy masz monitor o wysokiej częstotliwości odświeżania obrazu (np. 144, 240 lub więcej Hz) i przedkładasz wydajność nad rozdzielczość, to wtedy również pomyśl o mocniejszym procesorze. Takim, który będzie w stanie dorównać szybkością karcie graficznej. Ona w końcu musi też być z wysokiej półki, bo inaczej nie uzyska się odpowiednio dużej liczby fps (przynajmniej w nowościach). Dopiero te dwa dobrze połączone ze sobą komponenty (trzy, jeśli wliczymy także RAM) zaowocują wysoką płynnością animacji i wykorzystaniem możliwości wysokohercowego monitora. W przypadku gier e-sportowych nie potrzebujesz najmocniejszych jednostek, ale gdy chcesz cieszyć się w najbardziej wymagających grach bardzo wysokim fps i najwyższymi detalami w 1080p, wybierz topowe modele zarówno CPU i GPU. Jak wygląda sytuacja w wysokich rozdzielczościach? Różnica między np. Ryzenem 5 2600X (druga generacja Zen) a Ryzenem 5 5600X (czwarta generacja Zen) może się zacierać. Dotyczy to głównie 4K (w 1440p możesz odczuć znaczną poprawę), gdzie wybór mocniejszego procesora może nie być uzasadniony. Limit bowiem osiąga w takim scenariuszu GPU. Wątek ten można podsumować krótko: wolniejszy procesor lepiej sprawdza się w 4K niż w Full HD. Czy tylko rozdzielczość ma znaczenie w kontekście CPU? Znaczenie ma nie tylko rozdzielczość, ale także wiele ustawień graficznych. Im wyższe detale ustawisz, tym CPU odegra mniejszą rolę. Wtedy więcej pracy będzie mieć GPU. Chyba że mowa o tych mocno zależnych od mocy procesora, np. geometrii, LoD (poziom szczegółowości), ilości obiektów, cieni i cząsteczek, zasięgu rysowania, polu widzenia (FOV), gęstości tłumu, roślinności i zasięgu jej widoczności czy opcjach związanych z fizyką. Ich obniżenie może zminimalizować efekt bottlenecku CPU. Jeśli masz potrzebę grać we wszystko w Ultra, budżet przechyl bardziej w stronę GPU niż CPU. Gdy karta graficzna nie będzie już dawać rady, wtedy możesz obniżyć ustawienia graficzne, które najbardziej obciążają ten komponent, by zwiększyć liczbę fps. Do takich opcji zaliczają się wygładzanie krawędzi (antyaliasing), jakość cieni, szczegółowość tekstur, okluzja otoczenia, oświetlenie, odbicia czy efekty postprocesowe. Prócz tego możesz zmniejszyć rozdzielczość. Czy pamięć RAM odgrywa ważną rolę przy wyborze CPU? Tak, nie liczy się tylko ilość (zbyt mała może doprowadzić do tzw. stutteringu i freezów, czyli z ang. ścinek i „zamrożeń obrazu”), ale także odpowiednio szybka pamięć operacyjna (RAM) ze stosunkowo niskimi opóźnieniami. Ma ona wpływ na wydajność procesora. Różnice odczujesz przede wszystkim w grach wykorzystujących głównie moc CPU i w rozdzielczościach do 1080p. W wyższych różnice w wydajności mogą być niewielkie (1440p) albo wręcz marginalne (2160p). Weź pod uwagę, że nie zawsze najszybsze pamięci to najlepszy wybór. Często przekroczenie pewnej granicy nie daje już tak znaczących rezultatów i nie warto dopłacać do pamięci np. powyżej 3600 MHz. Do współczesnych procesorów wystarczy zazwyczaj RAM DDR4 w trybie dual-channel pracujący z częstotliwością 3200 MHz i opóźnieniami CL 14-16. Pamięci poniżej 3000 MHz mogą ograniczać wydajność. Odpowiednie szybka pamięć operacyjna może zmniejszyć efekt wąskiego gardła w tych lokacjach gier, w których może on występować. Czyli? W miejscach, w których najbardziej liczy się wydajność procesora. Szczególnie wyraźne różnice mogą wystąpić pomiędzy pamięciami w trybie dual-channel a jedną kością (tzw. single-channel). Jaki RAM do laptopa, a jaki do desktopa? Doradzamy wybór pamięci Jak sprawdzić, czy procesor nie ogranicza karty graficznej? Najprościej byłoby wyposażyć komputer w nową kartę graficzną. Jeśli przyrost klatek na sekundę będzie w grach niewielki albo wręcz zerowy po jej wymianie, to wniosek nasuwa się sam. CPU najpewniej jest zbyt słabe, by napędzić GPU. Taka wymiana okaże się tylko stratą pieniędzy. Wiemy jednak, że nie każdy może sobie na to pozwolić, dlatego przedstawimy kilka sposobów, które pomogą rozpoznać bottleneck. Najpierw wyjaśnijmy, czym są miejsca procesorowe, a czym graficzne, bo są one kluczowe, by wykryć, jaki podzespół stanowi wąskie gardło w komputerze. Czym jest miejsce procesorowe? To takie, które wykorzystuje przede wszystkim moc CPU, a więc chociażby duże miasto wypełnione postaciami niezależnymi typu Novigrad i Beauclair z gry Wiedźmin 3: Dziki Gon oraz dodatku Krew i wino, czy pole bitwy w tytułach ze strategicznej serii Total War. W takich miejscach scena zmienia się dynamicznie, bo gracz widzi na ekranie np. wprawione w ruch postacie. Miejsce graficzne, jak możesz się domyślić, polega głównie na wydajności GPU, które nakłada tekstury oraz zajmuje się liczeniem wypełniających daną scenę cieni, rysowaniem rozbudowanej siatki geometrycznej (wstępną zajmuje się procesor) i obróbką każdego piksela. Takie miejsce są często określane statycznymi, w których stosunkowo niewiele się dzieje, ale jest co podziwiać. Przykładem takiego miejsca może być – jeśli pozostaniemy przy Wiedźminie 3 – puszcza niedaleko wsi Ferlund na Skellige. Czy MSI Afterburner pomoże rozpoznać bottleneck? Pomocna w uchwyceniu zjawiska wąskiego gardła może być darmowa aplikacja pokroju MSI Afterburner z dołączanym RivaTuner Statistics Server (RTSS). Pozwala ona na monitorowanie pracy procesora czy karty graficznej na bieżąco w grze. Z poniższego materiału wideo dowiesz się, jak wyświetlić niezbędne dane podczas rozgrywki dzięki MSI Afterburner: Co powie nam stopień obciążenie podzespołów, gdy trafimy do lokacji, w której GPU będzie obciążone zaledwie w 50-60%, a z procesora będą wyciskane ostatnie poty (wskaźnik będzie ciągle informował o niemal maksymalnym obciążeniu)? Albo np. trafiliśmy na miejsce typowo procesorowe, albo wydajność procesora niedomaga. Sprawdź, czy w tych lokacjach dochodzi do drastycznych spadków płynności animacji. Jeśli tak, to, owszem, CPU może stanowić przyczynę problemów z wydajnością. Często jednak sytuacja nie jest tak oczywista. Inny przykład: w miejscu procesorowym danej gry CPU jest obciążone w 60%, a karta graficzna w 97%. Na pierwszy rzut oka wydaje się, że problemu żadnego nie ma. Ale czy na pewno? No właśnie nie. W opisanym scenariuszu procesor również ogranicza wydajność GPU, mimo że wskaźniki tego nam nie mówią. Można nawet źle je odczytać i pomyśleć, że karta graficzna ogranicza wydajność, bo pracuje na pełnych obrotach, a płynność pozostawia wiele do życzenia. Opieranie swoich wniosków wyłącznie na podstawie stopnia obciążenia procesora i karty graficznej jest błędem! Nie można patrzeć na nie bezrefleksyjnie, bo same w sobie mogą nie mieć żadnej wartości. Mogą co najwyżej ułatwić wykrycie podzespołu, który stanowi wąskie gardło. Nie zapominaj, że może być nim także RAM. Wielu użytkowników łączy często nowoczesną jednostkę CPU z wolnymi pamięciami o np. szybkości 2133 czy 2666 MHz, co jest fatalnym pomysłem. Jak wspomnieliśmy, zamiana kości RAM na 3200-3600 MHz może tchnąć nowe życie w procesor, który poradzi sobie lepiej w lokacjach wymagających dużej mocy od tego podzespołu. Czy zmiana rozdzielczości i ustawień graficznych to recepta na wykrycie wąskiego gardła? Warto powyżej opisany sposób połączyć z innymi, co zwiększy prawdopodobieństwo wykrycia bottlenecku. Znaczenie procesora zwiększa się po obniżeniu rozdzielczości i/lub określonych detali. Jeśli zmniejszysz je i nie dadzą one pożądanego wzrostu wydajności, może być to oznaka wąskiego gardła. Może, lecz nie musi. Sporo zależy bowiem od silnika i optymalizacji gry – nie brakuje tytułów, w których zmiana ustawień graficznych nie daje zbyt wielkiego przyrostu fps, co automatycznie skreśla procesor jako źródło problemu. Poza tym jest mnóstwo ustawień graficznych zależnych od GPU, więc ten sposób nie będzie skuteczny. Lepszym wyjściem byłoby przetestowanie różnych procesorów w np. średnich detalach na mocnej karcie, by zobaczyć, czy i jakie zaszły zmiany w wydajności. Ale znowu – mało kto ma taką możliwość. Sprawdź zatem efekty po zmianie rozdzielczości. Jeśli np. w 1080p uzyskujesz (prawie) taką samą liczbę fps jak w 1440p, to znaczy, że problem stanowi procesor. Co ciekawe, może również okazać się, że nawet gdy testujemy daną grę w miejscu typowo graficznym, procesor może być ograniczeniem wydajności. Nawet w wyższych rozdzielczościach, 1440p i 4K, potrzebne jest odpowiednie CPU, co szczególnie widać na przykładzie chociażby Intel Core i3 i topowego GPU. We współczesnych grach cztery rdzenie (w tym i z HT/SMT) w wielu przypadkach nie są wystarczające do mocnych kart, i to wcale nie najnowszych generacji. Jeśli nadal masz wątpliwości, warto poszukać rzetelnych testów wydajności zarówno procesorów, jak i kart graficznych oraz podpytać ekspertów lub osoby bardziej zaznajomione z tematem np. na forach czy stronach internetowych i grupach społecznościowych. Najlepiej poznaj opinie różnych użytkowników – nigdy nie opieraj się tylko na jednej, która może wprowadzić Cię w błąd. Nic na tym nie stracisz, a możesz tylko zyskać dodatkową wiedzę, którą zawsze warto zweryfikować (albo przynajmniej spróbować). Jak rozpoznać, czy nasze połączenie CPU i GPU spisuje się źle? Gdy jako gracz zauważysz anomalie w postaci bardzo odmiennych wyników wydajności w różnych miejscach w danym tytule, zaczniesz się bez wątpienia zastanawiać: o co chodzi? Gdy zauważysz, że gra przez większość rozgrywki działa płynnie, natomiast w mieście pełnym NPC-ów (postaci niezależnych) spada ona drastycznie, to winowajcą nie będzie GPU. Wymiana tego podzespołu nic nie da, bo jego moc będzie blokowana przez procesor. Gdy rozgrywka nie jest satysfakcjonująca niezależnie od lokacji, Twoją uwagę powinna zwrócić karta graficzna. Jej wymiana może podnieść fps. Gdy ten komponent stanowi problem, możesz najpierw obniżyć detale i zobaczyć, czy przyniesie to pożądane efekty. Może jednak okazać się, że do danej gry zarówno procesor, jak i karta graficzna nie spełniają wymagań sprzętowych i wtedy konieczna będzie wymiana obu podzespołów. Zakup mocniejszego GPU może rozwiązać problem tylko połowicznie, ale wtedy jego wydajność ograniczać będzie przestarzałe i zbyt wolne CPU. Czy procesor zawsze musi być idealnie dobrany do karty graficznej? Procesor zwykle nie jest tak często wymienianym komponentem, jak np. karta graficzna. Czy zawsze trzeba idealnie dobrać CPU do GPU? I czy warto rozważyć przyszłościowy zakup procesora i jakie korzyści może przynieść taki wybór? Idealny tandem CPU i GPU to taki, który będzie idealny dla Ciebie Co to znaczy? Wiesz już, że dobór procesora do karty graficznej powinien być podyktowany tym, w co i jak grasz. W zależności od tego zainwestuj więcej w procesor lub kartę graficzną. Inaczej rozłóż budżet na CPU i GPU, jeśli grasz w strategie, zwłaszcza takie jak seria Total War. Wtedy kup mocniejszy procesor i słabszą kartę. Do takiego przeznaczenia podzespoły nie muszą się komponować się idealnie, ale nie popadaj w skrajności. Co innego, gdy grasz w gry wymagające przede wszystkim mocnego GPU. Wtedy nieco więcej pieniędzy przeznacz na kartę graficzną, ale – tak jak wcześniej wspomnieliśmy – z umiarem. Nie łącz np. Intel Core i3 z (prawie) topowym GeForce’em lub Radeonem. Gdy grasz w wysokich rozdzielczościach, zmiana procesora na nowszą generację może nie przynieść skoku wydajności w grach. Na przykład posiadacz Ryzena 5 3600X może nie zyskać żadnych korzyści w rozdzielczości 4K po wymianie na np. Ryzena 5 5600X. Wydaj wtedy nieco więcej na GPU. Nowsze CPU z kolei przyniosłoby poprawę wydajności przy dobrym GPU w 1080p. Pamiętaj, liczą się także Twoje potrzeby, a nie tylko ogólna wydajność podzespołów. Czy przyszłościowy zakup CPU ma sens? Dlaczego warto usiąść i chwilę zastanowić się nad tym, co nas czeka w przyszłości, przed wyborem CPU? Biorąc pod uwagę, że w konsolach obecnej generacji (PlayStation 5, Xbox Series X i Xbox Series S) sercem jest 8-rdzeniowy i 16-wątkowy procesor, warto rozważyć tak samo wyposażone CPU do komputera. Nawet jeśli zakupiony procesor nie będzie miał tak wydajnych rdzeni, jak jego następcy, to wystarczająca ich liczba może zaprocentować w przyszłych grach. Nowoczesne tytuły mogą dzięki temu lepiej działać. Może bowiem okazać się, że zbyt mała liczba rdzeni (wątków) ograniczy potem wydajność, czego przykładem w przeszłości były chociażby Assassin’s Creed: Origins, The Division 2 czy Battlefield V. Przykład procesora AMD Ryzen 5 1600X udowadnia, że czasem warto zainwestować z myślą o przyszłości. Przytoczony model dzięki konfiguracji 6-rdzeniowej i 12-wątkowej zestarzał się z godnością w przeciwieństwie do konkurencyjnego Intel Core i5-7600K z podobnego okresu. Dlaczego? Bo porównywalna w tamtym czasie jednostka Intela ma tylko 4 rdzenie i 4 wątki, co nie jest już wystarczające w nowoczesnych produkcjach, które wykorzystują więcej rdzeni. W tytułach stawiających mocniej na pojedynczy rdzeń Intel Core i5-7600K wypada często lepiej. W nowszych, czerpiących pełnymi garściami z wielordzeniowości grach Ryzen 5 1600X potrafi odstawać od swojego rywala. Jak bardzo? Niczym Usain Bolt od reszty zawodników podczas pamiętnego biegu na 100 metrów, który odbył się na Letnich Igrzyskach Olimpijskich 2008 w Pekinie. Ten model procesora „czerwonych” zestarzał się tak udanie, że AMD postanowiło nawet odświeżyć go jako Ryzen 5 1600 AF, który wykorzystuje usprawnioną architekturę (Zen+) i niższy proces technologiczny (12 nm zamiast 14 nm). Dzięki temu zbliżył się on wydajnością do konkurencyjnego Intel Core i5-9400F (znacznie nowszego niż Core i5-7600K). Podobnie może być za kilka lat, gdy na rynek zaczną trafiać gry tworzone z myślą wyłącznie o konsolach PS5 i Xbox Series X/S. Do tych gier konfiguracja 6/12 może już wypadać blado na tle 8/16. Bliżej temu do wróżenia z fusów herbacianych, chociaż takie myślenie ma solidne podstawy. Mocniejszy procesor otwiera też później ścieżkę do zakupu wydajniejszego GPU. Czasem można więc zainwestować więcej, ale rozsądnie – tak, by nie przesadzić ani w jedną, ani w drugą stronę. Dlaczego? Postęp w kolejnych generacjach trudno przewidzieć, więc niekoniecznie musi być to dobre rozwiązanie. Teraz jest łatwiej, bo jesteśmy po premierze nowych konsol, więc zakup np. Ryzena 7 5800X może się opłacić, zwłaszcza jeśli nie zamierzasz wymienić go w najbliższych latach. Czy może jednak przyszłościowy zakup procesora nie ma sensu? Jaka jest druga strona medalu, jeśli chodzi o przyszłościowy zakup procesora? Niestety, istnieje ryzyko, że moc procesora może nie być wystarczająca w grach za kilka lat, nawet jeśli wydaje się nam, że kupiliśmy CPU na długi okres. Duża liczba rdzeni może sprawić, że lepiej się zestarzeje, ale może być trudno później zakryć pozostałe niedoskonałości lub braki, które wyjdą z biegiem czasu. Z rdzeniami też może nie być tak różowo. Sony i Microsoft chcą jeszcze przez długie lata wspierać starsze konsole. Zanim będzie odpowiednio duża liczba gier, które w pełni skorzystają z dobrodziejstw procesora 8-rdzeniowego i 16-wątkowego, mogą minąć wieki. Wiesz już, do czego zmierzamy, prawda? Wybór takiego CPU może mieć mniejszą zasadność, bo zbyt brzydko się zestarzeje, nim faktycznie przyda się w grach. Jest to bardziej skomplikowane, niż się wydaje, ponieważ zależy od wielu czynników: jak gry będą wykorzystywać rdzenie, jaki postęp nas czeka w architekturach CPU i jak wiele tytułów skorzysta z nowości. Progres wydajnościowy nie był w ostatnich latach tak duży, jak w przypadku kart graficznych, więc ryzyko, że procesor danej generacji okaże się zbyt słabym ogniwem po premierze kolejnej, jest niższe niż w pierwszej dekadzie XXI wieku. W ramach podsumowania warto jeszcze dodać, że jeśli planujesz przesiadkę na monitor o wyższej rozdzielczości, to przesadna inwestycja w procesor nie ma większego sensu. Wiesz w końcu, że wraz z jej wzrostem znaczenie tego podzespołu maleje, a na główny plan trafia karta graficzna. Jest szansa, że CPU, które może nie spełniać oczekiwań w 1080p, bez problemu wystarczy do rozgrywki w 4K. Jakie mogą być skutki złego dopasowania CPU i GPU? Niewłaściwy dobór procesora do karty graficznej może przynieść fatalne konsekwencje. Jeśli np. połączysz Intel Celeron lub Pentium z GeForce’em RTX 3080, to w grach taki zestaw może spisywać się wyraźnie gorzej niż połączenie procesora Intel Core i9-11900K i RTX-a 3060. Nie będzie to dobry pomysł. Im gorzej dobierzesz te podzespoły, tym komfort rozgrywki będzie mniejszy. Skoro CPU może ograniczać wydajność GPU nawet w miejscach typowo graficznych, nie dobieraj procesora z najniższej półki do karty z najwyższej (to, rzecz jasna, skrajny przykład dla lepszego zobrazowania). Jak jednak wspomnieliśmy, podzespoły nie muszą być idealnie dobrane, to wszystko zależy od wielu czynników. Jeśli kupisz mocną kartę graficzną, ale Twój obecny procesor tylko w niewielkim stopniu ją ogranicza, to nic złego się nie stanie. Nie będziesz po prostu wykorzystał w 100% jej mocy, ale w grach, w których uzyskujesz np. 165 zamiast 180 klatek na sekundę, nie zrobi to chyba wielkiej różnicy, nieprawdaż? Poza tym, gdy zmienisz potem CPU, problem zniknie. Z dwojga złego lepiej mieć zbyt mocny procesor względem karty graficznej niż na odwrót. Poza wyjątkiem, gdy różnice są stosunkowo niewielkie albo wręcz nieodczuwalne. Nawet jeśli są gry, w których procesor przekłada się na większą rozbieżność w wynikach, to jest w nich na tyle dużo klatek na sekundę, że ich liczba przestaje mieć znaczenie. Może stać się też tak, że nawet jeśli w jakiejś grze procesor będzie stanowił problem, to objawi się tylko w pojedynczych lokacjach, np. w dużym mieście pełnym NPC-ów, a w innych przypadkach, zależnych głównie od mocy GPU, gra będzie chodziła bez większych zgrzytów. Musisz odpowiedzieć sobie na pytanie: czy taki scenariusz stanowi dla Ciebie problem, który należy rozwiązać? Najlepsze połączenie procesora i karty graficznej Recepta jest prosta. Staraj się dobierać niskiej klasy procesor do niskobudżetowej karty graficznej, średnie CPU do przeciętnego GPU itd. Nie trzeba się jednak trzymać sztywno tych granic. W końcu jeśli grasz w gry zależne w większym stopniu od karty graficznej, zdecyduj się na nieco mocniejszy układ nawet przy nieco słabszym procesorze. Takie połączenie będzie wtedy jak najbardziej uzasadnione. Podsumowując, kluczem jest dobór zrównoważonych podzespołów, tak by jeden nie odstawał znacząco wydajnością od drugiego. Za liczbę fps nie odpowiada wyłącznie karta graficzna – w zależności od gry czy scenariusza większy lub mniejszy wpływ na wartość klatek na sekundę ma także procesor (i w mniej odczuwalnym stopniu pamięć RAM). Mamy nadzieję, że nasz poradnik ułatwi Ci wybór odpowiednich komponentów. Przed decyzją o zakupie procesora do określonej karty graficznej, zapoznaj się z jego specyfikacją i testami wydajności w tych grach, w których ma Ci on służyć. To zdecydowanie ułatwi Ci wybór i dopasowanie CPU do GPU. Przeczytaj więcej o polecanych procesorach do gier na portalu Geex Odkryj najlepsze procesory w sklepie x-kom Sprawdź pełną ofertę kart graficznych w x-komie
Zaktualizuj sterowniki ręcznie. Jeśli karta graficzna Nvidia nie zostanie wykryta w systemie Windows 10, możesz rozwiązać ten problem, pobierając najnowsze sterowniki dla swojego urządzenia. Przedtem należy odinstalować wszystkie poprzednie sterowniki Nvidia, które posiadasz. Aby to zrobić, wykonaj następujące kroki:
Recommended Posts Udostępnij Witam wszystkich od dłuższego czasu dręczy mnie mały dylemat, chciałbym zmodernizować trochę swój komputer jednak z racji ograniczonego budżetu mogę sobie pozwolić na zmianę 1 kluczowego podzespołu, moj obecny sprzet to: AMD Athlon 7850 x2 2,[email protected] 2x2GB Ram ddr2 800mhz patriot płyta asus M3A-H/HDMI na chipsecie amd 780G socket AM2+ karta graficzna asus 4850 ddr3 625/993 (1986) mhz zasilacz pentagram 500W Nie wiem czy wąskim gardłem w moim zestawie jest obecnie procesor czy karta graficzna, chciałbym zakupić radeona 6850 albo jakis procesor 4 rdzeniowy athlon albo phenom co sadzicie? Cytuj Link to post Share on other sites Udostępnij athlon x3 450 do malego OC (phenom daje tak nieznacznie wiecej ze sie nie oplaca) + 6870 jesli finanse to x3 + 5770 na tej plycie to za duzo nie zdzialasz - nie pomijam faktu ze pomiedzy ath x4 a x3 nie istnieje sensowna roznica wydajnosciowa Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Udostępnij A ile masz kasy ? Co do Phenoma to sie nie zgadzam, ze daje nieznacznie wiecej (bo daje nie dosc, ze cache potrzebny grom, to jeszcze daje dodatkowy rdzen, zreszta to wszystko i tak wysiada przy Intelu) Cytuj Link to post Share on other sites Udostępnij rozni sie owszem o 6-8% po oc obu wiec niezgadzac sie mozesz tylko czy za te drobne jest sens doplacac - nie lepiej doplacisc wiecej do karty jak juz do czegos ma doplacic a wiecej dostanie niz kilka procent 150 do karty to juz z 5770 robi sie 6850 i nie bedzuie to roznica 6% bezsensem jest kupno phenoma - i nie ma na to rady chyba ze ktos chce wywalac kase nie zapopomne wspomniec o tej plycie ktora ledwo co pozwoli oclic x3 bo na cleniu phenoma to sie zdymi Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij Myślałem o zakupie 5770 ale stwierdziłem że odpuszczę serie 5000 i zaczekam na 6000 w przystepnej cenie, tego 4850 kupilem zaraz jak wyszly te karty i 3 lata dobrze mi sluzyl, dlatego chce aby nastepna karta tez troche posluzyla, pozatym modowalem w niej chlodzenie i dziala na samym radiatorze. Co do plyty to nie mam co na nia narzekac, kupowalem ja razem z karta ale ona byla z tej sredniej polki, obsluguje wszystkie dostepne procesory athlon/phenom. Co do procesorow 3 rdzeniowych to srednio jestem do nich przekonany, takie wybrakowane wedlug mnie sa. cena jaka moge wydac to kolo 400zl na procka lub 600 na karte (poczekam az kurs troche spadnie) co do pamieci L3 to moj procesor tez ja posiada Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Twoj jest starym gratem - nie wydajnym pomimo iz posiada l3 ath2 x3 bez l3 bedzie dwa razy wydajniejszy co do plyty to tylko zdanie sprzedawcy ze jest ze sredniej polki - no moze kiedys dawno temu byla ze sredniej - teraz jest z najnizszej mozliwej testy sie licza a nie Twoje zdanie - testy mowia co innego Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij testy sie licza a nie Twoje zdanie - testy mowia co innego co uwazasz za testy ktore to potwierdzaja? oczywiscie nie mowie tu o porownaniu jej z segmentem z wyzszej polki, nie bawie sie tez w oc wiec co mi jeszcze potrzebne jest w plycie? 4 gniazda pamieci sa, 100% kondensatory polimerowe, obsluga procesorow na dobrym poziomie, stabilnosc itd... przed jej kupnem siedzialem z tydzien czasu przegladajac testy i porownujac ja do innych. obecnie myslalem nawet nad wymiana plyty juz na am3+ przyszlosciowo myslac o buldozerku ale troche sie zaiodlem jego osiagami przy wykorzystaniu w grach a co do procka to padl wybor na tego a zrezygnowalem z athlona 6000+ Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij ma tylko 5 faz i to trak rozlozonych ze nie da sie ich "zradiatorowac" 5 to bedzie sie grzalo zeby mialo sie nie grzac nmusiala by miec znacznie wiecej lub piec ale z radiatorem - ta plyta jak na obecne czasy jest pozbawiona sensownej sekcji zasilania OC to nie jest zabawa - to cos co sie robi zeby uzyskac duzo- czesto wiecej niz mozna kupic za jakiekolwiek pieniadze zabawa to jest w piaskownicy wpuisz modelk swopjegop procka+review wpisz inne plus review wybacz ale ja rzucam tylko haslo - chcesz to dochodz sam nie chcesz to nie dochodz gdybynm mial wszystko sam argumentowac to musilabym tu spedzac 2x wiecej czasu niz spedzam a i tak za duzo go poswiecam Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij wpisz inne plus review nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efekty Cytuj Link to post Share on other sites Udostępnij nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efektyOdpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. Cytuj Link to post Share on other sites Udostępnij Na phenom x4 955BE było by jeszcze lepiej. Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Edytowane 20 Października 2011 przez Skitles Cytuj Link to post Share on other sites Autor Udostępnij Odpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. z tym ze w starym procesorze miales taktowanie 2,2 a w nowym 2,8 a to jest roznica a u mnie duzo sie nie zmieni, z 3ghz moze na 3,2 Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Niestety ta plyta nie ma mozliwosci odblokowania rdzeni A może miał ktoś wydajnościowo podobny procesor do tego i zmienił grafike na 6850? Edytowane 21 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Ja mam 7550 i Geforce 8800GTS512 i mogę go podkręcić na ale to i tak nic nie daje. Możesz sobie kupić do niego 6850 albo zostawić 4850 i kupić phenom x4. Ja już kupiłem płytkę na am3, brakuje mi ramu ddr3 i procesora. 8800GTS512 zostawiam sobie wole mieć mocny procesor. Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
. 65 257 304 84 132 78 83 405
karta graficzna nie wykorzystuje swojej mocy