GeForce 7900GT

Nowy proces technologiczny 90nm to dobra okazja, aby odświeżyć linię wydajnych kart graficznych. Po niecałym roku od premiery procesorów 7800GTX, nVidia wprowadza nowe modele kart opartych na architekturze G70.

W zasadzie nie obserwujemy tu żadnych spektakularnych kroków do przodu. Bardziej zaawansowana technologia wykonania to mniejsze tranzystory, a tym samym mniejszy pobór prądu i mniej wydzielanego ciepła. To pozwala nVidii zwiększyć częstotliwości taktowania i wydajność GPU.

Dwie pierwsze karty to ulepszone modele dotychczasowych produktów - odpowiednio 7800GT i 7800GTX, ale dla oznaczonej symbolem 7600GT to debiut.
Do póki karty 6600GT cieszyły się wystarczająco dużą popularnością, nVidia nie musiała wprowadzać w tym przedziale cenowym nowych produktów. Jednak powoli ośmiopotokowym 6600 zaczęła zagrażać nowsza seria ATi X1600 i nVidia w końcu była zmuszona zaserwować nam nowe, wydajniejsze karty z 12-potokowym GPU i pamięciami o wyższej przepustowości.

Obie wersje 7900 mają w tej chwili tę samą liczbę potoków i jednostek vertex, a różnią się jedynie częstotliwością GPU i pamięci, a także jej ilością. GTX ma jej aż 512MB.

A wszystko wskazuje na to, że w przyszłości nigdy więcej nie będziemy świadkami takich zmagań o 'pełną zgodność z DX i Modele Cieniowania', bo począwszy od DirectX 10, który ma zostać wprowadzony wraz z Windows Vista, funkcje 3D będą przypisane do wersji Direct3D. Oznacza to, że wszyscy sprzedawcy 3D będą obsługiwać te same funkcje, zapewniając kompatybilność wszystkich platform. Mimo że brzmi to wspaniale, wprowadzenie bardziej standardowego środowiska spowoduje, że Microsoft będzie już wkrótce kontrolował pojawianie się nowych funkcji 3D, pozostawiając firmy takie jak NVIDIA i ATI na swojej łasce.

Vista i DirectX 10 nie oznaczają czarnego scenariusza dla przemysłu gier. Poprawią zarówno wydajność jak i wszechstronność sprzętu graficznego. Procesory graficzne, dla przykładu w systemie Vista obsłużą szeregowanie i umiejętność udostępniania podobnie jak CPU. Użytkownicy będą mogli uruchamiać wiele aplikacji 3D, które będą dzielić pamięć, cykle procesora i inne zasoby, co nie jest możliwe w poprzednich wersjach systemu Wind

GeForce 7900GT oferuje wydajność nieco wyższą niż 7800GTX, co przy jego stosunkowo niskiej cenie zapowiada tej karcie niezłą przyszłość. W tej sytuacji karty z serii 7800 albo będą musiały mocno potanieć, albo całkowicie zniknąć z oferty.
Równie dobrze wypada 7600GT, który dorównał mocą staremu 6800 Ultra i jest dużo szybszy od 6800GS.

 

 

Pięć rzeczy, których nie wiedzieliście o Dual-Core
Czy 2.8+2.8 faktycznie równa się 5.6GHz?

Procesory dual core stały się takim przedmiotem szumu medialnego, że wyobrażenie technologii wydaje się przerastać rzeczywistość. Zarówno
AMD jak i Intel utworzyły strony internetowe, na których wychwalają zalety swoich urządzeń dual-core. Ma to sens, ponieważ większość obserwatorów rynku twierdzi, że rok 2006 ma być rokiem dominacji dual-core.

Jednakże, pośród wielu nowych historii na ten temat, znaleźć też można zaskakujące i rzadko spotykane fakty. Tak więc, chcemy przedstawić Wam pięć rzeczy, których najprawdopodobniej nie wiedzieliście na temat dual core.


Intel i AMD nie byli pierwszymi, którzy dostarczyli procesory dual-core

Szeroko uznawane założenie mówi, że pojedynek dual-core toczony jest jedynie na ziemi pecetów, gdzie AMD i Intel rywalizują
o tytuł pierwszego na rynku. To prawda. W rzeczywistości, IBM pobił obie firmy wielordzeniowym uderzeniem, jednak nie za pomocą procesora serwerowego X86. Wydarzyło się to, gdy Big Blue przedstawił swój dual-core Power 4 chip w 2001, wykorzystany w serwerach RISC IBMa w 2001 roku.

AMD i Intel ogłosiły swoje plany dotyczące dual core w 2004 roku i rozpoczęły dostawy w 2005. (
Tu dla AMD, a tu dla Intela)
Jednakże istnieje tak zawrotna liczba części dual-core - włącznie z serwerem
Opteron dual-core i układami desktopowymi Athlon 64 od AMD, Pentiumami i Xeonami dual-core od Intela - że trudno nadążyć za burzą nowości z obu firm.
 
Na froncie urządzeń mobilnych IBM jest także technicznym zwycięzcą wyścigu rynkowego dzięki układowi o niskim zapotrzebowaniu na energię
PowerPC 970FX, przedstawionym w 2005 roku. Jednak jest to produkt OEM, który nie jest dostępny dla przeciętnego użytkownika.  Nie jest także częścią x86.

W świecie x86, Intel wygrał wyścig mobile dual-core, dzięki, przedstawionemu w styczniu Centrino Duo. Urządzenie mobilne zasila popularnego nowego
iMaca, mimo faktu, że iMac jest desktopem.  (od środka zaprojektowany jest tak jak duży notebook upchany w tył panelu LCD, tak jak pokazuje to wnętrze) Nowy iMac jest także pierwszym komputerem Apple, który

Dual-core został wymuszony przez techniczne wyzwania, a nie przyjęty proaktywnie

Prawdziwym powodem, dla którego Intel i AMD zdecydowały się na tę technikę nie był fakt, że dual-core nagle, nie wiadomo dlaczego, okazał się świetnym pomysłem.  Rzeczywiście, producenci układów byliby bardziej zadowoleni z postępu polegającego na produkcji coraz szybszych, jednordzeniowych procesorów.  Jednakże, nie było to możliwe ponieważ w chwili, gdy taktowanie zegarów procesorów przekroczyło barierę 3 GHz, jednordzeniowe procesory zaczęły zużywać zbyt dużo energii.
 
W rzeczy samej, w 2005 roku Intel postanowił zrezygnować z planowanego 4.0 GHz procesora "Tejas", gdy okazało się, że układ roztrwaniał więcej niż 100 watów.

Wraz ze wzrostem wydajności, super szybkie jednordzeniowe procesory stały się drogie w chłodzeniu, wymagają większych radiatorów i potężniejszych wiatraczków, które są w stanie utrzymać eksploatacyjną temperaturę.  

Pierwsze procesory dual-core otworzyły drogę ku poprawie wydajności i równocześnie odsunęły na jakiś czas konieczność uporania się z nadmiernym poborem energii i ilości wydzielanego ciepła.  "Stało się tak dlatego, że jako producent procesorów, tylko w ten sposób byliśmy w stanie zapewnić wydajność przy odpowiednim zużyciu energii" powiedziała w wywiadzie dla TechWeb Margaret Lewis, szef rozwiązań komercyjnych w AMD.

Oczywiście, surowi konstruktorzy półprzewodników chcieliby zaliczyć to do rozmowy o
napięciu układów, rozmiarze cech układów i innych technicznych czynnikach.  (niektóre postępy na tych polach sprawiają, że utrzymywanie niskiego napięcia są jeszcze większym wyzwaniem).
W dodatku, niektóre zaprzeczają twierdzeniu, że dual-core jest panaceum na wszystko. Jak czytamy w artykule opublikowanym przez
Linuxhardware.org w czerwcu 2005, Going In-Depth With Dual Core: "Z naszego punktu widzenia dual-core nie jest nowy; jest starym produktem (Symmetric Multiprocessing), który został powołany do życia po raz drugi... Wciąż pozostają te same pytania dotyczące różnicy w wydajności pomiędzy 2 procesorami, a pojedynczym."  wykorzystuje procesor Intela.

Dual-core niekoniecznie sprawi, że zegary komputerów będą kręcić się szybciej, ale przyspieszą jego pracę

Nie ma niczego szybszego z natury w procesorach dual-core niż w single-core.  Jeśli wszystko czego chcecie to częstotliwość zegara procesora, powinniście kupić najszybszy procesor jaki możecie znaleźć.

Najszybszymi procesorami single-core od Intela są
3.8 GHz Pentium 4 model 670 i 3.6 GHz Pentium 4 model 660. Najszybszym dual-core dostępnym w chili pisania artykułu jest 3.2 GHz Pentium D 840. (3.6 dual-core GHz Pentium D 960 ma pojawić się w drugim kwartale 2006.)

W przypadku AMD, prędkości procesorów single/dual- core są porównywalne. Jednordzeniowy
Athlon 64 4000+ pracuje z częstotliwością 2.4 GHz. Dwurdzeniowy Athlon 64 X2 4800+ taktowany jest 2.4 GHz. Jednakże, 2 rdzenie zasuwające z częstotliwością 2.4 GHz na pewno będą bardziej wydajne od pojedynczego rdzenia. 2 rdzenie pracujące z niższą częstotliwością niż 2.4 GHz powinny dostarczyć większą moc obliczeniową niż jednordzeniowe urządzenie.

Prawdopodobnie może dziwić, że nie podwoją one wydajności. (wynika to z dzielenia zasobów przez dwa rdzenie.) "Co widzieliśmy, to wzrost wydajności na poziomie między 1.4 a 1.8 raza, w zależności od aplikacji" powiedział Lewis.

Oto jak ujął to Shekhar Borkar,
w wywiadzie z 2004: "Gdy podwoi się liczbę rdzeni, ma się wciąż tę samą moc, ale prawie dwa razy większą ilość przerobionego materiału." (Borkar nie kładzie takiego nacisku na znaczenie strat wynikających z dzielenia zasobów.)

Wiele technicznych źródeł sprzeciwia się problemowi wydajności,
tak jak i Wikipedia, przez wskazanie, że "wielordzeniowe procesory wymagają obsługi systemu operacyjnego, aby w pełni wykorzystać drugie źródło mocy obliczeniowej."

W skrócie, multithreading jest kluczem do wysokiej wydajności.
Multithreading stał się popularny w przeciągu ostatnich paru lat w środowiskach jednordzeniowych i jest jeszcze bardziej wykorzystywane w przypadku dual core. "Uruchamiacie aplikację w trybie multithreaded każdego dnia na swoim komputerze; nazywa się ona OS" dodał Lewis. "Zawsze mieliście wielowątkowe środowisko. Dual core sprawia, że wielowątkowe środowisko działa jeszcze wydajniej."

Intel jest również
orędownikiem wielowątkowości. Chipowy gigant podkreśla, że produkty dual-core, które obsługują technologię Hyper-Threading "są w stanie przetwarzać cztery programowe wątki równocześnie dzięki bardziej efektywnemu wykorzystaniu zasobów, które w innym wypadku leżałyby odłogiem."

Jeżeli chodzi o dual-core, zastrzeżenie polega na tym, że dużo mówi się na temat tego jak dobrze wykorzystuje się w tej chwili wielowątkowość i w jakim stopniu istniejące systemy operacyjne i aplikacje są w stanie wykorzystywać przewagę procesorów dual-core. (W przypadku systemów operacyjnych, część wersji Linuxa obsługuje dual core, natomiast
Windows Vista będzie pierwszym systemem Microsoftu, który został zaprojektowany przede wszystkim z myślą o dual core.)

Prawie połowa użytkowników PC wciąż wie niewiele na temat dual core

Jak informuje ankieta przeprowadzona przez Harris Interactive, prawie 3 lata po premierze Opterona, 48 procent użytkowników PC nie jest zorientowana czym jest procesor dual core. (w świecie biznesowym rzecz ma się oczywiście inaczej. Powszechnie wiadomo, że świat biznesu zdaje sobie sprawę z mocy, którą dual core może dostarczyć.)

Ankieta zorientowana na domowych użytkowników, pokazała, że 42 procent właścicieli komputerów twierdzi, że są zaznajomieni z technologią dual-core, a 10 procent, że zna ją na wylot. Z pośród tych 52 procent mających mgliste pojęcie lub pełną wiedzę, tylko 12 ma system dual core.

Ten niewielki odsetek powinien wkrótce się zwiększyć. Badacze rynku z Frost & Sullivan przewidują, że procesory dual-core zastąpią około 15 do 25 procent układów single-core rocznie w desktopach, notebookach i serwerach. Intel może się spodziewać szybszego wzrostu - planuje sprzedać
60 milionów procesorów dual-core w 2006.

Aby zwiększyć świadomość klientów, zarówno Intel jak i AMD korzystają z Hollywood. Intel niedawno gościł konkurs,
Intel Indies Film Contest, w którym nagrodą za najlepszy krótkometrażowy film był sprzęt ViiV PC.

Turniej wideo AMD nazwany jest
The 64 Second Film Contest. AMD twierdzi, że pokazy porównawcze podtrzymują opinię, że procesory Athlon 64 X2 "wynoszą możliwość tworzenia treści i wydajność multimedialną na inny poziom".

Podczas gdy zwycięzcy obu konkursów są dobrze wykonani (filmy Intela opowiadają historie, krótkometrażonwe filmy AMD bardziej przypominają krótkie reklamówki) nie zdradzają, że były obrabiane w inny sposób niż za pomocą PC :)


Dual-core nie jest ostatnim słowem w najnowocześniejszej informatyce

W przeciągu kilku lat, dual core może stać się technologią przeszłości. Intel już przygotowuje
czterordzeniowe procesory serwerowe, które wejdą do sprzedaży w 2007 roku. AMD także pracuje nad podobnymi układami.

W dalszych planach Intel ma zamiar przygotować ośmiordzeniowe urządzenie, o nazwie kodowej Yorkfield, które dostarczy w 2008 roku. AMD nie podaje tylu szczegółów, informuje za to o tym, że przygotowuje
więcej niż dwurdzeniowe urządzenia na rok 2007.

Na froncie non-x86, Sun już oferuje
ośmiordzeniowe procesory w formie UltraSparc T1 (wcześniej Niagara).

Rzeczywiście, coraz więcej rdzeni będzie w użyciu w przyszłości. "Wszystkie układy skończą jako wieloprocesorowe chipy, a my musimy się nauczyć jak je programować"
powiedział EE Times zeszłej jesieni Simon Davidmann, założyciel Co-Design Automation Inc