GeForce 7900GT
Nowy proces technologiczny 90nm to dobra okazja,
aby odświeżyć linię wydajnych kart graficznych. Po niecałym roku od premiery
procesorów 7800GTX, nVidia wprowadza nowe modele kart opartych na
architekturze G70.
W zasadzie nie obserwujemy tu żadnych
spektakularnych kroków do przodu. Bardziej zaawansowana technologia
wykonania to mniejsze tranzystory, a tym samym mniejszy pobór prądu i mniej
wydzielanego ciepła. To pozwala nVidii zwiększyć częstotliwości taktowania i
wydajność GPU.
Dwie pierwsze karty to ulepszone modele
dotychczasowych produktów - odpowiednio 7800GT i 7800GTX, ale dla oznaczonej
symbolem 7600GT to debiut.
Do póki karty 6600GT cieszyły się wystarczająco dużą popularnością, nVidia
nie musiała wprowadzać w tym przedziale cenowym nowych produktów. Jednak
powoli ośmiopotokowym 6600 zaczęła zagrażać nowsza seria ATi X1600 i nVidia
w końcu była zmuszona zaserwować nam nowe, wydajniejsze karty z 12-potokowym
GPU i pamięciami o wyższej przepustowości.
Obie wersje 7900 mają w tej chwili tę samą liczbę potoków i jednostek vertex,
a różnią się jedynie częstotliwością GPU i pamięci, a także jej ilością. GTX
ma jej aż 512MB.
A wszystko wskazuje na to, że w przyszłości nigdy
więcej nie będziemy świadkami takich zmagań o 'pełną zgodność z DX i Modele
Cieniowania', bo począwszy od DirectX 10, który ma zostać wprowadzony wraz z
Windows Vista, funkcje 3D będą przypisane do wersji Direct3D. Oznacza to, że
wszyscy sprzedawcy 3D będą obsługiwać te same funkcje, zapewniając
kompatybilność wszystkich platform. Mimo że brzmi to wspaniale, wprowadzenie
bardziej standardowego środowiska spowoduje, że Microsoft będzie już wkrótce
kontrolował pojawianie się nowych funkcji 3D, pozostawiając firmy takie jak
NVIDIA i ATI na swojej łasce.
Vista i DirectX 10 nie oznaczają czarnego scenariusza dla przemysłu gier.
Poprawią zarówno wydajność jak i wszechstronność sprzętu graficznego.
Procesory graficzne, dla przykładu w systemie Vista obsłużą szeregowanie i
umiejętność udostępniania podobnie jak CPU. Użytkownicy będą mogli
uruchamiać wiele aplikacji 3D, które będą dzielić pamięć, cykle procesora i
inne zasoby, co nie jest możliwe w poprzednich wersjach systemu Wind
GeForce 7900GT oferuje wydajność nieco wyższą niż
7800GTX, co przy jego stosunkowo niskiej cenie zapowiada tej karcie niezłą
przyszłość. W tej sytuacji karty z serii 7800 albo będą musiały mocno
potanieć, albo całkowicie zniknąć z oferty.
Równie dobrze wypada 7600GT, który dorównał mocą staremu 6800 Ultra i jest
dużo szybszy od 6800GS.
Pięć rzeczy, których nie
wiedzieliście o Dual-Core
Czy 2.8+2.8 faktycznie równa się 5.6GHz?
Procesory dual core stały się takim przedmiotem szumu medialnego, że
wyobrażenie technologii wydaje się przerastać rzeczywistość. Zarówno
AMD jak i
Intel utworzyły
strony internetowe, na których wychwalają zalety swoich urządzeń dual-core.
Ma to sens, ponieważ większość obserwatorów rynku twierdzi, że rok 2006 ma
być rokiem dominacji dual-core.
Jednakże, pośród wielu nowych historii na ten temat, znaleźć też można
zaskakujące i rzadko spotykane fakty. Tak więc, chcemy przedstawić Wam pięć
rzeczy, których najprawdopodobniej nie wiedzieliście na temat dual core.
Intel i AMD nie byli pierwszymi, którzy dostarczyli
procesory dual-core
Szeroko uznawane założenie mówi, że pojedynek dual-core toczony jest jedynie
na ziemi pecetów, gdzie AMD i Intel rywalizują
o tytuł pierwszego na rynku.
To prawda. W rzeczywistości, IBM pobił obie firmy wielordzeniowym
uderzeniem, jednak nie za pomocą procesora serwerowego X86. Wydarzyło się
to, gdy Big Blue przedstawił swój
dual-core Power 4
chip w 2001, wykorzystany w serwerach
RISC IBMa w 2001
roku.
AMD i Intel ogłosiły swoje plany dotyczące dual core w 2004 roku i
rozpoczęły dostawy w 2005. (Tu
dla AMD, a
tu dla Intela)
Jednakże istnieje tak zawrotna liczba części dual-core - włącznie z serwerem
Opteron dual-core
i układami desktopowymi Athlon 64 od AMD, Pentiumami i Xeonami dual-core od
Intela - że trudno nadążyć za burzą nowości z obu firm.
Na froncie urządzeń mobilnych IBM jest także technicznym zwycięzcą wyścigu
rynkowego dzięki układowi o niskim zapotrzebowaniu na energię
PowerPC 970FX,
przedstawionym w 2005 roku. Jednak jest to produkt OEM, który nie jest
dostępny dla przeciętnego użytkownika. Nie jest także częścią x86.
W świecie x86, Intel wygrał wyścig mobile dual-core, dzięki, przedstawionemu
w styczniu Centrino Duo. Urządzenie mobilne zasila popularnego nowego
iMaca, mimo faktu, że
iMac jest desktopem. (od środka zaprojektowany jest tak jak duży notebook
upchany w tył panelu LCD, tak jak pokazuje to wnętrze) Nowy iMac jest także
pierwszym komputerem Apple, który
Dual-core został wymuszony
przez techniczne wyzwania, a nie przyjęty proaktywnie
Prawdziwym powodem, dla którego Intel i AMD zdecydowały się na tę technikę
nie był fakt, że dual-core nagle, nie wiadomo dlaczego, okazał się świetnym
pomysłem. Rzeczywiście, producenci układów byliby bardziej zadowoleni z
postępu polegającego na produkcji coraz szybszych, jednordzeniowych
procesorów. Jednakże, nie było to możliwe ponieważ w chwili, gdy taktowanie
zegarów procesorów przekroczyło barierę 3 GHz, jednordzeniowe procesory
zaczęły zużywać zbyt dużo energii.
W rzeczy samej, w 2005 roku Intel postanowił zrezygnować z planowanego 4.0
GHz procesora "Tejas", gdy okazało się, że układ roztrwaniał więcej niż 100
watów.
Wraz ze wzrostem wydajności, super szybkie jednordzeniowe procesory stały
się drogie w chłodzeniu, wymagają większych radiatorów i potężniejszych
wiatraczków, które są w stanie utrzymać eksploatacyjną temperaturę.
Pierwsze procesory dual-core otworzyły drogę ku poprawie wydajności i
równocześnie odsunęły na jakiś czas konieczność uporania się z nadmiernym
poborem energii i ilości wydzielanego ciepła. "Stało się tak dlatego, że
jako producent procesorów, tylko w ten sposób byliśmy w stanie zapewnić
wydajność przy odpowiednim zużyciu energii" powiedziała w wywiadzie dla
TechWeb Margaret Lewis, szef rozwiązań komercyjnych w AMD.
Oczywiście, surowi konstruktorzy półprzewodników chcieliby zaliczyć to do
rozmowy o
napięciu układów,
rozmiarze cech układów i innych technicznych czynnikach. (niektóre postępy
na tych polach sprawiają, że utrzymywanie niskiego napięcia są jeszcze
większym wyzwaniem).
W dodatku, niektóre zaprzeczają twierdzeniu, że dual-core jest panaceum na
wszystko. Jak czytamy w artykule opublikowanym przez
Linuxhardware.org w czerwcu 2005,
Going In-Depth With Dual Core:
"Z naszego punktu widzenia dual-core nie jest nowy; jest starym produktem
(Symmetric Multiprocessing), który został powołany do życia po raz drugi...
Wciąż pozostają te same pytania dotyczące różnicy w wydajności pomiędzy 2
procesorami, a pojedynczym." wykorzystuje procesor Intela.
Dual-core niekoniecznie sprawi,
że zegary komputerów będą kręcić się szybciej, ale przyspieszą jego pracę
Nie ma niczego szybszego z natury w procesorach dual-core niż w single-core.
Jeśli wszystko czego chcecie to częstotliwość zegara procesora, powinniście
kupić najszybszy procesor jaki możecie znaleźć.
Najszybszymi procesorami single-core od Intela są
3.8 GHz Pentium 4 model 670
i 3.6 GHz Pentium 4 model 660. Najszybszym dual-core dostępnym w chili
pisania artykułu jest
3.2 GHz Pentium D 840.
(3.6 dual-core GHz Pentium D 960 ma pojawić się w drugim kwartale 2006.)
W przypadku AMD, prędkości procesorów single/dual- core są porównywalne.
Jednordzeniowy
Athlon 64 4000+
pracuje z częstotliwością 2.4 GHz. Dwurdzeniowy
Athlon 64 X2 4800+
taktowany jest 2.4 GHz. Jednakże, 2 rdzenie zasuwające z częstotliwością 2.4
GHz na pewno będą bardziej wydajne od pojedynczego rdzenia. 2 rdzenie
pracujące z niższą częstotliwością niż 2.4 GHz powinny dostarczyć większą
moc obliczeniową niż jednordzeniowe urządzenie.
Prawdopodobnie może dziwić, że nie podwoją one wydajności. (wynika to z
dzielenia zasobów przez dwa rdzenie.) "Co widzieliśmy, to wzrost
wydajności na poziomie między 1.4 a 1.8 raza, w zależności od aplikacji"
powiedział Lewis.
Oto jak ujął to Shekhar Borkar,
w wywiadzie z 2004:
"Gdy podwoi się liczbę rdzeni, ma się wciąż tę samą moc, ale prawie dwa
razy większą ilość przerobionego materiału." (Borkar nie kładzie takiego
nacisku na znaczenie strat wynikających z dzielenia zasobów.)
Wiele technicznych źródeł sprzeciwia się problemowi wydajności,
tak jak i Wikipedia,
przez wskazanie, że "wielordzeniowe procesory wymagają obsługi systemu
operacyjnego, aby w pełni wykorzystać drugie źródło mocy obliczeniowej."
W skrócie, multithreading jest kluczem do wysokiej wydajności.
Multithreading stał
się popularny w przeciągu ostatnich paru lat w środowiskach jednordzeniowych
i jest jeszcze bardziej wykorzystywane w przypadku dual core.
"Uruchamiacie aplikację w trybie multithreaded każdego dnia na swoim
komputerze; nazywa się ona OS" dodał Lewis. "Zawsze mieliście
wielowątkowe środowisko. Dual core sprawia, że wielowątkowe środowisko
działa jeszcze wydajniej."
Intel jest również
orędownikiem wielowątkowości.
Chipowy gigant
podkreśla, że
produkty dual-core, które obsługują technologię Hyper-Threading "są w
stanie przetwarzać cztery programowe wątki równocześnie dzięki bardziej
efektywnemu wykorzystaniu zasobów, które w innym wypadku leżałyby odłogiem."
Jeżeli chodzi o dual-core, zastrzeżenie polega na tym, że dużo mówi się na
temat tego jak dobrze wykorzystuje się w tej chwili wielowątkowość i w jakim
stopniu istniejące systemy operacyjne i aplikacje są w stanie wykorzystywać
przewagę procesorów dual-core. (W przypadku systemów operacyjnych, część
wersji Linuxa obsługuje dual core, natomiast
Windows Vista będzie
pierwszym systemem Microsoftu, który został zaprojektowany przede wszystkim
z myślą o dual core.)
Prawie połowa użytkowników PC
wciąż wie niewiele na temat dual core
Jak informuje ankieta
przeprowadzona przez Harris Interactive, prawie 3 lata po premierze Opterona,
48 procent użytkowników PC nie jest zorientowana czym jest procesor dual
core. (w świecie biznesowym rzecz ma się oczywiście inaczej. Powszechnie
wiadomo, że świat biznesu zdaje sobie sprawę z mocy, którą dual core może
dostarczyć.)
Ankieta zorientowana na domowych użytkowników, pokazała, że 42 procent
właścicieli komputerów twierdzi, że są zaznajomieni z technologią dual-core,
a 10 procent, że zna ją na wylot. Z pośród tych 52 procent mających mgliste
pojęcie lub pełną wiedzę, tylko 12 ma system dual core.
Ten niewielki odsetek powinien wkrótce się zwiększyć. Badacze rynku z Frost
& Sullivan przewidują, że procesory dual-core zastąpią około 15 do 25
procent układów single-core rocznie w desktopach, notebookach i serwerach.
Intel może się spodziewać szybszego wzrostu - planuje sprzedać
60 milionów procesorów
dual-core w 2006.
Aby zwiększyć świadomość klientów, zarówno Intel jak i AMD korzystają z
Hollywood. Intel niedawno gościł konkurs,
Intel Indies Film Contest,
w którym nagrodą za najlepszy krótkometrażowy film był sprzęt ViiV PC.
Turniej wideo AMD nazwany jest
The 64 Second Film Contest. AMD twierdzi,
że pokazy porównawcze podtrzymują opinię, że procesory Athlon 64 X2
"wynoszą możliwość tworzenia treści i wydajność multimedialną na inny poziom".
Podczas gdy zwycięzcy obu konkursów są dobrze wykonani (filmy Intela
opowiadają historie, krótkometrażonwe filmy AMD bardziej przypominają
krótkie reklamówki) nie zdradzają, że były obrabiane w inny sposób niż za
pomocą PC :)
Dual-core nie jest ostatnim słowem w najnowocześniejszej
informatyce
W przeciągu kilku lat, dual core może stać się technologią przeszłości.
Intel już przygotowuje
czterordzeniowe procesory
serwerowe, które wejdą do sprzedaży w 2007 roku. AMD także pracuje nad
podobnymi układami.
W dalszych planach Intel ma zamiar przygotować ośmiordzeniowe urządzenie, o
nazwie kodowej Yorkfield, które dostarczy w 2008 roku. AMD nie podaje tylu
szczegółów, informuje za to o tym, że przygotowuje
więcej niż dwurdzeniowe
urządzenia na rok 2007.
Na froncie non-x86, Sun już oferuje
ośmiordzeniowe procesory
w formie UltraSparc T1 (wcześniej Niagara).
Rzeczywiście, coraz więcej rdzeni będzie w użyciu w przyszłości.
"Wszystkie układy skończą jako wieloprocesorowe chipy, a my musimy się
nauczyć jak je programować"
powiedział EE Times
zeszłej jesieni Simon Davidmann, założyciel Co-Design Automation Inc