Infos zur Nvidia Geforce FX 5800: Bilder, Benchmarks, Technische Daten

Geforce FX 5800

Ende Januar 2003 veröffentlichte Nvidia mit dem Geforce FX eine neue Grafikchip-Generation, welche nun die volle DirectX 9 Unterstützung liefern, und zieht so mit dem Hauptkonkurrenten ATI in dieser Beziehung gleich. Letzterer hatte bereits mit den Radeon 9000, 9500 und 9700 Modellen einige Monate zuvor Grafikkarten auf den Markt, die die neue Schnittstelle unterstützten. Zwar waren die Geforce 4 TI-Karten zwar sehr schnell, doch waren sie nur zu DirectX 8 kompatibel und können die neuesten 3D-Spiele nicht 100% darstellen und müssen die DirectX 9 Effekte emulieren.

Vorerst hat Nvidia drei Modelle für die unterschiedlichsten Marktregionen entwickelt. Der Geforce FX 5200, dessen Codename NV34 lautet, ist das schwächste Glied der Geforce FX Reihe. Dieser soll in Mainstream-Systemen eingesetzt werden und gilt laut Nvidia als Nachfolger des Geforce 4 MX (NV17). So können auch preisbewusste Käufer auf den vollen DirectX 9 Support zurückgreifen. Im mittleren Marktsegment tritt die Geforce FX 5600 (NV31) die Nachfolge der GeForce4-Ti4200-Karten an. Die Geforce 4 TI 4200 galt als optimale Spielekarte, die das beste Preis-Leistungs-Verhältnis bot. Das einzige Manko gegenüber der Konkurrenz aus dem Hause ATI war der fehlende DirectX 9 Support, so dass die Geforce FX 5600 die zur Zeit beste Wahl sein sollte. Das neue Flagschiff Nvidias ist die Geforce FX 5800 (NV30), die mit dem Radeon 9800 um die Krone im Grafikkartenmarkt kämpft.

Geforce FX 5800

Geforce FX - Hier ohne Kühler

Der Geforce FX bringt viele neue und revolutionäre Grafikfeatures mit sich. Mithilfe von DirectX 9 lassen sich viele Animationen und Gegenstände viel realistischer darstellen und die 3D-Spiele gleichen immer mehr einem Kinofilm. Neben der neu erreichten Leistungsfähigkeit ist allein der visuelle Aspekt ein wesentliches Argument, zu einer solchen Grafikkarte zu greifen.

Geforce FX 5800

Realistischer geht es kaum: Nvidia zeigt anhand dieses Demos die
Leistungsfähigkeit der Geforce FX unter DirectX9

Technische Daten

Der Geforce FX ist ein völlig neu entwickelter Chip und hat mit seinem Vorgänger nicht viel gemeinsam. Der Geforce FX ist der erste Grafikchip, der in der 0,13µm Technologie hergestellt wird. Gegenüber den herkömmlichen 0.15 Micron erlaubt das neue Design 25% kleinere Transistoren, die 25% schneller schalten. Auch der Stromverbrauch reduziert sich nach Angaben von NVIDIA durch niedrigere Spannungen um gut 36%. Der größte Vorteil liegt jedoch in den deutlich höheren Taktraten, die dieses Design ermöglicht.

Mit rund 125 Millionen Transistoren ist der Geforce FX der komplexeste Chip der bis Dato erschienen ist. Im Vergleich dazu besitzt eine Geforce 4 TI 4600 gerade einmal 66 Millionen. Selbst der neu erschienene Intel Pentium-M aus der Centrino-Serie kann lediglich 77 Millionen Transistoren vorweisen. Die komplexe Architektur und die hohen Taktraten, die in einem kleinen Chip untergebracht sind, benötigen selbstverständlich eine gute Kühlung.

Geforce FX 5800

Die Geforce FX benötigt eine besondere Kühlung. Nvidia
entwickelte eine eigene Kühlung Namens "FX Flow"

Die "FX Flow"-Kühlung belegt gleich zwei Einbauschächte. Da die Luft nicht mehr aus dem warmen Inneren des Gehäuses, sondern aus der Umgebung zur Kühlung benutzt wird, ist so die Kühlung effektiver. Des Weiteren integriert die Kühlung eine Heatpipe, so dass die Wärme schneller über den Kühlkörper verteilt wird. Leider ist die Flow FX-Kühlung extrem laut. Um diesem Umstand entgegen zu setzen, hat Nvidia in den Treiber einen Mechanismus integriert, der die Grafikkarte automatisch runtertaktet, sobald sich der Anwender im 2D-Modus (Windows-Oberfläche, etc.) befindet und nicht die volle Leistungsfähigkeit benötigt. Dementsprechend rotiert der Lüfter langsamer und die Karte ist nicht allzu laut.

Neben der Geforce FX 5800 gibt es noch die Geforce FX 5800 Ultra. Beide Modelle unterscheiden sich lediglich in den Taktraten. Der Grafikchip ist bei dem Basismodell lediglich mit 400 Mhz getaktet, wobei die Ultra-Version mit 500 Mhz Takt betrieben wird. Ähnlich verhält es sich beim Speicher. Der Grafikspeicher der Ultra-Version wird mit 1 Ghz betrieben, wo sich die Basis-Version mit 800 Mhz begnügen muss.

Der Geforce FX-Chip verfügt über 8 Pixel Pipelines, mit denen er in der Lage ist, 8 Pixel pro Takt mit einer Textur zu berechnen. Bei einem Chiptakt von 500 Mhz ergeben sich ein theoretische Füllrate von 4000 MPixel in der Sekunde. So ist der Geforce FX dem Radeon 9700 stark überlegen, da dieser lediglich 2400 MPixel in der Sekunde berechnen kann. Wie bereits einige Vorgänger kann der Geforce FX seine Daten über den AGP-8X-Port auslagern und ist somit auch in diesem Bereich auf dem neuesten Stand.

Geforce FX 5800

Auch die Vertex-Shader-Einheit wurde beim Geforce FX optimiert. Der GeForceFX verwendet dagegen ein stark programmierbares Floating Point Array. Damit ermöglicht er eine Triangle Transform Rate von mehr als 350 MVerts/s. Zum Vergleich: Die GeForce4 Ti4600 schafft 136 Mverts/s, die Radeon 9700 PRO rund 325.

Geforce FX 5800

  NVIDIA GeForce4 Ti4600 NVIDIA GeForceFX
5800
ATI Radeon 9700 PRO
Chip Technoploie 256-bit 256-bit 256-bit
Technologie 0.15 Micron 0.13 Micron 0.15 Micron
Transistorsen 63 Mio 125 Mio 66 Mio
Spicherbus 128-bit DDR 128-bit DDR2 256-bit DDR
Speicherbandbreite 10.4 GB/s 16 GB/s 19.8 GB/s
Pixel Füllrate 1.24 Gigapixel/s ~4 Gigapixel/s 2.6 Gigapixel/s
Anti Aliasing Füllrate 4.8 Billion AA Samples/s ~16 Billion AA Samples/s 15.6 Billion AA Samples/s
Max FSAA Mode 4x 8x 6x
Triangle Transform Rate 69 M Triangles/s 350 M Triangles/s 325 M Triangles/s
AGP Bus 1x/2x/4x 1x/2x/4x/8x 1x/2x/4x/8x
Memory 128MB 128/256MB 128/256MB
GPU Clock 300 MHz 500 MHz 325 MHz
Memory Clock 325 MHz (650 DDR) 250 MHz (1000 DDR) 310 MHz (620 DDR)
Memory BGA 2.8ns BGA 2.0ns BGA 2.9 ns
Vertex Shader 2 FP Array 4
Pixel Pipelines 4 8 8
Texture Units Per Pipe 2 1 1
Textures per Texture Unit 4 16 8
Vertex S. Version 1.1 2.0+ 2
Pixel S. Version 1.3 2.0+ 2
DirectX Generation 8 9.0 (+) 9
FSAA Modi MultiSampling MultiSampling MultiSampling
Memory Optmizations LMA II LMA II Optimized
Color Compression
Hyper Z III
Chip Internal Ramdacs 2 x 400 MHz 2 x 400 MHz 2 x 400 MHz
Bits per Color Channel 8 10 10

CineFX-Engine: DirectX 9

Hardwareseitige Pixel- und Vertex-Shader gibt es bereits seit DirectX 8. Die Pixel- und Vertex-Shader sind spezialisierte Schaltungen, die nur darauf programmiert worden sind, bestimmte Programmroutinen wie beispielsweise Gesichtsanimationen und Körperbewegungen (Pixelshader) oder Wellen und Wolken (Vertexshader)zu berechnen. Natürlich könnten diese Aufgaben auch Prozessoren übernehmen, doch würden diese nicht genügend Leistung haben, da Prozessoren bekanntlich für mehrer Aufgaben erfunden wurden und die Pixel- und Vertex-Shader einfach affektiver arbeiten. Dafür können diese aber nichts anderes als diese Aufgabe.

Die Möglichkeiten zu DirectX 8 Zeiten waren aber sehr begrenzt. Die Realisierung von komplexen Shadern war nicht möglich. Zudem konnten diese nur Integerdaten, also Festkommazahlen, berechnen. Die dadurch auftretenden Rundungsfehler sorgen für Fehlberechnungen und am Beispiel von Pixel Shadern zu Artefakten oder "Flecken". Mit DirectX 9 wurden die Fähigkeiten stark erweitert, besonders um die Möglichkeit, Floating-Point-Daten zu berechnen. Hinzu kommen weitere Features wie Loops, längerer Programmcode und einiger Erweiterungen.

  DirectX 8 DirectX 8.1 DirectX 9 GeForceFX
Pixel Shader 1.1 1.4 2 2.0+
Max. Texture Instruction 4 6 16 16
Max. Color Instructions 4 8 32 1024
Max. Temp Storage 8 8 64 1024
Data Type Integer Integer Floating P. Floating P.
(Max.) Data Precision 32-bit 48-bit 128 (96)-bit 64 or 128-bit
Instruction Predicates - - 12 64
Unlimited Dependet Textures - - - Yes
Swizzling - - - Yes
Advanced Instructions - - - Yes
Conditional Write Masks - - - Yes
Dynamic Flow Control - - - Yes

Die CineFX-Engine des Geforce FX unterstützt alle Features von DirectX9 und erweitert diese sogar in vielen Punkten. Hinter dem Namen CineFX verbergen sich der Vertex- und Pixel-Shader 2.0+, wobei das Plus-Zeichen für die erweiterten Features steht. Der Vertex-Shader 2.0+ bietet stark erweiterte Vertex-Verarbeitungsfunktionen bei gleichzeitig stark verringerter Programmierkomplexität. So können Spieleentwickler jeden nur denkbaren Effekt verwirklichen. Vollständig generalisierte Schleifen und Verzweigungen lassen sich datenabhängig konzipieren, was bei der CineFX-Engine eine weit geradlinigere Programmiermethode ermöglicht als frühere Architekturen. Ein einziger Shader kann für alle Skinning-Methoden und -Operationen geschrieben werden. Und da der Shader auf Vertexbasis verzweigen kann, ist eine Aufteilung des Modells ebenfalls nicht mehr nötig. Mit all diesen technischen Weiterentwicklungen lässt die CineFX-Engine sämtliche früheren Vertex Shader mit all ihren Einschränkungen weit hinter sich.

Zu den besonderen Vorzügen der CineFX-Engine gehört die Unterstützung für 1024 Instruktionen in einem einzigen Rendering-Durchgang. So lassen sich komplexe Wirkungen erzielen, die in anderen Architekturen einfach nicht praktikabel sind. Volumetrische Effekte zum Beispiel, wie etwa Rauch, Pelz, Feuer oder Gras, bringen Tiefe und Realitätsnähe in eine Szene, erfordern aber gleich eine ganze Reihe von Instruktionen. Der Geforce FX schafft diesen Vorgang in einem einzigen Rendering-Durchlauf. Dank der prozeduralen Texturunterstützung ist es nicht mehr nötig, viel Videospeicher für umfangreiche Textur-Maps aufzuwenden, und Oberflächen lassen sich sehr subtil mit wirklichkeitsgetreuen Varianten gestalten. Aufwändige Beleuchtungseffekte können die Wirkung von Bildern steigern.

Geforce FX 5800

Hier sieht man den Unterschied zwischen DirectX 8 und 9. Letzterer sieht entscheidend realistischer aus.

Dazu kommt, dass Shader jetzt mehrere Texturen in einem Durchgang verarbeiten können, was eine optimierte Programmausführung gestattet und geschichtete bzw. Mischeffekte ermöglicht, zum Beispiel Farbe, die von einer Metallfläche abblättert. Mit der CineFX-Engine lassen sich in einem einzigen Pixel Shader-Programm bis zu 16 eindeutige Textur-Maps abrufen. Als Textur kommt dabei alles in Frage, was die Eigenschaften von Oberflächen oder Subflächen definiert, zum Beispiel Bump-Maps, Displacement-Maps, Gloss/Specular-Maps, Environment-Maps, Shadow-Maps und Albedo-Maps.

Geforce FX 5800

Links DirectX 8. Rechts DirectX 9.

Alles in allem bedeutet DirectX 9 aufgrund der besseren programmierbarkeit eine deutliche realistischer Darstellung von 3D-Effekten und schafft somit eine solide Basis, moderne 3D-Spiele wirklichkeitsgetreu darstellen zu können.

DDR II Speicher und IntelliSample

DDR-Speicher gehört bei High-End-Grafikkarten wie auch bei preisgünstigen Mainstream-Produkten längst zum Standard. DDR steht für Double Data Rate. Die Besonderheit bei diesem Speicher besteht darin, das Signale sowohl auf der steigenden Flanke des Taktsignals übertragen werden können, als auch auf der fallenden. Das Resultat ist eine Verdoppelung des Datendurchsatzes, ohne eine Veränderung der Taktrate ans sich. DDR-Speicher bedient sich dazu eines 2-Bit-Prefetches, mit dem 2 Bit pro Datenleitung an den Speicher geschickt wurden. DDR-II arbeitet nun mit einem 4-Bit-Prefetch, was eine nochmalige Verdoppelung des Speicherdurchsatzes bewirkt. Dank einer Reduzierung der Signalspannung von 2,5 V auf 1,8 V, einer Reduzierung der Zugriffszeit von rund 2,9 ns bei DDR zu 1,8 bis 2,2 ns bei DDR-II sowie die Platzierung der Terminierung der Leitungen vom PCB auf den Speicherchip - was zusammen mit geänderten Taktsignalen zu einer besseren Signalqualität führt - können DDR-II-Module zudem deutlich höher getaktet werden.

Trotz der großen Speicherbandbreite erzielen die aktuellen 3D-Karten ihre starke Peformance in erster Linie durch ein optimiertes Speicherinterface. Matrox' Parhelia ist ein gutes Beispiel dafür. Denn trotz einer gegenüber der GeForce4 Ti4600 (NV25) fast doppelt so hohen Speicherbandbreite, fällt sie in den Tests deutlich hinter diese zurück. Der Grund ist das optimierte Speicherinterface des NV25 (Lightspeed Memory Architecture). Beim GeForceFX (NV30) wurde das Interface weiter optimiert. Neben der Z-Daten-Kompression ist der Chip nun in der Lage, in Echtzeit und verlustfrei Farbdaten in 4:1 zu komprimieren (dazu später mehr unter Intellisample). Dies soll gerade beim Antialiasing zu einem großen Geschwindigkeitsgewinn sorgen. Hinzu kommen größere und höher entwickelte interne Caches sowie eine nochmals verbesserte "Crossbar".

Geforce FX 5800

Sehr detailreich. Man sieht sogar die Poren.

Mit dem Begriff "IntelliSample" vereint Nvidia die drei Technologien Color Compression, AntiAliasing und Dynamic Color Correction. Nvidia hat einen Weg gefunden, die Farbwerte ohne jegliche Verluste 4:1 zu komprimieren und reduziert somit den Speicherdurchsatz. Wie jedem bekannt ist, ist vor allem der Speicherdurchsatz bei Grafikkarten der Flaschenhals in modernen Spielen und mit der Color Compression hat Nvidia dem ein gutes Stück entgegengesetzt.

Der GeForceFX verfügt über neue Antialiasing-Modi. Neben 6XS kommt ein neuer 8x-Modus hinzu, der doppelt so viele Pixel für die Berechnung des Bilds benutzt wie 4X. Dank verlustfreier Z- und Color-Kompression ist der GeForceFX bei FSAA deutlich schneller als sein Vorgänger. NVIDIA spricht sogar davon, das hierdurch praktisch auch der höchste 8X-Modus in der Praxis nutzbar ist, ohne das die Frameraten in unspielbare Dimensionen herabfällt.

Dynamic Color Correction. Dieses neue Feature des GeForceFX vereinfacht die Gammawert-Behandlung in Shader-Berechnungen. Sie befreit die Entwickler von der unbequemen Arbeit, Gamma-Spaces zu berücksichtigen.

Übersicht Technische Daten Geforce 5800

     

  • Veröffentlicht Januar 2003
  • Technologie: 0.13µm
  • 125 Mio. Transistoren
  • Chiptakt: 400 Mhz (FX5800) und 500 Mhz (FX5800 Ultra)
  • 128-Bit-GPU
  • Flip-Chip-Design
  • 8 Pixel Pipelines
  • Speichertakt: 800 Mhz (FX5800) und 1 Ghz (FX5800 ultra)
  • DDR II Speicher
  • 128-Bit-Speicherbus
  • Floating Point Vertex Shader Array
  • DDR2-Speicher mit mindestens 500MHz (1 GHz DDR)

  • Optimiertes Speicherinterface mit verlustfreier Z- und

    Color-Datenkompression

  • AGP 8X
  • FX Flow - eigens entwickelte Kupfer-Heatpipe-Kühllösung
  •  

  FX 5200 FX 5200 Ultra FX 5600 FX 5600 Ultra FX 5800 FX 5800 Ultra
Chiptakt 250 Mhz 325 Mhz 350 Mhz 375 Mhz 400 Mhz 500 Mhz
Speichertakt 400 Mhz 650 Mhz 550 Mhz 700 Mhz 800 Mhz 1 Ghz
Speicherart DDR DDR DDR DDR DDR II DDR II
Pixel-Pipelines 4 (2x2) 4 (2x2) 4 (2x2) 4 (2x2) 8 (4x2) 8 (4x2)
Transistoren 45 Millionen 45 Millionen 80 Millionen 80 Millionen 125 Millionen 125 Millionen
DirectX-Version 9 9 9 9 9 9

Benchmarks

Als Testplattform diente ein AMD Athlon XP 2700+, 512 MB DDRam PC 333 und Windows XP Professional.

Unreal Tournament 2003 1600x1200x32 Bit

 

Geforce FX 5800

Radeon 9800 Pro  
 

 84,6

Radeon 9700 Pro  
 

 80,0

Radeon 9500 Pro  
 

 47,3

Radeon 9500 128 MB  
 

 28,3

Radeon 9500 64 MB  
 

 28,8

Radeon 9200  
 

 20,7

Radeon 9000 Pro  
 

 22,4

Geforce FX 5800 Ultra  
 

 93,1

Geforce FX 5800  
 

 78,2

Geforce FX 5600 Ultra  
 

 45,9

Geforce FX 5200 Ultra  
 

 27,2

Geforce 4 TI 4800  
 

 55,5

Geforce 4 TI 4200 8x  
 

 45,5

Geforce 4 MX 440 8x  
 

 19,2

Bei einer respektablen Auflösung von 1600x1200x32 Bit können eigentlich alle Karten im Feld zufrieden stellende Frameraten abliefern. Die Geforce FX 5800 Ultra kann ATI's Flagschiff, die Radeon 9800 Pro im fast 10 Frames abhängen. Erstaunlich ist auch der nur geringe Vorsprung der Radeon 9800 Pro zur 9700 Pro.

Unreal Tournament 2003 1600x1200x32 Bit 8x Anisotropische Filterung 4x FSAA

 

Geforce FX 5800

Radeon 9800 Pro  
 

 47,3

Radeon 9700 Pro  
 

 39,0

Radeon 9500 Pro  
 

 26,8

Radeon 9500 128 MB  
 

 11,8

Radeon 9500 64 MB ---
Radeon 9200 ---
Radeon 9000 Pro ---
Geforce FX 5800 Ultra  
 

 32,4

Geforce FX 5800  
 

 27,3

Geforce FX 5600 Ultra  
 

 16,1

Geforce FX 5200 Ultra  
 

 7,8

Geforce 4 TI 4800  
 

 11,3

Geforce 4 TI 4200 8x  
 

 9,4

Geforce 4 MX 440 8x ---

Bei einer Auflösung von 1600x1200x32 Bit und zugeschaltetem 8x Anisotropischer Filterung und 4x FSAA trennt sich die Spreu vom Weizen. Nur wenige Karten können hier noch spielbare Frameraten erzielen. Bei diesen "Monstereinstellungen" wendet sich das Blatt zu Gunsten der Radeon 9800 Pro und es zeigt sich wieder, dass die Radeon-Karten bei sehr detailreichen Einstellungen einfach schneller sind. Selbst eine Radeon 9700 Pro lässt die Geforce FX 5800 Ultra locker hinter sich.