Review, Bilder, Benchmarks & Informationen

Die Radeon HD 3850 X2 ist das vorerst letzte Modell der Radeon HD 3800-Serie und komplettiert im April 2008 das Quartett bestehend aus Radeon HD 3870 X2, Radeon HD 3870 und Radeon HD 3850. Nachdem Nvidia im Jahr 2006 mit Einführung der Geforce 8800 ein so starkes Produkt auf dem Markt bracht, so dass sämtliche Radeon HD 2900-Grafikkarten deutlich geschlagen werden konnten, versuchte AMD/ATI mit der Radeon HD 3800-Serie den Abstand zu verringern. Zwar zeigten die Radeon HD 3870- und Radeon HD 3850-Modelle eine verbesserte Leistungsfähigkeit, doch es reichte noch lange nicht, um Nvidia vom Thron zu stoßen.

AMD/ATI Radeon HD 3850 X2 (R680) - Logo

Aus diesem Grund versuchte AMD/ATI mit der Dual-GPU-Variante Radeon HD 3870 X2, die Spitze der 3D-Grafikkarten zu erobern. Was ein Grafikchip nicht schafft, sollten zwei Radeon HD 3870-Cores auf einem Grafikboard ermöglichen. Aber Nvidia hatte mit der Geforce 9800 GX2, welches ebenfalls eine Dual-GPU-Variante ist, direkt eine passende Antwort parat. Das gewohnte Bild blieb weiterhin bestehen: Nvidia oben auf, AMD/ATI kämpft vergebens gegen die Übermacht an.

Letztendlich musste AMD sich damit begnügen, ein sehr gutes Preis-/Leistungsverhältnis anbieten zu können. In dieses Schema lässt sich nun auch die Radeon HD 3850 X2 einstufen, denn sie stellt eine günstige, aber auch deutlich langsamere Alternative zu den teueren Nvidia-High-End-Modellen dar. Im Prinzip ist die Radeon HD 3850 X2 eine etwas niedriger getaktete Radeon HD 3870 X2.

Technische Details zur Radeon HD 3850 X2

Die Radeon HD 3850 X2 ist letztendlich keine unbekannte, denn in ihr verrichten zwei vollwertige R670-Cores ihren Dienst. Der R670-Core, welcher in dem 55nm (0,055µm) Verfahren hergestellt wird und aus rund 666 Millionen Transistoren besteht, kommt ebenfalls in den Single-Core-Varianten Radeon HD 3870 und Radeon 3850 zum Einsatz. AMD nennt das Paket aus zwei R670-Cores offiziell R680.

AMD/ATI Radeon HD 3850 X2 (R680) von Asus
AMD/ATI Radeon HD 3850 X2 (R680)
von ASUS

Wie man aus dem Produktnamen ableiten kann, ist die Radeon HD 3850 X2 die kleinere Variante der Radeon HD 3870 X2. Beide Modelle unterscheiden sich kaum. 1332 Millionen Transistoren (2x 666), 640 Streamprozessoren (2x 320 bzw. 2x 64(5D)), 1024 MB DDR-3 Grafikspeicher (512 MB pro Kern), 256 Bit Speicherinterface pro GPU, Direct 3D 10.1 und OpenGL 2.0. Die Chiparchitektur bleibt unverändert, so dass es sich bei der Radeon HD 3850 X2 um einen vollwertigen High-End-Chip handelt.

 

HerstellerNvidiaNvidiaNvidiaNvidiaATIATIATIATI
GrafikchipGeforce 9800 GX2Geforce 9800 GTXGeforce 9600 GTGeforce 8600 GTSRadeon HD 3870 X2Radeon HD 3870 Radeon HD 3850 X2Radeon HD 3850
Rang (Rangliste)137. Platz175. Platz203. Platz240. Platz177. Platz197. Platz182. Platz199. Platz
LeistungsklasseHigh-EndHigh-EndMainstreamMainstreamHigh-EndHigh-EndHigh-EndHigh-End
Veröffentlicht1Q 20081Q 20081Q 20081Q 20071Q 20084Q 20072Q 20084Q 2007
Anzahl Kerne21112121
Codename2x G92G92G94G84R680RV670R680RV670
Transistoren2x 754 Mio.754 Mio.505 Mio.289 Mio.2x 666 Mio.666 Mio.2x 666 Mio.666 Mio.
Herstellung65nm65nm65nm80nm55nm55nm55nm55nm
Chip
Chiptakt:600 MHz675 MHz650 MHz675 MHz825 MHz775 MHz668 MHz670 MHz
Chiptakt (BOOST):nicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstützt
Shadertakt1512 MHz1675 MHz1625 MHz1450 MHz825 MHz775 MHz668 MHz670 MHz
Pixelshadernicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstützt
Vertexshadernicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstütztnicht unterstützt
Streamprozessoren2x 12812864322x 3203202x 320320
ROP2x 16161682x 16162x 1616
TMU2x 646432162x 16162x 1616
Speicher (RAM)
Speichertakt2000 MHz *2200 MHz *1800 MHz *2000 MHz *1800 MHz *2250 MHz *1654 MHz *1650 MHz *
Speichergröße1024 MB512 MB512 MB512 MB1024 MB512 MB1024 MB512 MB
SpeichertypGDDR-3GDDR-3GDDR-3GDDR-3GDDR-3GDDR-4GDDR-3GDDR-3
Speicherinterface2x 256 Bit256 Bit256 Bit128 Bit2x 256 Bit256 Bit2x 256 Bit256 Bit
Herstellung
APIPCI-EPCI-EPCI-EPCI-EPCI-EPCI-EPCI-EAGP / PCI-E
DirectX1010101010.110.110.110.1
OpenGL2.12.12.02.12.02.02.02.0
Multi-GPU fähig?SLISLISLISLICFCFCFCF
Hybrid Graphicsunbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekannt
Vulkanunbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekannt
Leistungswerte
PCE-Score
91
63.3
42.9
22.2
75.2
48.5
63.6
39.5
Pixelfüllrate19.200 MP/s10.800 MP/s10.400 MP/s5400 MP/s26.400 MP/s12.400 MP/s21.376 MP/s10.720 MP/s
Texelfüllrate76.800 MT/s43.200 MT/s20.800 MT/s10.800 MT/s26.400 MT/s12.400 MT/s21.376 MT/s10.720 MT/s
Shaderleistung
(Single Precision)
1162 GFlops643 GFlops312 GFlops139 GFlops1056 GFlops496 GFlops856 GFlops429 GFlops
Shaderleistung
(Double Precision)
unbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekanntunbekannt
Speicherbandbreite128.000 MB/s70.400 MB/s57.600 MB/s32.000 MB/s115.200 MB/s72.000 MB/s105.856 MB/s53.120 MB/s
Stromverbrauch
Maximal250 Watt156 Watt95,0 Watt71,0 Watt196 Watt107 Watt165 Watt100 Watt
Leerlauf (IDLE)88,0 Watt62,0 Watt26,0 Watt26,0 Wattunbekanntunbekanntunbekanntunbekannt
Weitere Informationen
Kaufangebote10 Angebote10 Angebote10 Angebote10 Angebote10 Angebote10 Angebote10 Angebote10 Angebote
ReviewZum ArtikelZum ArtikelZum ArtikelZum ArtikelZum ArtikelZum ArtikelZum ArtikelZum Artikel
Tech. DetailsDetailsDetailsDetailsDetailsDetailsDetailsDetailsDetails

* Theoretische Taktrate. Abhängig von der RAM-Technologie.
  Bei DDR-Speicher ist dies nicht der Realtakt, sondern entspricht der theoretischen Leistungsfähigkeit

 

Der Unterschied zwischen der Radeon HD 3870 X2 und 3850 X2 findet man in der Höhe der Taktraten. Um eine möglichst hohe Chip-Ausbeute während der Produktion zu gewährleisten, werden qualitativ schlechtere Chips in Modellen mit geringeren Taktraten eingesetzt. Der Chip- und Shadertakt beträgt bei der Radeon HD 3850 X2 668 MHz, was im Vergleich zur größeren Radeon HD 3870 X2 (825 MHz) eine Verringerung von knapp 20% entspricht. Ähnlich sieht es beim Speichertakt aus: hier wurde der Takt von effektiven 1800 MHz DDR (real 900 MHz) aus 1654 MHz DDR heruntergesetzt.

Offene Herzen: 2x Radeon HD 3850 X2 (R680) verbunden via PLX-Chip
Offene Herzen: 2x Radeon HD 3850 X2 (R680)
verbunden via PLX-Chip

Theoretische Pixelfüllrate:
Radeon HD 3870 X2: 26400 MPixel/s
Radeon HD 3850 X2: 21376 MPixel/s
Radeon HD 3870: 12400 MPixel/s
Radeon HD 3850: 10720 MPixel/s
Geforce 9800 GX2: 19200 MPixel/s

Theoretische Shaderleistung:
Radeon HD 3870 X2: 1056.0 GFlops
Radeon HD 3850 X2: 856.0 GFlops
Radeon HD 3870: 496.0 GFlops
Radeon HD 3850: 429.0 GFlops
Geforce 9800 GX2: 1162.0 GFlops

Theoretische Speicherbandbreite:
Radeon HD 3870 X2: 115.200 MB/s
Radeon HD 3850 X2: 105.984 MB/s
Radeon HD 3870: 72.000 MB/s
Radeon HD 3850: 53.120 MB/s
Geforce 9800 GX2: 128.000 MB/s

Stromverbrauch der Radeon HD 3850 X2

Die maximale Energieaufnahme der Radeon HD 3850 X2 beläuft sich auf ca. 165.0 Watt. Die höheren Taktraten der Radeon HD 3870 X2 sorgen dafür, dass der Energiehung auf 196.0 Watt ansteigt. Zwar sind diese Werte immer noch absoluter Wucher und die Industrie wird nicht mehr von dem Weg des immer steigenden Energiehungers abweichen, aber im Vergleich zur Geforce 9800 GX2 sind diese Werte noch einigermaßen akzeptabel. Letztere verbraucht bis zu 250 Watt!

 

Technische Übersicht Radeon HD3850 X2

  • Hersteller: ATI
  • Grafikchip: Radeon HD 3850 X2
  • Erschienen: 2Q 2008
  • GPU-Codename: R680
  • Transistoren: 2x 666 Mio.
  • Herstellungsverfahren: 55 nm
  • Anzahl GPUs: 2
  • DirectX: 10.1
  • OpenGL: 2.0
  • OpenCL: 1.0
  • Chiptakt: 668 Mhz
  • Shadertakt: 668 Mhz
  • Streamprozessoren: 2x 320
  • ROP / TMU: 2x 16 / 2x 16
  • Grafikbus: PCI-E
  • Speichergröße: 1024 MB GDDR-3
  • Speichertakt: 1654 Mhz (DDR)
  • Speicherschnittstelle: 256 Bit
  • Stromverbrauch: 165 Watt
  • Pixelfüllrate: 21.376 MPixel/Sek
  • Texelfüllrate: 21.376 MTixel/Sek
  • Shaderleistung: 856 GFlops
  • Speicherbandbreite: 105.856 MB/s
  • Multi-VGA: CF

Benchmarks zur Radeon HD3850 X2

3D Mark 06 1280x1024 0xAA 0xAF

3D Mark 06 1280x1024 0xAA 0xAF
Dieser synthetische Benchmark testet die Grafikkarte unter Verwendung von DirectX 9

Grafikchip Ergebnis
Nvidia Geforce 9800 GX2 Diagrammbalken19
ATI Radeon HD 3870 X2 Diagrammbalken19
ATI Radeon HD 3850 X2 Diagrammbalken17
Nvidia Geforce 9800 GTX Diagrammbalken14
ATI Radeon HD 3870 Diagrammbalken12
Nvidia Geforce 9600 GT Diagrammbalken11
ATI Radeon HD 3850 Diagrammbalken10
Nvidia Geforce 8600 GTS Diagrammbalken5

Testsystem: Intel Core 2 Extreme Q9450 @ 2,93 GHz, 2 GB DDR, Windows Vista, ForceWare 174.16, Catalyst 8.5

Analyse: Das Ergebnis der Radeon HD 3870 X2 bzw HD 3850 X2 darf man nicht überbewerten, denn eine Geforce 9800 GX 2 ist in der Regel deutlich schneller als die beiden DUAL-GPU-Varianten aus dem Hause AMD. Deutlich wird dies an den Ergebnissen der Single-Core-Modellen Radeon HD 3870 und HD 3850: selbst eine Geforce 9600 GT kann beinahe beide Modelle schlagen.

Call Of Juarez 1280x1024 4xAA 16xAF

Call Of Juarez 1280x1024 4xAA 16xAF
Western Ego-Shooter, welcher unter Verwendung des DirectX 10-Enhancement Pack auch über DirectX 10 Effekte verfügt

Grafikchip Ergebnis
Nvidia Geforce 9800 GX2 Diagrammbalken46
Nvidia Geforce 9800 GTX Diagrammbalken25
Nvidia Geforce 9600 GT Diagrammbalken17
ATI Radeon HD 3870 X2 Diagrammbalken13
ATI Radeon HD 3870 Diagrammbalken11
ATI Radeon HD 3850 X2 Diagrammbalken10
ATI Radeon HD 3850 Diagrammbalken7
Nvidia Geforce 8600 GTS Diagrammbalken4

Testsystem: Intel Core 2 Extreme Q9450 @ 2,93 GHz, 2 GB DDR, Windows Vista, ForceWare 174.16, Catalyst 8.5

Analyse: In Call Of Juarez bei einer Auflösung von 1280x1024 und 4xAA 16xAF schneiden die Radeon HD 3870 X2 und Radeon HD 3850 X2 sehr schlecht ab. Die Geforce 9800 GX2 ist fast vier mal so schnell wie die Dual-GPU-Modelle aus dem Hause AMD, so dass die Aussage im Bezug auf den 3D Mark 06 bestätigt werden

Call Of Duty 4 1280x1024 4xAA 16xAF

Call Of Duty 4 1280x1024 4xAA 16xAF
3D-Action-Shooter mit Kriegshandlung. Schöpft das Potential und Effekte von DirectX 9 nahezu vollkommen aus

Grafikchip Ergebnis
Nvidia Geforce 9800 GX2 Diagrammbalken78
ATI Radeon HD 3870 X2 Diagrammbalken60
Nvidia Geforce 9800 GTX Diagrammbalken59
ATI Radeon HD 3850 X2 Diagrammbalken52
Nvidia Geforce 9600 GT Diagrammbalken39
ATI Radeon HD 3870 Diagrammbalken28
ATI Radeon HD 3850 Diagrammbalken22
Nvidia Geforce 8600 GTS Diagrammbalken17

Testsystem: Intel Core 2 Extreme Q9450 @ 2,93 GHz, 2 GB DDR, Windows Vista, ForceWare 174.16, Catalyst 8.5

Analyse: Ein ähnliches Spiel in Call of Duty 4: die Geforce 9800 GX2 liegt unangefochten auf Platz 1. Die Radeon HD 3870/3850 X2 kämpfen gegen die Geforce 9800 GTX (Single-Core-GPU) um Platz 2. Deutlich abgeschlagen sind die Single-GPU-Varianten der Radeon HD 3800 Serie.

Crysis 1280x1024 4xAA 16xAF

Crysis 1280x1024 4xAA 16xAF
Ego-Shooter basierend auf Direct3D 10, verwendet die CryEngine2, eine Weiterentwicklung der CryEngine von FarCry

Grafikchip Ergebnis
Nvidia Geforce 9800 GX2 Diagrammbalken30
Nvidia Geforce 9800 GTX Diagrammbalken19
ATI Radeon HD 3870 X2 Diagrammbalken15
ATI Radeon HD 3850 X2 Diagrammbalken13
Nvidia Geforce 9600 GT Diagrammbalken12
ATI Radeon HD 3870 Diagrammbalken8
ATI Radeon HD 3850 Diagrammbalken6
Nvidia Geforce 8600 GTS Diagrammbalken3

Testsystem: Intel Core 2 Extreme Q9450 @ 2,93 GHz, 2 GB DDR, Windows Vista, ForceWare 174.16, Catalyst 8.5

Analyse: Es ist schon erschreckend, wie falsch aussagend die Ergebnisse aus dem 3D Mark 06 sein können. Die Radeon HD 3870/3850 Modelle, sei es Single- oder Dual-GPU, können nicht annähernd mit der Nvidia-Konkurrenz mithalten. Die Geforce 9800 GX2 rendert einfach mal doppelt so viele Frames pro Sekunde als die Radeon HD 3870 X2. Respekt!

Bioshock 1600x1200 0xAA 0xAF

Bioshock 1600x1200 0xAA 0xAF
3D-Action-Shooter, welcher auf der Unreal Engine 3.0 aufbaut. Verwendet wahlweise DirectX 9 oder 10 Effekte.

Grafikchip Ergebnis
Nvidia Geforce 9800 GX2 Diagrammbalken92
ATI Radeon HD 3870 X2 Diagrammbalken68
ATI Radeon HD 3850 X2 Diagrammbalken56
Nvidia Geforce 9800 GTX Diagrammbalken46
ATI Radeon HD 3870 Diagrammbalken37
ATI Radeon HD 3850 Diagrammbalken31
Nvidia Geforce 9600 GT Diagrammbalken30
Nvidia Geforce 8600 GTS Diagrammbalken13

Testsystem: Intel Core 2 Extreme Q9450 @ 2,93 GHz, 2 GB DDR, Windows Vista, ForceWare 174.16, Catalyst 8.5

Analyse: Bioshock bestätigt die vorherigen Ergebnisse, denn auch hier nimmt die Geforce 9800 GX2 ungefährdet den ersten Platz ein. Die Leistungsfähigkeit ist doppelt so stark wie die Modelle aus der Radeon HD 3800-Serie.

Informationen von der offiziellen AMD-Website

  • 666 million transistors on 55nm fabrication process
  • PCI Express 2.0 x16 bus interface5
  • 256-bit GDDR3/GDDR4 memory interface
  • Ring Bus Memory Controller

    • Fully distributed design with 512-bit internal ring bus for memory reads and writes

  • Microsoft DirectX 10.1 support

    • Shader Model 4.1
    • 32-bit floating point texture filtering
    • Indexed cube map arrays
    • Independent blend modes per render target
    • Pixel coverage sample masking
    • Read/write multi-sample surfaces with shaders
    • Gather4 texture fetching

  • Unified Superscalar Shader Architecture

    • 320 stream processing units

      • Dynamic load balancing and resource allocation for vertex, geometry, and pixel shaders
      • Common instruction set and texture unit access supported for all types of shaders
      • Dedicated branch execution units and texture address processors

    • 128-bit floating point precision for all operations
    • Command processor for reduced CPU overhead
    • Shader instruction and constant caches
    • Up to 80 texture fetches per clock cycle
    • Up to 128 textures per pixel
    • Fully associative multi-level texture cache design
    • DXTC and 3Dc+ texture compression
    • High resolution texture support (up to 8192 x 8192)
    • Fully associative texture Z/stencil cache designs
    • Double-sided hierarchical Z/stencil buffer
    • Early Z test, Re-Z, Z Range optimization, and Fast Z Clear
    • Lossless Z & stencil compression (up to 128:1)
    • Lossless color compression (up to 8:1)
    • 8 render targets (MRTs) with anti-aliasing support
    • Physics processing support

  • Dynamic Geometry Acceleration

    • High performance vertex cache
    • Programmable tessellation unit
    • Accelerated geometry shader path for geometry amplification
    • Memory read/write cache for improved stream output performance

  • Anti-aliasing features

    • Multi-sample anti-aliasing (2, 4, or 8 samples per pixel)
    • Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
    • Adaptive super-sampling and multi-sampling
    • Temporal anti-aliasing
    • Gamma correct
    • Super AA (ATI CrossFire™ configurations only)
    • All anti-aliasing features compatible with HDR rendering

  • Texture filtering features

    • 2x/4x/8x/16x high quality adaptive anisotropic filtering modes (up to 128 taps per pixel)
    • 128-bit floating point HDR texture filtering
    • Bicubic filtering
    • sRGB filtering (gamma/degamma)
    • Percentage Closer Filtering (PCF)
    • Depth & stencil texture (DST) format support
    • Shared exponent HDR (RGBE 9:9:9:5) texture format support

  • OpenGL 2.0 support
  • ATI Avivo™ HD Video and Display Platform

    • Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats

      • High definition (HD) playback of both Blu-ray and HD DVD formats

    • Hardware MPEG-1, MPEG-2, and DivX video decode acceleration

      • Motion compensation and IDCT

    • ATI Avivo Video Post Processor

      • Color space conversion
      • Chroma subsampling format conversion
      • Horizontal and vertical scaling
      • Gamma correction
      • Advanced vector adaptive per-pixel de-interlacing
      • De-blocking and noise reduction filtering
      • Detail enhancement
      • Inverse telecine (2:2 and 3:2 pull-down correction)
      • Bad edit correction

    • Two independent display controllers

      • Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
      • Full 30-bit display processing
      • Programmable piecewise linear gamma correction, color correction, and color space conversion
      • Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
      • High quality pre- and post-scaling engines, with underscan support for all display outputs
      • Content-adaptive de-flicker filtering for interlaced displays
      • Fast, glitch-free mode switching
      • Hardware cursor

    • Two integrated dual-link DVI display outputs

      • Each supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)2
      • Each includes a dual-link HDCP encoder with on-chip key storage for high resolution playback of protected content3

    • Two integrated 400 MHz 30-bit RAMDACs

      • Each supports analog displays connected by VGA at all resolutions up to 2048x15362

    • DisplayPort output support4

      • Supports 24- and 30-bit displays at all resolutions up to 2560x16002

    • HDMI output support

      • Supports all display resolutions up to 1920x10802
      • Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution

    • Integrated AMD Xilleon™ HDTV encoder

      • Provides high quality analog TV output (component/S-video/composite)
      • Supports SDTV and HDTV resolutions
      • Underscan and overscan compensation

    • MPEG-2, MPEG-4, DivX, WMV9, VC-1, and H.264/AVC encoding and transcoding
    • Seamless integration of pixel shaders with video in real time
    • VGA mode support on all display outputs

  • ATI PowerPlay™

    • Advanced power management technology for optimal performance and power savings
    • Performance-on-Demand

      • Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
      • Clock and memory speed throttling
      • Voltage switching
      • Dynamic clock gating

    • Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required

  • ATI CrossFireX™ Multi-GPU Technology

    • Scale up rendering performance and image quality with two, three, or four GPUs
    • Integrated compositing engine
    • High performance dual channel bridge interconnect