Grafikkarten und Monitore 26.142 Themen, 115.553 Beiträge

Diesmal "echte" Neuigkeiten zum R600

MadHatter / 41 Antworten / Flachansicht Nickles

Was bisher schon bekannt war:


  • Unified Shader Architektur
  • 512 Bit Speicherinterface (8 Kanäle a 64 Bit)
  • 1024MB GDDR4-RAM für das Topmodell


Was nun neu und einigermaßen "gesichert" ist:

  • Neue Produktbezeichnung: AMD ATI RADEON HD 2x00
  • 320 (!) Streaming-Prozessoren
  • Physik-Beschleunigung
  • natives Crossfire
  • bis zu 24x AA
  • 128 Bit HDR-Rendering


Bezüglich dem Fertigungsprozeß scheiden sich die Geister, ob der R600 nun in 80 oder in 65nm produziert wird, weiß man wohl erst am Launch-Tag, am 23/24. April.

Auch zum Preis gibts was interessantes zu berichten, die X2900XT mit 512MB GDDR3RAM soll für schlappe 399 US-Dollar in den Handel kommen.

Quelle
15 echte (!) Bilder zur X2900XTX
---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Net für mich ;-] SirHenrythe3rd
MadHatter SirHenrythe3rd „Madhatter - Ich will dir nichts böses, aber...“
Optionen

schon okay, ich fasse das auch nicht so auf :-)

Es ist aber leider so, der G80 ist ein imposantes Stück Silizium, eine derart komplexe GPU gab es bis dato noch nie. Die Innovationen des G80 gegenüber des G70 sind zu vielzählig, das hätte nvidia auch auf drei GPUs verteilen können.

In einem Interview mit dem nvidia-CEO hab ich gelesen, dass 400 Mannjahre Entwicklungsarbeit im G80 stecken, laut nvidia selbst war das bis dato noch nie dagewesen, bei weitem nicht.
Allein schon die beinahe verdoppelte Transistorenzahl bei G80 vs G70 ist ein gutes Indiz für die Komplexizität, die unterdurchscnittliche Yield-Rate gibt auch noch einen Hinweis darauf.

Im Gegenzug muss man aber auch sagen, dass ein Core 2 Duo z.B. nur etwa halb so viele Transistoren besitzt und dabei geht noch mehr als die Hälfte dabei für den Cache drauf, dennoch dauerte die Entwicklung beim Core 2 Duo trotzdem länger als die des G80 (und das beim Intel`schen Monsterbudget).
Eine CPU ist im Gegensatz zu einer GPU ein kleines Wunderwerk, vielseitig einsetzbar - eine GPU ist dagegen sehr linear und unflexibel, mehr ein Baukastensystem. Größter Vorteil des G80 ist seine Parallelität, die theoretische Rechenleistung ist um einiges höher als die eines Core 2 Duo, nur leider eben theoretisch. Mit CUDA versucht nvidia nun, diese Rechenleistung zu nutzen, was auch ganz gut funktioniert. Der Ansatz an sich genial, wieso sollte man 700 Millionen Transistoren auch nur zum Rendern von 3D-Szenen nutzen? :-)

P.S. Ich hatte auch sofort nach dem Launch damals eine R9700pro gekauft, ohne dass es DX9-Spiele gegeben hat und ohne dass diese in Reichweite waren. Der Grund dafür war die überlegene DX8-Performance und das unglaublich schnelle und schöne AA (für die damalige Zeit).
Wie gesagt, wegen DX10 kauft man sich keine neue GPU, aber wenn unter der aktuellen DX-API Performance, Featureset und Bildqualität überzeugen können - wieso dann auch nicht?

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen