Grafikkarten und Monitore 26.153 Themen, 115.669 Beiträge

Diesmal "echte" Neuigkeiten zum R600

MadHatter / 41 Antworten / Baumansicht Nickles

Was bisher schon bekannt war:


  • Unified Shader Architektur
  • 512 Bit Speicherinterface (8 Kanäle a 64 Bit)
  • 1024MB GDDR4-RAM für das Topmodell


Was nun neu und einigermaßen "gesichert" ist:

  • Neue Produktbezeichnung: AMD ATI RADEON HD 2x00
  • 320 (!) Streaming-Prozessoren
  • Physik-Beschleunigung
  • natives Crossfire
  • bis zu 24x AA
  • 128 Bit HDR-Rendering


Bezüglich dem Fertigungsprozeß scheiden sich die Geister, ob der R600 nun in 80 oder in 65nm produziert wird, weiß man wohl erst am Launch-Tag, am 23/24. April.

Auch zum Preis gibts was interessantes zu berichten, die X2900XT mit 512MB GDDR3RAM soll für schlappe 399 US-Dollar in den Handel kommen.

Quelle
15 echte (!) Bilder zur X2900XTX
---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Marcel39 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Hi,

ich freu mich drauf, auch wenn ich mir das dennoch so schnell nicht leisten werden kann:-(
Technologisch wird das ein feiner Apparat,
Weiss man eigentlich schon was NVidia tun will wenn der R600 massiv schneller sein soll? Neue G8X-Karten, oder wird schon an der GeForce 9 gewerkelt?

Wie stark trägt das 512-MB-Interface zur Performance bei, kann man da schon was zu sagen?

Gruss
Marcel

bei Antwort benachrichtigen
SirHenrythe3rd Marcel39 „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Vielleicht gehts mir ja alleine so, aber
meine Motivation sich direkt die erste Generation von DX-10
Karten, egal von welchem Anbieter, zu kaufen hält sich in Grenzen.
Bin keiner von den ewig-Wartenden, aber diese
Vista-konforme Erstcharge überspringe ich mit Passion.
Mit einem 400,00-500,00 EUR teurem Exemplar der allerersten
DX7- - DX9-Karten wäre ich auch nicht lange glücklich geworden.


An dieser Stelle bitte eine coole Signatur vorstellen
bei Antwort benachrichtigen
MadHatter Marcel39 „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Man spekuliert derzeit über eine 8800 Ultra, was das genau sein wird, ist aber noch unklar. Einige Seiten sprechen von einer Dual-Karte, ähnlich der 79x0GX2, dafür spricht zumindest der (spekulative) Preis von 999 US-Dollar, einige andere meinen, dass im G80-Chip noch deaktivierte Shader-Einheiten vorhanden sind. Ist aber alles Spekulatius ;-)

Inwieweit der R600 schneller als der G80 sein wird, lässt sich zur Zeit nicht abschätzen, einige 3DMark-Werte geistern in den Weiten des Internets herum und attestieren dem R600 eine teils minimale Überlegenheit gegenüber dem G80 - was aber mit allergrößter Wahrscheinlichkeit nichts zu sagen hat, ohne AA/AF und in Standardauflösungen ist der 3DMark06 bei diesen High-End Chips eindeutig CPU-limitiert.
Erst in hohen Auflösungen und mit hohen Filtergraden wäre eine genauere Untersuchung der Performance möglich, ganz davon abgesehen, dass 3DMarks meist nicht viel mit realen Spielen zu tun haben - und genau da fehlen noch sämtliche verlässliche Benchmarks.

Das 512 Bit breite Speicherinterface hat zumindest den Vorteil, eine sehr hohe Speicherbandbreite bei relativ niedrig getakteten Speicherchips zu erreichen, in Verbindung mit GDDR4-RAM wäre die Speicherbandbreite beinahe exorbitant.
Real bedeutet dies aber relativ wenig, erst mit sehr hohen Filtergraden (hauptsächlich AF) wirds eng mit der Speicherbandbreite, wenn dann noch HDR-Rendering dazu kommt, könnte die X2900-Familie deutlich davon profitieren. Ob das dann auch tatsächlich so eintreffen wird, wird man erst sehen wenn die Reviews der großen Sites online sind ;-)

mfg

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Marcel39 MadHatter „Man spekuliert derzeit über eine 8800 Ultra, was das genau sein wird, ist aber...“
Optionen
Man spekuliert derzeit über eine 8800 Ultra,
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/april/details_geforce_8800_ultra/

Richtig spekuliert:-D
Aber 1K$ für max.20% mehr Leistung? Hallo?
Dafür gibts bald zwei R600, und die leisten dann wieder mehr...
bei Antwort benachrichtigen
Marcel39 MadHatter „Man spekuliert derzeit über eine 8800 Ultra, was das genau sein wird, ist aber...“
Optionen

So,

jetzt ist die 8800 Ultra da:
Klick!

Gleich noch ein Link dazu hier.

Gruss
Marcel

bei Antwort benachrichtigen
Eddi1991 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Wenn die das Teil für den Preis anbieten, scheint es ja doch nicht so gut zu sein. Na mal schaun was die ersten Käufer dazu sagen werden.

Mir reicht jedenfalls vorerst noch meine X1800GTO

bei Antwort benachrichtigen
Hellspawn MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

bin gespannt auf die Techdemos zum R600

bei Antwort benachrichtigen
Marcel39 Hellspawn „bin gespannt auf die Techdemos zum R600“
Optionen

Wozu gehörte ATI´s "Schnee-Berge-Snowboarderin"-Techdemo?
War die "einfach so" oder zum R600?

bei Antwort benachrichtigen
mulk1987 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Weiss man auch schon, wieviel Strom die Graka verbrauchen wird? Alle wollen sparsame Prozessoren, aber bei der Grafikkarte scheint der Stromverbrauch wohl in Richtung "Open End" zu gehen...

bei Antwort benachrichtigen
PCM mulk1987 „Weiss man auch schon, wieviel Strom die Graka verbrauchen wird? Alle wollen...“
Optionen

Mit dem Stromverbrauch orientiert sich das an dem, wie Mad schrieb:
Bezüglich dem Fertigungsprozeß scheiden sich die Geister, ob der R600 nun in 80 oder in 65nm produziert wird, weiß man wohl erst am Launch-Tag, am 23/24. April.

80nm werden kleine Heizkraftwerke werden, spekulativ wurde beim Spitzenmodell von 200 Watt gesprochen, daher arbeitet man wohl emsig an der Fertigung in 65nm.

a²+b²=c²
bei Antwort benachrichtigen
Marcel39 mulk1987 „Weiss man auch schon, wieviel Strom die Graka verbrauchen wird? Alle wollen...“
Optionen
bei Antwort benachrichtigen
SirHenrythe3rd Marcel39 „Im Gespräch sind 240 Watt fürs...“
Optionen
Bitte um Rückmeldung:-)

gerne.
240 Watt sind in meinen Augen (viel-)zuviel.
Und ich bleibe daher bei meinem Statement :
Erst-Ausgaben einer neuen GraKa-Generation sind
ein bißchen mit Vorsicht zu genießen.
Besonders im aktuellen Falle, indem M$ den Usern und
Entwicklern eine neue Technologie in Form eines neuen
SW-Interfaces (DX-10) gekoppelt an eine neue
HW-Umgebung (R600, GF800er Reihe) vordiktiert.
Aufgrund des Hypes und der sich schnell eigendynamisch
entwicklenden Nachfrage sind die Entwickler ja nahezu
gezwungen schnell irgendetwas auf den Markt zu zaubern.

Die Zeitspanne zwischen den Releases der DX10 (Vista-)
kompatiblen Grafikkarten der beiden Main-Developer sollte
diesen Umstand eigentlich per se untermauern.
Hat ATi freiwillig solange gewartet ? *nein !*
Hat es wenigstens etwas gebracht ? *naja...*

Ich behaupte nicht, das die Karten _schlecht- sind.
Keineswegs. Aber gerade im Bezug auf den Stromverbrauch,
der Leistung und der Unterstützung aller optionalen
Gimmicks in allen Auflösungen sollte einem die
Preis-/Leistungsverhältnis-geschulte Vernunft sagen :
nein, nicht diese zur Marktfähigkeit geprügelten
DX-10 Prototypen kaufen. Wenn es nicht unbedingt sein
muss.


An dieser Stelle bitte eine coole Signatur vorstellen
bei Antwort benachrichtigen
pad90 SirHenrythe3rd „Sry - aber mal wieder querdenking angesagt“
Optionen

Wow 24 AA ist krass also mehr glätten geht nimmer oder ?

bei Antwort benachrichtigen
MadHatter pad90 „Wow 24 AA ist krass also mehr glätten geht nimmer oder ?“
Optionen

Doch - aber nur in Animationsfilmen, namentlich bis zu 128x AA ;-)

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Marcel39 MadHatter „Doch - aber nur in Animationsfilmen, namentlich bis zu 128x AA - “
Optionen

Wahnsinn-wird das in der Hardware berechnet oder via Software? Aber egal wie- bestimmt nicht in Echtzeit...

Gruss
Marcel

bei Antwort benachrichtigen
MadHatter SirHenrythe3rd „Sry - aber mal wieder querdenking angesagt“
Optionen

Ohne Vista ists eh Essig mit DX10 - und auch unter DX9 sind G80 und R600 höllisch schnell, die US-Architektur bringt auch unter DX9 erhebliche Vorteile mit sich.

Außerdem kauft man sich keine Grafikkarte nur weil es eine neue DX-API oder ein neues SM gibt, macht auch keinen Sinn, DX10-Spiele sind noch ZUkunftsmusik, zumindest DX10-only Games. Die sind vermutlich nicht vor 2009/2010 zu erwarten, bis dahin wurde wahrscheinlich schon die dritte Nachfolgegeneration von G80/R600 vorgestellt.

Viel schlimmer ist das Treiberdilemma, nvidia hat es bis heute nicht geschafft, einen wirklich gut funktionierenden Vista-Treiber auf die Beine zu stellen, und das obwohl Vista schon lange fertiggestellt ist und der G80 seit nun fast 6 Monaten im Handel ist - das finde ich traurig.

P.S. nvidia hat 4 Jahre am G80 gebastelt, von ...schnell irgendetwas auf den Markt zu zaubern... kann da also nicht die Rede sein.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Marcel39 MadHatter „Sry - aber mal wieder querdenking angesagt“
Optionen

Seit wann kannten die denn die DX10-Spezifikationen um das zu implementieren, oder wurde das am Ende reingewurstet?

@SirHenrythe3rd:
Danke:-)

Gruss
Marcel

bei Antwort benachrichtigen
MadHatter Marcel39 „Seit wann kannten die denn die DX10-Spezifikationen um das zu implementieren,...“
Optionen

DX10 ist nur eine API, Vorgabe von MS war nur das Shader Model und die US-Architektur, die grundlegenden Specs waren schon zu DX8-Zeiten bekannt.

G80 und R600 sind hochparallele Streaming-Prozessoren und wesentlich simpler aufgebaut als eine normale CPU, die Entwicklung einer CPU ist um Welten komplizierter als die eines Grafikchips. Dennoch wird nvidia die nächsten Jahre auf die G80-Architektur setzen, 4 Jahre Entwicklungsarbeit sind schon eine ganze Menge und waren für eine GPU bisher noch nie dagewesen.
Dasselbe Spiel wars auch bei ATIs R300 (Radeon 9700 DX9 SM2), das Design wurde bis zum R580+ (X1950XT DX9C SM3.0) nur weiter verfeinert, jetzt kommt eine grundlegend neue Architektur und diese wird auch so weit ausgequetscht, wies nur irgendwie geht.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Tommy22 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Habt ihr euch schon mal die Fotos angeschaut? Unter dem Gehäuse sind 2 Heatpipes und hinten noch ein zusätzlicher Lüfter dran, d.h., dass das Ding um 50% länger wird und bei einem Minitower wird es dann wohl eng...

Hey Dr. Kleiner - Ja Gordon? - Guck mal! Ist das nicht ne schöne Brechstange!? Fass sie mal an!
bei Antwort benachrichtigen
MadHatter Tommy22 „Habt ihr euch schon mal die Fotos angeschaut? Unter dem Gehäuse sind 2...“
Optionen

Das ist auch nur die OEM-Version der Karte wie sie z.B. in Dell oder HP-Rechnern verbaut wird.

Die Retail-Version (die dann auch im Einzelhandel zu bekommen sein wird) wird um einiges kürzer werden.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
SirHenrythe3rd MadHatter „Das ist auch nur die OEM-Version der Karte wie sie z.B. in Dell oder HP-Rechnern...“
Optionen
"P.S. nvidia hat 4 Jahre am G80 gebastelt, von ...schnell irgendetwas auf den Markt zu zaubern... kann da also nicht die Rede sein."

sry Madhatter, ich will dir wirklich nicht auf den
Schlips treten weil ich dich de facto sehr schätze.
(Auch schon vor der drei-blaue-Buchstaben-Aera)
Aber eine Entwicklungszeit von vier Jahren ist
absoluter Standard und besagt mitnichten,
das das Endergebnis nur aufgund dieser
Zeitspanne ein Revolutionäres ist.

Das ist übrigends nicht nur bei IT-Hardware so ^^


"Ohne Vista ists eh Essig mit DX10 - und auch unter DX9 sind G80 und R600 höllisch schnell, die US-Architektur bringt auch unter DX9 erhebliche Vorteile mit sich."

Es steht aber wohl außer Frage, das die Nachfolgermodelle
mindestens das gleiche bringen werden, oder ?

"Außerdem kauft man sich keine Grafikkarte nur weil es eine neue DX-API oder ein neues SM gibt, macht auch keinen Sinn, DX10-Spiele sind noch ZUkunftsmusik, zumindest DX10-only Games. Die sind vermutlich nicht vor 2009/2010 zu erwarten, bis dahin wurde wahrscheinlich schon die dritte Nachfolgegeneration von G80/R600 vorgestellt."

Eben. Man kauft sich die GraKa nicht wegen des API, sondern
wegen der Spiele. Und da sage mir mal warum man da nicht
sinnvollerweise warten sollte, wo die ersten nennenswerten Games
eh nicht vor 2009/2010 erscheinen werden ? Wozu dann
die Karten der ersten Generation....für den Preis ?

"Viel schlimmer ist das Treiberdilemma, nvidia hat es bis heute nicht geschafft, einen wirklich gut funktionierenden Vista-Treiber auf die Beine zu stellen, und das obwohl Vista schon lange fertiggestellt ist und der G80 seit nun fast 6 Monaten im Handel ist - das finde ich traurig.

Ja, da brauche ich ja gar nicht gegenzuwettern. Genug Kontra-
Argumente gibts du ja -zum aktuellen Zeitpunkt- selber...
zumindestens für die nVidia-Schiene. ATi hat ja gerade
erst angefangen. God bless the Endanwender. (Amen)

An dieser Stelle bitte eine coole Signatur vorstellen
bei Antwort benachrichtigen
MadHatter SirHenrythe3rd „Madhatter - Ich will dir nichts böses, aber...“
Optionen

schon okay, ich fasse das auch nicht so auf :-)

Es ist aber leider so, der G80 ist ein imposantes Stück Silizium, eine derart komplexe GPU gab es bis dato noch nie. Die Innovationen des G80 gegenüber des G70 sind zu vielzählig, das hätte nvidia auch auf drei GPUs verteilen können.

In einem Interview mit dem nvidia-CEO hab ich gelesen, dass 400 Mannjahre Entwicklungsarbeit im G80 stecken, laut nvidia selbst war das bis dato noch nie dagewesen, bei weitem nicht.
Allein schon die beinahe verdoppelte Transistorenzahl bei G80 vs G70 ist ein gutes Indiz für die Komplexizität, die unterdurchscnittliche Yield-Rate gibt auch noch einen Hinweis darauf.

Im Gegenzug muss man aber auch sagen, dass ein Core 2 Duo z.B. nur etwa halb so viele Transistoren besitzt und dabei geht noch mehr als die Hälfte dabei für den Cache drauf, dennoch dauerte die Entwicklung beim Core 2 Duo trotzdem länger als die des G80 (und das beim Intel`schen Monsterbudget).
Eine CPU ist im Gegensatz zu einer GPU ein kleines Wunderwerk, vielseitig einsetzbar - eine GPU ist dagegen sehr linear und unflexibel, mehr ein Baukastensystem. Größter Vorteil des G80 ist seine Parallelität, die theoretische Rechenleistung ist um einiges höher als die eines Core 2 Duo, nur leider eben theoretisch. Mit CUDA versucht nvidia nun, diese Rechenleistung zu nutzen, was auch ganz gut funktioniert. Der Ansatz an sich genial, wieso sollte man 700 Millionen Transistoren auch nur zum Rendern von 3D-Szenen nutzen? :-)

P.S. Ich hatte auch sofort nach dem Launch damals eine R9700pro gekauft, ohne dass es DX9-Spiele gegeben hat und ohne dass diese in Reichweite waren. Der Grund dafür war die überlegene DX8-Performance und das unglaublich schnelle und schöne AA (für die damalige Zeit).
Wie gesagt, wegen DX10 kauft man sich keine neue GPU, aber wenn unter der aktuellen DX-API Performance, Featureset und Bildqualität überzeugen können - wieso dann auch nicht?

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
siggi12 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Wäre noch nett wenn das Teil etwas unter der 1kW grenze bleiben würde hab leider noch keinen Drehstromanschluss in der nähe vom Compi ;-).

1. Ich bin nicht der liebe Gott sondern versuche nur zu helfen ! 2.Manchmal versteht man etwas geschriebenes falsch oder die Antworten sind etwas flapsig das ist aber keine böswilligkeit !
bei Antwort benachrichtigen
Nachtwanderer MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Zu erwähnen wäre noch, dass scheinbar der grosse HD 2900XTX Bolide mit einem Gig GDDR4-Speicher erst später kommt.

PS: Auch Computerbase hat gestern nochmal eine News zum R600 gebracht.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/

MfGnachtwanderer--Error: reality.sys corrupted. Reboot Universe? [y/n]
bei Antwort benachrichtigen
Marcel39 Nachtwanderer „Zu erwähnen wäre noch, dass scheinbar der grosse HD 2900XTX Bolide mit einem...“
Optionen

Bei der X1K-Serie erschien ja auch erst der X1800 und dann X1900XT/X, aber später noch die 1950XTX. Von daher ist es normal dass die Hersteller mit der Zeit die alten Serien weiterentwickeln. Bei den Geforce Karten ist es ja nicht anders.

btw: Den Link hab ich gestern schon gepostet, siehe oben...:-P

Gruss
Marcel

bei Antwort benachrichtigen
Nachtwanderer Marcel39 „Bei der X1K-Serie erschien ja auch erst der X1800 und dann X1900XT/X, aber...“
Optionen

Ich rede aber von der XTX nicht von einer vielleicht in einem halben Jahr erscheinenden neuen Serie. In Zeiten wo Nvidia mit einem 768MB Grafikspeicher beladenem Monster punktet, lediglich mit der schwächeren "nur" mit 512MB bestückten XT-Version zu starten ist ziemlich mutig.

> btw: Den Link hab ich gestern schon gepostet, siehe oben...:-P
Sorry habe ich übersehen

MfGnachtwanderer--Error: reality.sys corrupted. Reboot Universe? [y/n]
bei Antwort benachrichtigen
Marcel39 Nachtwanderer „Ich rede aber von der XTX nicht von einer vielleicht in einem halben Jahr...“
Optionen

Dann ist ATI sich wohl sehr sicher dass der R600 merklich schneller ist als der G80.
Sorry habe ich übersehen
Macht nix

Gruss
Marcel

bei Antwort benachrichtigen
neugrafik1 Marcel39 „Dann ist ATI sich wohl sehr sicher dass der R600 merklich schneller ist als der...“
Optionen

Die Graka hat ein 8 und 6 pin Stromanschluss, da brauchte man doch auch ein neues Netzteil oder sehe ich das falsch.

bei Antwort benachrichtigen
PCM neugrafik1 „Die Graka hat ein 8 und 6 pin Stromanschluss, da brauchte man doch auch ein...“
Optionen
Die Graka hat ein 8 und 6 pin Stromanschluss, da brauchte man doch auch ein neues Netzteil oder sehe ich das falsch.

Ein neues Netzteil brauchst du nicht unbedingt, selbst wenn du ein ausreichend starkes Netzteil besitzt, ohne PCI-E Grafikkarten-Anschluss, lässt sich dies per Adapter nachträglich ergänzen.

6polig:



8polig:



MfG

PCM
a²+b²=c²
bei Antwort benachrichtigen
neugrafik1 PCM „ Ein neues Netzteil brauchst du nicht unbedingt, selbst wenn du ein ausreichend...“
Optionen

gut, aber wo schliesse ich den 8 pol an? habe nur noch ein freien stecker zu verfügung und der ist 4 polig. werde die sache bei mir mal genau ansehen. habe ein LC POWER , LC ATX Power 550 Watt

bei Antwort benachrichtigen
MadHatter neugrafik1 „gut, aber wo schliesse ich den 8 pol an? habe nur noch ein freien stecker zu...“
Optionen

Der 8-polige kommt an die Graka, wenn du nur noch einen freien Stecker hast, dann brauchst du halt ein Y-Kabel.

habe ein LC POWER , LC ATX Power 550 Watt

Das kannst du dann sowieso vergessen, mit einem Billig-Netzteil dieses Kalibers wirst du beim ersten Anschließen nur Funken und Rauch sehen... 550W sind nicht gleich 550W.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
neugrafik1 MadHatter „Der 8-polige kommt an die Graka, wenn du nur noch einen freien Stecker hast,...“
Optionen

welche netzteile gibt es den mit 6 und 8 poligen steckern für grafikkarten? eine empfehlung wird gerne angenommen, es sollte aber schon power haben da ich mir die x2900xtx kaufen möchte. gruß neugrafik1

bei Antwort benachrichtigen
MadHatter neugrafik1 „welche netzteile gibt es den mit 6 und 8 poligen steckern für grafikkarten?...“
Optionen

Wie gesagt, es gibt Adapter. Die zwei Power-Stecker sollten aber wenn möglich von 2 unterschiedlichen Kabelsträngen (Leitungen) versorgt werden, wenn beide aus einer Schiene gespeist werden, gibts vermutlich Probleme.

Da es noch keinerlei Reviews gibt, ists auch schwer abzuschätzen wieviel Watt die Grafikkarte nun wirklich verbraucht, ein Netzteil mit um die 600W Nennleistung von einem namhaften Hersteller sollte aber genügen.

P.S. Warte doch erst mal ab bis es die Karte zu kaufen gibt, bevor du dein Netzteil in Rente schickst ;-)

Falls doch: mit jeweils 22 Ampere auf zwei 12V-Schienen und einer Combined Power von 420 Watt bei 35 Ampere: Klick!

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
neugrafik1 MadHatter „Wie gesagt, es gibt Adapter. Die zwei Power-Stecker sollten aber wenn möglich...“
Optionen

werde dann erst mal abwarten was die so sagen bzw. empfehlen, bin auf jeden fall gespannt darauf.
besten dank noch.

bei Antwort benachrichtigen
Marcel39 neugrafik1 „werde dann erst mal abwarten was die so sagen bzw. empfehlen, bin auf jeden fall...“
Optionen

Just gefunden:
http://www.dailytech.com/article.aspx?newsid=7043
Demnach wird die X2900XT in etwa so viel kosten wie die GeForce 8800GTS.
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.

Und da das jetzt einigermaßen gesicherte Benchmarks sind, darf man annehmen dass der Pervormancevorsprung zur 8800 (bzw. Quadro FX 5500 im zweiten Benchmark weiter unten) doch nicht zu gering wird, wie anhand des Preises befürchtet.

Gruss
Marcel

bei Antwort benachrichtigen
Marcel39 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

Ich poste einfach mal hierrein anstatt einen Thread aufzumachen...
http://www.dailytech.com/article.aspx?newsid=7052

Vor allem der letzte Satz ist interessant und sagt einiges:
Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance.

Gruss
Marcel

bei Antwort benachrichtigen
neugrafik1 Marcel39 „Diesmal "echte" Neuigkeiten zum R600“
Optionen

da mir das netzteil nicht mehr aus dem kopf geht habe ich da noch eine frage, oder besser gesagt würde mir gerne eine oder mehrere meinungen zu diesem netzteil anhören. seasonic ss-650ht energy plus : http://www.planet3dnow.de/artikel/hardware/netzteile/netzteile2006/mittelklasse/35.shtml
dieser hat zwei 6 pin stecker für pci- express, ok ein adapter für 6 auf 8 pin ist fällig aber das war es auch schon was man noch zusätzlich braucht. sonst würde ich sagen das es schon ein gutes teil ist, von meinem kleinem wissen aus. ok der preis von ca. 150 euro ist schon etwas heftig aber es geht ja jetzt nur um das netzteil.

bei Antwort benachrichtigen
neugrafik1 Nachtrag zu: „da mir das netzteil nicht mehr aus dem kopf geht habe ich da noch eine frage,...“
Optionen

da ist mir ein kleiner fehler unterlaufen.
http://www.planet3dnow.de/artikel/hardware/netzteile/netzteil2006/mittelklasse/35.shtml
hoffe es stimmt jetzt.

bei Antwort benachrichtigen
neugrafik1 Nachtrag zu: „da ist mir ein kleiner fehler unterlaufen....“
Optionen

ACHTUNG , noch 3 tage bis zum hd2900xt. werden sehen was sie bringt, oder nicht bringt.

bei Antwort benachrichtigen
Marcel39 neugrafik1 „ACHTUNG , noch 3 tage bis zum hd2900xt. werden sehen was sie bringt, oder nicht...“
Optionen

Jo-und NVidia feuert die nächste Breitseite ab:
Grafikkarten die niemand braucht

Mal schauen was der R600 dagegen ausrichtet, und wie er das ganze preislich beeinflusst.

Gruss
Marcel

bei Antwort benachrichtigen
Marcel39 MadHatter „Diesmal "echte" Neuigkeiten zum R600“
Optionen

So, ich nochmal.
Ich habe jetzt einen Blick in meine neue C´t werfen können und einen Test des R600 entdeckt.

Auch wenn der X2900XT nur mit der GeForce 800GTS konkurrieren soll, bin ich ein wenig enttäuscht.
Die Performance ist zwar oft über- zu häufig aber auch unter der der GeForce 8800GTS.
AMD hofft daher, dass die 2900XT im Handel für "deutlich unter 400€" gelistet wird...

Der 2600XT bietet ca... doppelt so viel Leistung als die Geforce 8600GTS und ist daher laut C´t "vielversprechend".

So, muss off, das gewittert.
Ciao!

Gruss
Marcel

bei Antwort benachrichtigen