Der langerwartete High-End Chip und G70-Konkurrent von ATI, der R520, hat es nun doch endlich geschafft - er ist da :-)
Die Specs:
321 Millionen Transistoren
16 Pixelpipelines
8 Vertexpipelines
512MB V-RAM
625MHz Chiptakt (10.000MPix/s)
750MHz RAM-Takt (48.000MB/s)
Neuartiges, ringförmiges Speicherinterface mit 256Bit
Die wichtigsten Neuerungen:
SM3
volle FP32-Rechengenauigkeit
HDR auch mit Kantenglättung möglich
Neue, qualitativ extrem gute AA/AF-Modi (winkelunabhängiges "Area-Aniso" und ein dem G70 entsprechendes HQ-AA, CB überschlägt sich fast aufgrund der überragenden Bildqualität)
Performace:
In Standard-Auflösungen und ohne aktivierte Filter langsamer als eine 7800GTX - ab 1280x1024 und vor allem mit aktivierten Filtern deutlich schneller als der G70, OpenGL-Spiele ausgenommen.
Scheint als ob ATI dem G70 doch das Wasser reichen kann, bzw, diesen sogar überholt! Ein tolles Stück Silizium, Respekt @ ATI!
Den ganzen Artikel gibts bei computerbase.de
mfg
Grafikkarten und Monitore 26.155 Themen, 115.717 Beiträge
Sie wirkt noch etwas Größer als die 7800GTX und vom Stromverbrauch, ne Danke!
Alter Miesmacher :-)
P.S.
Die wichtigste Neuerung des G70-Chips, Super AA (also die Kantenglättung von nicht-Polygon-Objekten) - ist gefallen :-)
Mit einem einfachen Eingriff in die Registry ist es auch auf allen Radeon-Karten ab dem R300 möglich! Nennt sich Adaptive-AA.
Das 3DCenter bietet die Anleitung dazu!
Ein Screenie (CS:Source, de_port, 1280x1024, 6x Adaptive AA, 16xAF, gerendert von einem R481) zum Beweis:
Das hieße daß die im Bench weniger Punkte macht als eine 7800GTX.ATI Crossfire macht aber mehr als 7800SLI,glaub ich.Weißt du ob crossfire schon erhältlich ist irgendwo in D?
Also wenn ich mir DAS so anschaue - hat die 7800GTX keine Chance im 3DMark05 gegen die X1800XT...
X-Fire wurde kürzlich vorgestellt - allerdings "nur" für die R480-Karten, außerdem ists noch nicht wirklich verfügbar. Ein X-Fire Verbund von 2 X1800XT sollte aber ein SLI-Gespann alá 2x7800GTX deutlich hinter sich lassen... Wann das allerdings kommt - weiß der Geier...
Keine chance,langsam.Meine 2 laufen immerhin mit 730MHz,und es geht mehr.Ob man eine dermaßene Übertaktung mit X1800 dann hinbekommt,muß man erst sehen.Das ist jetzt natürlich rein von meinen Interessen her betrachtet.
-Das ganze scheint noch nebulös da mit Crossfire.Ich dachte,es würden 2x X850XTPE dafür genommen.Die sind dann glaub ich im 3DM05 den 2x7800GTX überlegen-bei standardtakt!
Selbstverständlich - das ist alles ohne Übertaktung getestet worden. Leider hat CB auch keine Übertaktungstests vorgenommen... Schade eigentlich. Abwarten was die Zeit bringt, sobald die nächsten Tests erschienen sind wird man mehr wissen zum Thema Übertakten der X1800XT.
P.S. Wie hast du eigentlich deine beiden 7800GTX auf 730MHz (!!!) geprügelt? Das ist schon allerheftigst!
Die Geschichte mit X-Fire: Nebulös ist das nicht - ATI hat die deutlich höhere Shader-Effizienz, schreibt auch CB. Und da der 05er nunmal extrem Shader-lastig ist haben die Radeons eben teilweise die Nase vorn, auch ein Grund weshalb im AM3 die nVidia-Karten wieder klar vorne liegen - der AM3 ist mehr Textur als Shader-lastig. Das ist mit dem neuen ATI-Chip noch extremer geworden, die Shader-Effizienz wurde nochmals gesteigert im Vergleich zur Vorgängergeneration, deshalb wundert mich der 05er-Wert kein bisschen. Guck dir die Benches an, im AM3 liegt die 7800GTX immer noch vor der neuen Radeon.
Wenn der neue 3DMark (07?) erscheint wird das noch deutlicher werden...
Ich will sie auf 800 MHz core und 1480 MHz MEM prügeln.Sodann muß ich den FX mit mind.3,5G laufenlassen.Und dann,ja dann,will ich 40K Marks in 3DM03 holen und den ersten Platz in der Hall of Fame einnehmen.Ich weiß aber nicht,ob sham einen Reservescore über 40K hat.Wie ist das beim 03er,ist der weniger shaderlastig als der 05er?Wahrscheinlich ja,nehme ich an.
oh ja, und dann schreibst du dir die 3dmark zahl mit nem wasserfestem stift auf die stirn ;-)
Es reicht mir vollkommen,wenn die Zahl erreicht und gebrowst wäre.
Was steht denn bei dir wasserfest auf der Stirn?
H A T E ;-)
Da sagt mir das Bild in deiner Signatur aber etwas ganz anderes...
hass und frieden schließen sich nicht aus ;-)
Auweia,das macht wirklich Angst!Respekt!!
erzittere du jemmerliche kreatur
Naja,n bißchen besser deutsch hättste lernen können,das würde nichts schaden,großer hater
langsam wird es beleidigend
Ach ja?
beim besten willen, nichts überraschendes: mit nvidia gleichgezogen, wie erwartet.
HDTV geht nicht (soll am treiber liegen) --> das ist ganz schön schwach!
was lernen wir daraus? alles neue kommt von oben, ist dazu fett, heiß und laut
wirklich kein grund zur euphorie
HDTV - brauchts (schon) irgendwer? Außerdem wird das spätestens mit dem neuen Catalyst laufen.
Hättest du den Test gelesen (und vielleicht auch verstanden, aber gut, sowas will ich nicht unterstellen), so wüßtest du nun:
- nicht mit nvidia gleichgezogen, überholt (OpenGL ausgenommen)!
- FP32-Rendergenauigkeit in allen Situationen, keine "Rückstufung" auf FP16 in bestimmten Situationen, da -> nur FP32 möglich!
- HDR nun auch mit AA möglich, auch mit AAA (und die Karte hat genug Power dafür)
- Das beste AF (dazu noch ein verdammt schnelles) seit dem NV35 überhaupt
- ATI-typisch ein sehr gutes AA/AAA
- Stromverbrauch ist auch kein Argument, wer sich solch eine Karte leisten kann der lächelt über die Stromrechnung
Zwar kein Grund zur Euphorie, stimmt - aber dennoch ist es eine sehr gute Karte mit tollen Features. Musst dir das Ding ja nicht kaufen, oder?
P.S. Heiß und fettig - sprichst du da von Fritten? Oder von deiner "Silentpipe" 6800er?
Oder einfach nur neidisch weil dein NV40 kein AAA kann?
- nicht mit nvidia gleichgezogen, überholt (OpenGL ausgenommen)
--> mein gott, wen interessieret es ob 2% hier, 5% da...
- FP32-Rendergenauigkeit in allen Situationen, keine "Rückstufung" auf FP16 in bestimmten Situationen, da -> nur FP32 möglich!
--> das heißt im klartext ? als ob es jemanden auffällt wie genau gerechnet wird
- Das beste AF (dazu noch ein verdammt schnelles) seit dem NV35 überhaupt
--> verdammt schnelles? naja, paar %. aber als ob es dir wirklich mal im spiel schlechtes AF aufgefallen ist.
- ATI-typisch ein sehr gutes AA/AAA
--> ist somit nix neues, da "typisch" ;-)
- Stromverbrauch ist auch kein Argument, wer sich solch eine Karte leisten kann der lächelt über die Stromrechnung
--> es geht um grundsätzliche tendenz
Musst dir das Ding ja nicht kaufen, oder?
--> hast recht, aber miesmachen werde ich es wohl noch dürfen ;-)
Oder einfach nur neidisch weil dein NV40 kein AAA kann?
--> geht mir am A**** vorbei was der NV40 net kann, HDTV läuft, ich bin happy damit
Aber ist Klar, Ati ist eben gut, und alles andere böse und schlecht, sagt ja schon die bibel (oder so)
PS: was hat die silentpipe damit zu tun ?
Mensch... Hör auf zu stänkern, wenns dir nicht passt - dann lass es halt.
Und falls du es doch nicht lassen kannst, dann design/entwickle/produziere/vermarkte dir eben deine eigenen 3D-Chips/Karten. Mal sehn ob die dann besser wären.
P.S. "jämmerlich" sollte es heißen, wenn schon, denn schon :-)
P.P.S. ATI ist nicht "gut", genausowenig wie nvidia "gut" ist. Denn "gut" bedeutet nach meiner Definition: Billig (unter 20 Euro), sauschnell (2000fps), flüsterleise, extrem stromsparend (so an die 2 Watt maximal) - aber ATI hat zur Zeit mit der X1800XT wohl das beste High-End Produkt auf dem Markt. Ganz unabhängig davon ob es nun "gut" ist.
P.P.P.S. Ich hatte auch schon einige NV-Karten, genauso wie Radeons. Auch hatte ich AMD und Intel-CPUs - mir sch****egal was da drauf steht, solang die Leistung passt. Nur, damit die werten User die sich vielleicht gerne neutral informieren wollen sich auch auskennen - muss ich eben Namen nennen und Vergleiche ziehen, wenn du dich dadurch auf deinen virtuellen Schlips getreten fühlst - ist das nicht mein Problem.
*plonk*
> - nicht mit nvidia gleichgezogen, überholt (OpenGL ausgenommen)
Und weiterhin gilt Open-GL als grossflächiges Nvidia-Terrain, für einen wahren ATI`ler zählt sowas aber nicht.. ;o)
> - FP32-Rendergenauigkeit in allen Situationen, keine "Rückstufung" auf FP16 in bestimmten Situationen, da -> nur FP32 möglich!
Hier wäre zu erwähnen, dass Nvidia-Karten seit dem NV30/35 (ca. 3 Jahre alt) mit voller 32bit Floating Point Genauigkeit rechnet. Unter anderem war dies ein Faktor warum die FX-Karten in Vergleichstests sehr schlecht abschnitten. Dazu kommt natürlich die allgemein schlechte Shaderleistung, welche der FX den Rest gab. Schlussendlich hatte die FX-Serie zwar eine innovative Architektur welche allerdings unter graviereden Mängeln zu leiden hatte.
> - Das beste AF (dazu noch ein verdammt schnelles) seit dem NV35 überhaupt
http://www.bit-tech.net/news/2005/09/08/cat58_shimmering/
Soll nichts heissen, aber in Sachen Leistung der anisotropischer Filterung glaube ich nichts mehr. Hoffen wird das Beste, dann wird so eine Karte auch bald in meinem Rechner Platz nehmen.
Zu Adaptive Anti-Aliasing:
Die Filterung von Alpha-Texturen wurde von Nvidia zwar erst mit dem G70 eingeführt (-->Transparency Anti-Aliasing), würde allerdings wohl auf älteren Karten auch laufen. Allerdings wäre dann wieder ein Feature weg, dass exklusiv auf dem G70 zu haben ist. Toll finde ich natürlich, dass das neue Feature bei ATI auf fast allen aktuelleren Karten ab dem R300 läuft, wer mehr wissen will sollte mal hier vorbeischauen. (klick)
Der neue ATI-Chip scheint mir eine interessante Entwicklung zu sein und kann durchaus überzeugen. Trotzdem kommt einem ein wenig die Ernüchterung, dass der Chip im Prinzip nichts mehr kann als der bereits mehrere Monate alte G70. Auch die Leistung hätte ich mir persönlich etwas höher gewünscht, allerdings scheint der Chip seine Stärken in der Bildqualität deutlich zu zeigen, was nach der Katastrophe mit dem G70 und der anisotropen Filterung sehr erwünschenswert ist. Schlussendlich sieht man klar, dass der neue ATI-Chip die Nase vorne hat. Wenn sich das mit der sehr guten Bildqualität bewahrheitet wird wohl bald wieder was von ATI in meinem Rechner werkeln... ;o)
Nachtrag:
Wenn die nächste Frage im Forum gestellt wird "Welche Graka jetzt kaufen" - dann sind genau diese Gründe ausschlaggebend für die Kaufempfehlungen. Wenn dir die 2-3%, bzw, qualitativ hochwertiges AF, egal sind - dann empfehle du nur noch nach dem Preis, das wäre dann wohl eine Radeon 7000. Oh, Verzeihung, ich vergaß die Konkurrenz... Schande über mich.
Weil wir vorhin die Übertaktung angesprochen hatten:Wieviel Takt macht denn die X1800 standard?
ATI Karten takten zwar standardmäßig höher als Nvidias,aber manchmal ist da kaum mehr was zu holen.Ich hatte mal ne X800XTPE.core übertaktung ganz mickrig,bei 30,40 MHz mehr fing das an zu zittern.Memory-gar nichts,nicht mal 10MHz.Andere wiederum gehen sehr gut.Es ist bei ATI sehr unterschiedlich,während bei Nvidia eigentlich immer einiges geht.
Hmmm... Eine "Standard X1800" gibts nicht, nach dem Topmodell kommt die X1800XL, diese taktet mit 500/500, besitzt aber ansonsten die gleich Features.
Meine X850XT geht auch nur knapp bis auf PE-Niveau, was ich aber so gehört hab hat ATI die Spannung absichtlich so ausgelegt dass nicht viel mehr geht, mit einem Volt-Mod sollte dann doch noch einiges mehr gehn... Allerdings ist mir meine Karte zu teuer um sowas auszuprobieren, bzw, reicht mir die Leistung eh mehr als aus :-)
Die Bibel unterscheidet noch ganz anders -
aber lass vielleicht das am besten den Propheten und Gott ! :-) .
Gruss
okay jungs, ich gebe auf, trete zurück, was auch immer
Auf gut deutsch, ATI müll und nVidia Top! War schon immer so, wird auch immer so bleiben. Warum sind diese ATIisten so naiv und glauben echt, das jemals eine ATI karte nvidia das wasser reichen kann?!
also echt...
Auf diesen Kommentar hat die Welt gewartet...
Immer diese Glaubenskriege zwischen ATI und Nvidia :)
Für mich muss das Bild gut sein und die Preis/Leisung stimmen.
Ich zahl doch keine 450 Euro für ne High-End Graka die in nem halben jahr nur noch 300 Euro kostet.
Was bringt einen die vielen Punke bei 3D Mark wenn das spiel nicht schön dargestellt wird?
Immer diese Glaubenskriege zwischen ATI und Nvidia :)
Für mich muss das Bild gut sein und die Preis/Leisung stimmen.
Ich zahl doch keine 450 Euro für ne High-End Graka die in nem halben jahr nur noch 300 Euro kostet.
Was bringt einen die vielen Punke bei 3D Mark wenn das spiel nicht schön dargestellt wird?
Ist auch einer der Punkte wegen dem ich eher zur ATI Karte greifen würde.
Wurde ja oben schon drüber diskutiert das die G70 Chips das etwas schlecht machen.
@ schnarfield: So was haben wir hier gebraucht.diese Objektivität ist ja unglaublich.Wenn du wirklich nach diesem Motto handelst,dann tuts mir echt leid.
Ist es wirklich der Markennahme der soviel zählt?letztendlich ist das alles nur Silicium und beide Hersteller, sowohl ATI als auch NVidea, haben ein Niveau erreicht das sehr hoch liegt.Ich denke deshalb das man nach Leistung gehen sollte.
Egal.Jedenfalls finde ich ist ATI da ein schönes Geschöpf gelungen.Leider kann ich Schüler mir das nicht leisten (schnief) und muss noch drüber nach denken ob ich mir nächstes Jahr ne X800XT oder ne GF6800GT zulegen kann.Obs die da noch irgendwo gibt :(
Geteiltes Leid ist halbes Leid ;-)