Wie Heute auf Heise.de zu lesen war, plant Ati einen neuen Schwung Radeon-Grafikkarten auf den Markt zu werfen, dabei zielen sie auf die Abdeckung annähernd aller Märkte. Die Radeons werden binnen Monatsfrist November verfügbar sein.
NVidia will die neue Grafikkarten-Generation erst 2003, wahrscheinlich zur CeBit auf den Markt werfen. Nun wird im Heise-Bericht gemunkelt, dass dieser Termin vielleicht vorverlegt wird.
Alte Kamellen
Aber was bedeutet das eigendlich für den Kunden? Nur gutes? Konkurrenz belebt das Geschäft! Eigendlich sollte Konkurrenz und damit verbundener Wettbewerb für eine hohe Produktinnovation und -qualität sorgen. Aber NVidia hat es in der Vergangenheit mit Offensiven gezeigt, der Kunde will weder Qualität noch Innovation. Er will Leistung und das Gefühl, etwas tolles steckt da in seinem PC. NVidia hat es immer verstanden, dem Kunden dieses Gefühl zu geben.
Erinnern wir uns mal zurück an 3dfx, denn das war auch einmal so eine Geschichte. 3dfx wandelte seine Strategie vom Massenprodukt zum Qualitätsprodukt. Anstatt viele sollte nur noch einer, STB, eine Hausmarke, Voodoo3-Grafikkarten bauen. Die Qualität der Karten war, im vergleich zur Konkurrenz in allen Bereichen gut bis sehr gut. Lediglich das Ausgangssignal war nicht besonders. Aber man bekam viel fürs Geld. Eine State-Of-The-Art-3d-Karte, eine sehr gute 2d-Leistung und das ganze war stabil und mit sehr gutem Treibersupport. Treiber für die Voodoo3 waren schon deshalb so stabil, da es ja nur einen Hersteller gab und daher keine Unterschiede zwischen der Hardware.
Mit der Voodoo3 setzte 3dfx aber auch auf Marktdurchdringung. Es gab kleine Voodoo3/2000 als PCI und AGP-Varianten, mittlerer Vooodoo3/3000 und grosse Voodoo3/3500 mit TV-Tuner.
Moderne Kriegsführung - Waffen, die keine sind
Was tat NVidia? Nun, als erstes wurde angekündigt alle halbes Jahr ein neuer Chip. Diese kurzen Intervalle liessen jedoch keine grossen Neuerungen zu. NVidia hatte damals die TNT2-Chips am Markt in den Varianten TNT2, TNT2-Pro und TNT2-Ultra. Diese hatten einen Vorteil: Sie unterstützten 32Bit Farbtiefe in 3d-Spielen, die Voodoo3 nur 16Bit. Nun muss man sagen, die Voodoo3 brachte damalige Spiele mit 16Bit und 1024x768 Pixeln Auflösung flüssig zum Laufen, was die TNT2 nicht schaffte. Es fehlte einfach noch an Prozessor-Power. Entsprechend war der 32Bit Mode ein vorerst unnützes Feature. Darauf folgte der Geforce256-Chip. Dieser "Edelchip" war zwar nicht grundsätzlich schneller als das 3dfx Pendant, war aber vom Prozessor unabhängiger, mit DDR-Speicherinterface und konnte auch in 32Bit durchaus mit der Voodoo3 mithalten. Er unterstützte DirectX6 und mehr Effekte, als es in Spielen zu dieser Zeit gab. Aber zu welchem Preis! Kostete damals noch die Voodoo3/3000 300Mark, legte man für ein Geforce256-Modell mit SD-RAM sogar noch über 400Mark hin. Die DDR-RAM-Modelle gingen mit 650Mark an den Kunden. Der Geforce256-Kern wurde in den letzten Jahren stetig weiterentwickelt bis hin zur Geforce4.
NVidia hatte damalas was begriffen: Grosse Worte und dazu passend grosse Preise - das verkauft sich. Trotz des wahnwitzigen Preises ging der Geforce weg wie nix und es folgte kaum ein halbes Jahr später die Geforce2GTS. Noch teurer, noch schneller, noch mehr tolle Sachen, die der Voodoo3 ja nicht hatte. 3dfx musste kontern und brachte viel zu früh die Voodoo4/5/6 raus. Unstabile Treiber, Grafikfehler und ein horrender Preis - das schreckt ab. War die Voodoo4 ein Performance-Witz und kam nie so richtig auf den Markt, war die Voodoo5 preislich im Segment des Geforce2 angesiedelt und hatte 2 Grafikkchips (VSA genannt). Die Voodoo6 hatte gar 4 Grafikchips und ein eigenes Netzteil. Diese Variante mit 4 Chips hat den Weg in die Läden auch nicht mehr gefunden. Tatsächlich war der Voodoo5 ein gutes Stück schneller, als die Geforce2 und auch die Bildqualität passte, aber der Erfolg war ihm nicht mehr beschieden. Trotz grober Mängel in den NVidia-Treibern und beinahe wöchentlichen Versionsupdates - der einstige König war tot.
Markt mit aller Macht
NVidia konterte direkt mit dem Geforce2Pro und Ultra. Derweil kamen Low-Budget-Varianten mit dem Kürzel MX heraus und attakiert Ati in seinem "Heimatsegment", dem Billigmarkt. Ati hatte zwar mit der Rage-Chipserie einen 3d-Chip, welcher als Rage-Fury sogar ansehnliche Leistung brachte, aber der Ruf der Billigkarte hing ihm an und keiner war bereit 400Mark für eine Ati-Karte zu zahlen - auch nicht für die MAXX-Variante mit 2 RageFury-Chips.
Unverhofft kommt oft
Überraschend! Der Ati-Radeon256 traf die 3d-Gemeinde wie ein Schlag. Die grosse Variante mit 64Megabyte DDR-Speicher liess die Geforce-Karten im Regen stehen. Wie durch ein Wunder brachte das erscheinen der neuen Treiber-Serie 7 die Geforce-Karten zu neuen Leistungshöhenflügen, die sie zumindest in die Nähe des Radeon katapultierte. Dies ging auf Kosten von Bildqualität und, ja, auch auf Kosten der Stabilität. Es brauchte etwa 10 (!) Treiberupdates, bis der 7er zufriedenstellend lief. Mittlerweile gab es aber auch schon eine Serie mit der Versionsnummer 12 - der Detonator. Zeitweilig waren 5(!) verschiedene Versionsnummern mit mehreren Unterversionen aktuell - die 6er, die 7er, die 10er, die 11er und die 12er. Welche lief, musste sich der Anwender überlegen - die Hochphase der 3d-Hardwaresites!
Etwa zu jener Zeit erschien auch der 3d-Mark2001, liebevoll auch NVidia-Mark genannt, attestierte er doch Intel-Systemen mit NVidia-Karten stehts ein durchweg besseres Ergebnis.
Das Leben geht weiter - ein buntes Treibern
Im braven Zyklus von einem halben Jahr erschien nun die Geforce3. Der Preis war nun schon auf 1000 Mark für eine neue Karte geklettert. Und trotzdem, die Karte war ein Verkaufsschlager. Sie war schneller als die Ati-Radeon und mit tollen neuen Effekten. Was keiner sah, auch mit weiterhin schlechterer Bildqualität und immer wieder das Treiberproblem. "Ich habe keine Treiberprobleme", tönten alle jene, die natürlich nicht zugeben wollten, dass ihre sauteure Karte ergonomisch gesehen unbrauchbar war. "Ich hab den 12.41er und der läuft". "Probier mal den neuen 21.83er, der is schneller und läuft bei mir problemlos!" - "Also ich hab den 21.40 drauf und da geht der PC manchmal aus, aber ich hab 8000 3d-Marks"... Hörte man jemals von Ati-Kunden "Welcher Ati Treiber ist der beste?" - Nein, der jeweils aktuelle lief und in der zweijährigen Geschite des Radeon256 gab es eine Hand voll Treiber.
Das Prinzip von NVidia ist auch hier recht einfach. Man schustert an einem Treiber rum und muss dann testen, obs was gebracht hat. Auf unbekannten Wegen kommt ein inoffizieller, höchst geheimer Treiber mit ganz tollen performancesteigernden Sachen drin (*zwinker*) ins Internet und wird von den Hardwaresites fröhlich proklamiert. Auf eben diesen Sites beschweren sich User dann über Probleme, diese versucht man dann zu reparieren und wieder so ein Treiber. Wenn dann die Menge der Beschwerden unter ein bestimmtes Limit fällt, wird der Treiber offiziell angeboten - der User als Tester.
Die Konkurrenz schläft nicht
Ati traf den Nerv der Zeit mit seiner Radeon8500, dem Nachfolger der Radeon256 die nun, mit leichten Designveränderungen, in Radeon7500 umbenannt wurde und den Mid-Range-Markt bedienen durfte. Die Radeon8500 liess wiederum die Geforce3 hinter sich. Ati hatte die Radeon256 konsequent weiterentwickelt, die Bildqualität war in 2d und 3d phantastisch, Unterstützung von TV-Out und 2 Monitoren, sowie DVI-Ausgang serienmässig dabei. Ausserdem wurde der Chip nun auch an Dritthersteller verkauft. Es sprangen sofort einige auf und so gingen NVidia einige Kunden verloren. Preisslich liess sich Ati auch nicht lumpen und verlangte zum Einstieg 700Mark.
NVidia waren wieder im Hintertreffen und da die Geforce4 noch nicht Marktreif war, bediente man sich des alten Tricks.
Flugs gab es einen Übertaktete Variante des Geforce3 - die Ti400. Die "alte Geforce3" wurden in "Ti200" umbenannt. Schon einen Monat vor Erscheinen der GeForce4 wollte man sich verlorene Marktanteile im Low und Mid-Range wieder holen und warf die Geforce4MX auf den Markt. Diese Namensgebung suggerierte dem Kunden: Hier gibts eine billige Geforce4! Tatsächlich war es eine Geforce2 - Etikettenschwindel also.
Die Geforce4 erschien in 2 Versionen. Die 4200 und die 4600. Wer die Tests der seriösen Hardwaresites gelesen hat, weiss, dass es ausser dem Chiptakt, keine grossen Unterschiede zwischen beiden gibt, ausser, dass die 4600er zur einführung etwa 600Euro kostete und alles bis dahin dagewesen, zumindest Preislich in den Schatten stellte. Mit der Geforce4/4200 zog NVidia mit Ati, rein 3d-Leistungstechnisch etwa gleich auf, mit der Geforce4/4600 überholten sie die Radeon8500. Erkauft wird die Leistungssteigerung über verringerte Bildqualität und abgespeckte Effekte. Jüngst war in der Zeitschrift C\'t wieder ein Test der Anti-Aliasing-Fähigkeiten zu lesen. Die Geforce4 schnitt deutlich am schlechtesten ab. Niemanden erstaunt es, dass die Geforce4/4200 etwa 50 Euro billiger war, als die entsprechende Radeon8500.
Zukunftsaussichten
Nun ist die Geforce5 (so wird sie wohl heissen) in den Startlöchern. Die Radeon9700, gerade erschienen, ist um Längen besser, als die Geforce4. Mit 4 Varianten dieses Chips setzt Ati auf Marktdurchdringung, sie wollen verlorene Marktanteile zurückgewinnen. Ein halbes Dutzend Hersteller sind schon auf den Ati-Zug aufgesprungen. Was wird NVidia nun wohl tun?
Ich denke dass es tatsächlich zu einem verfrühten Launch des Geforce5 kommen wird. Dabei gibt es genau zwei Varianten, was passiert. Die erste ist, der Geforce5 ist nur eine optimierte Version des Geforce4, mit neuen DirectX9-Features, höherem Chiptakt und tollen neuen Treibern, die ihn auf das Niveau einer Radeon9700Pro zerren. Oder aber, der Geforce5 ist tatsächlich mal wieder innovativ, genug Zeit hat sich NVidia ja gelassen und die Treiber sind noch nicht ausgereift.
Egal wie es kommt. Es wird Leute geben, die diese Karten dann für 500 bis 600 Euro kaufen. Diese werden dann unermüdlich erzählen, wie toll doch diese Karte ist und wie Spitze alle Spiele laufen. Und dann, nach einem halben Jahr, wenn es dann mal ausgereifte Treiber für für ihre Karten da sind, brauchen sie ne neue Karte,...
SO macht man Geld!
Dieses Post gibt es auch auf www.orthy.de ;-)
Klatsch, Fakten, News, Betas 5.087 Themen, 27.850 Beiträge
Das wollte ich auch sagen...
nVidia sucks !!