Mal wieder die Frage eines Users, der (unter anderem) von Spielen keine Ahnung hat.
Und mit ziemlicher Sicherheit auch in absehbarer Zeit keine haben wird.
Ich habe einen Monitor mit einer Auflösung von 1280 x 1024 Pixeln, 32bit Farbe und einer eingestellten Bildwechselfrequenz von 75Hz, wo -so wird gesagt- sowieso nur 60Hz verwendet werden.
Nun machten welche ehemals mit der Radeon 9600 kommerzielle Fotobearbeitung, jetzt mit der Radeon 2600Pro oder der Radeon HD3870.
Wobei bei der Fotobearbeitung zwischen den letzten beiden kein Unterschied spürbar wäre - sagt man mir.
Und ich kann auch keinen erkennen.
Nun lese ich immer wieder "diese taugt nicht für dieses Spiel, nimm diese, die ist besser---"
ja, warum eigentlich?
Die Auflösung bei der neuen, die Bildwechselfrequenz, die Farbtiefe - alles das ist doch wohl das Gleiche?
Wäre nett, wenn Ihr mir da mal etwas nachhelft, was ich über- oder garnicht sehe.
Jürgen
Grafikkarten und Monitore 26.142 Themen, 115.553 Beiträge
Bei Fotobearbeitung ist auch kein Unterschied zwischen den Grafikkarten festzustellen, da die komplette Arbeit hier von dem Hauptprozessor gemacht wird und die Grafikkarte nur das Bild anzeigt. Zumindest bis jetzt ist das so, so soll das neue Adobe Photoshop auch die GPU nutzen können für verschiedene Effekte.
Bei Spielen (zumindest sofern sie in 3D laufen) sieht die Geschichte ganz anders aus. Die Spiellandschaft sowie die Figuren werden aus Polygonen zusammengesetzt (quasi dreidimensionale Körper, die aus Dreiecken geformt werden). Je mehr Dreiecke verwendet werden, desto detailierter werden die Objekte, desto aufwendiger wird aber auch die Berechnung.
Dieso Modelle werden dann mit Texturen überzogen (Bitmaps). Je höher die Auflösung dieser Texturen desto mehr Speicher wird benötigt.
Dazu kommen dann natürlich noch so Scherze wie Licht- und Schattenberechnungen, Explosionen und andere Effekte. Und das alles will natürlich in Echtzeit berechnet werden, was heutzutage fast komplett von der Grafikkarte erledigt wird.
Und wenn man jetzt mal ein 5 Jahre altes Spiel mit einem Spiel von heute vergleicht, dann sieht man das der notwendige Rechenaufwand immens gestiegen ist.
Nebenbei ist die typische Auflösung für ein Computerspiel in den letzten Jahren ebenfalls drastisch gestiegen. Vor einigen Jahren waren typische Auflösungen 1024x768 bis 1280x1024. Mehr war auf den üblichen CRTs nicht möglich mit einer entsprechenden Hertzzahl. Heutige Standard-TFTs haben mindestens eine Auflösung von 1280x1024, eher mehr.