Ich habe mit großem Interesse in der letzten Gamestarausgabe Leserbriefe zum Thema "Hardwareanforderungen von Spielen" gelesen. Ich konnte den verärgerten Schreibern nur zustimmen:
Ein Freund von mir hat noch vor 2 Jahren alle Spiele mit einem AMD Athlon 2000+, 256MB RAM und ner Radeon 9000 Pro auf höchster Qualität ruckelfrei spielen können. Heute mit demselben Prozessor, 512MB RAM und einer Radeon 9500 ist er froh, wenn er hier und da noch ein neues Aufbau- oder Rollenspiel findet, was bei ihm dann läuft.
Auch mein 2,4GHz Northwood-Prozessor hat mich bis 2005 nie im Stich gelassen. Alles lief mit bester Qualität einwandfrei, heute ruckeln Games selbst auf niedriger Qualität.
Oder Shader 3.0: Seit 2004 auf Grafikkarten verfügbar, erst seit einem halben Jahr für HDR-Effekte nutzbar, aber ab diesem Jahr schon Mindestvoraussetzungen für Ego-Shooter.
Hardware wird in Wochenabständen neu erfunden, verbessert, auf den Markt geworfen und seit langem schon nicht mehr vorrangig für Office- oder Firmenanwendungen, sondern für neueste "Gamingpower" entwickelt.
Heiß erwartete Spiele kommen nur exklusiv für Vista heraus, für das natürlich auch ein neuer PC notwendig ist bzw. ein Batzen Geld.
Also ehrlich gesagt, weiß ich nicht mehr, was das soll, man ist größtenteils damit beschäftigt für neue PC-Hardware zu sparen und zu sorgen und Systemvoraussetzungen zu vergleichen, in der Hoffnung das Spiel läuft auch noch mit der derzeitigen Hardware.
Spiele - Konsolen, PC, online, mobil 8.969 Themen, 42.565 Beiträge
Bei den Spielen Alan Wake, Halo 2 und Hellgate London heißt es schon, dass die nur für Vista herauskommen und selbst wenn die neuen DirectX 10-Spiele (z.B. Crysis) auch noch auf XP laufen, wird ja nicht gesagt wie gut. Ich meine, wenn die Grafik dann schon bei 800x600 ruckelt oder wie die von älteren Spielen erscheint, nützt mir das dann nicht wirklich was...