Hallo,
ihr habt Sorgen :)
Natürlich wird irgendwann mal Feierabend mit der jetzigen Technik sein, weil sie einfach nicht mehr hergibt. Einen alten 486er-Kern kann man auch nicht auf 2 Ghz hochjubeln. Okay für ein paar Nanosekunden, aber das ist nicht wirklich erwünscht.
Am meisten Leistung wird zur Zeit bei dem x86-Code verheizt, wenn man sich mal so genug Quellen durchliest. Die meiste Zeit verbringen die CPUs mit warten oder Müllentsorgung. Schuld ist in den meisten Fällen eine schlampige Programmierung; ein Graus wenn man sich z.B. das HTML von manchen ansieht *brr*. Ich glaube mal gelesen zu haben, daß Intel berechnet hat, daß derzeit etwa 30% "Müll" bei der Laufzeit produziert wird. Ganz klar, daß man da immer schnellere CPUs benötigt. Andere Plattformen, wie RISC, sind da deutlich optimierter und gehen, wenn man es mit x86 vergleicht, ab wie Schmidts Katze. Aber auch nur dann, wenn alles aufeinander abgestimmt ist.
Und wenn ein namhafter Hersteller das versucht ein wenig abzustellen und vom Programmierer verlangt etwas sorgfältiger umzugehen, wird gleich losgewettert. Dabei geht Netburst geeignete Software viel schneller vonstatten. Daß Intel das macht ist unwichtig. Wichtig ist nur, daß es weniger Leistung für lulu verbrät. Obwohl dann hat mein kein Argument mehr für einen 50 Ghz Chip, hmmm. Jetzt hat AMD auch solche Optimierungen drauf (bzw. bauen sie den besseren Müllentsorger, da der P4 ja Netburst hat) und alle jubeln, seltsam ?
Fakt ist, daß jeder Chip für seine Aufgabe optimiert ist. Eine CPU wird nie so schnell 3D-Koordinaten rechnen können wie eine GPU. Die gab es im Profimarkt schon lange vor der GeFurz. Nur ist sie jetzt erschwinglich (mehr oder weniger) geworden. Aber die GPU wird nie KI oder ähnliches (Physikalische Berechnungen) blitzschnell ausführen können. Vielleicht hat man da mal einen dritten Chip im Rechner. Genau da setzen diese Zukunftstechnologien an (Star Trek und Co. lässen grüßen), wie DNS-Computer oder Quantenrechner und noch andere Dinge. Und eine Waschmaschinenstuerung ist für die Waschmaschine da. Davon verlange ich nicht, daß sie Töne produzieren kann. Außer einem "Plopp", wenn er ablebt und ihm zu heiß war :)
Aber es gibt einen gewaltigen Nachteil. Niemand weiß, was passiert, wenn man zig Terahertz im Rechner hat. Also wenn das Gehäuse bei 650 Mhz offen ist, kann man Radio bis zu 20 cm daneben völlig vergessen. Das zweite Problem ist die Wärme. Ein 486er braucht nix, ein 200MMX reicht Kühlkörper mit riesen Fläche (viele Rippen). Aber für einen 2000+ von AMD muß man zigmal mehr Energie - auf der Fläche gemessen - abführen als bei einer Herdplatte, bei Intel ein bißchen weniger. Noch vor zwei Jahren waren Wasserkühlungen nur was für "Freaks" und heute braucht man die fast schon. Obwohl das meistens sinnlos ist. Wenn die den Strom vom Netzteil durch die Wandler jagen, werde die statt dem Chip irre heiß. Wenn überhaupt Spannungswandler zum Einsatz kommen, meistens werden arme Widerstände gequält. Klar, sind ja auch billiger. Die Ingenieure sollten sich mal diesen Problemen annehmen und nicht in der Zukunft schwelgen. Wenn die heutige Produkte nicht reif bekommen, schaffen sie es in der Zukunft auch nicht.
PS: Was wäre wenn wir nur Glühbirnen hätten (mehr Heizung als Licht) und keine LEDs kennen würden?
Gruß
Dumistvieh