Hallo zusammen!
Nach dem "Überraschungserfolg", den mein AMD-Thread einen Stock tiefer errungen hat, ist jetzt Intel dran: http://www.golem.de/0709/54851.html
Mit Sinn und Unsinn dieser technischen Entwicklungen ist das immer so eine Sache... klar, zum Briefeschreiben und bisschen Surfen reicht mein oller Northwood-PIV, dafür brauche ich weder dual-, noch triple-, noch Quadcore.
Aber nicht nur, dass es auch leistungshungrigere Anwendungen gibt - viele Möglichkeiten werden erst entdeckt werden, wenn die passende Hardware die Voraussetzungen dafür schafft. Und verbraucht ein Vierkern-Prozessor, bei dem 3 Kerne unbeschäftigt vor sich hin dösen, wirklich zwangsläufig mehr Strom als ein Single-Core?
CU
Olaf
Archiv Prozessoren 8.660 Themen, 54.742 Beiträge
übrigens wird bei dem nehalem wohl das HT wieder eingeführt, dann wären wir bei 16 virtuellen kernen.
angeblich wurde ein lauffähiges muster gezeigt...
auch intel hat 3 kerne angekündigt.
und amd hat die gerüchte ebenfalls bestätigt.es handelt sich wahrscheinlich um barcelonas mit 1 deaktiviertem kern.
siehe computerbase.
Gibts ja nicht...und ich meinte das in dem o.a. AMD-Thread als Gag ;-D
Und das soll dann der technologische Fortschritt sein ?? Naja....
...viele Möglichkeiten werden erst entdeckt werden, wenn die passende Hardware die Voraussetzungen dafür schafft.
So wurde ja auch schon in dem Thread eine Etage tiefer argumentiert,
aber ich bleibe dabei : es gibt schon mehr als genug Hardware,
dessen Möglichkeiten seit Jahren nicht entdeckt sind.
Da bleibt in meinen Augen immer mehr Potential ungenutzt,
weil die hyperschnelle Produktabfolge einen wirlichen
Entwicklungsprozeß hinsichtlich des zu erreichenden Wirkungsgrades
/ der Effektivität gar nicht mehr zuläßt.
Grüß dich Henry, kommt drauf an... wenn es eines Tages so viele Systemkerne gibt, dass jeder Prozess von einem eigenen Kern abgearbeitet wird, vielleicht bringt das tatsächlich erhebliche Performancevorteile - immer vorausgesetzt, man hat die Anwendungen, die danach verlangen, was bei einem reinen Officerechner nie der Fall sein wird.
Das Ganze ist ein Henne-Ei-Problem: Solange die leistungsfähige Hardware nicht verfügbar ist, solange kann auch keine leistungshungrige Software entwickelt werden - auf der anderen Seite ist oft zu hören, wer braucht das alles, solange es keine Programme gibt, die danach verlangen.
Mit den Festplattengrößen ist es genau das Gleiche: Mir würden 20 GB eigentlich ausreichen - aber gäbe es nicht wesentlich größere Platten, inzwischen bis in den Terabyte Bereich hinein, wäre so manche Anwendung im Videobereich nicht denkbar.
CU
Olaf
Irgendwann muß sie ja kommen, die Software bei der viele Kerne richtig ausgenutzt werden und die 64Bit solten auch nicht weiter ein Schattendasein führen.
-- Tru64, ein altes Unix kann schon seit Jahren 64Bit, Alpha Cpu`s.
Eher nicht. Die meisten Prozesse benötigen sowieso nur sehr wenig CPU-Zeit. Lediglich eine Hand voll verschiedener Prozesse benötigt typischerweise den Hauptteil der CPU-Zeit. Bei denen lohnt es sich dann zu parallelisieren...
Gruß
bor
Irgendwann ist die Grenze dann aber erreicht, eine Optimierung von Standard(!)-Software ist vielleicht noch bis zum vierten Kern möglich, danach machts einfach keinen Sinn mehr.
Wenn Befehl 2 erst gestartet werden kann, wenn Befehl 1 abgeschlossen ist (weil Befehl 2 vom Ergebniss von Befehl 1 abhängig ist), bringt Dual/Multi-Core genau: gar nichts.
Vor allem nicht, wenn Thread 3 und 4 auch vom Ergebniss des vorhergehenden Threads abhängig sind. Ist dies der Fall, so ist ein Quad-Core nicht schneller als ein Dual oder Single-Core, bzw, nur minimal schneller, weil die Befehle schon im Cache bereitliegen.
Ob es irgendwann dahingehend optimierte Software geben wird, ist durchaus fraglich und alles andere als eine Frage der Zeit.
Bei Simulationen (z.B. FEM, Wetter oder Strömungsanalysen), Renderings und im klassischen Server-Umfeld ist eine Parallelisierung dagegen sehr gut möglich, dort machen Multi-Cores durchaus Sinn.
Im Home/Office-Bereich und speziell beim Gaming wird ab Quad-Core Schluß sein. In Spielen kann es gar nicht so viele voneinander getrennt laufende Threads wie Kerne geben, vor allem ist hier die Abhängigkeit von den Ergebnissen der einzelnen Threads sehr groß.
Grafik, Physik, KI - das hängt ja alles zusammen. Einzig die Wetter/Umwelt-Simulation könnte ungestört auf einem extra-Kern laufen - bis jetzt gibts aber noch kein Spiel, bei dem das Wetter einen Einfluß auf das Spielgeschehen hat ;-)
Lange Rede, gar kein Sinn:
Die Server-Admins werden sich freuen, 2 Xeons mit 8 physikalischen, bzw, eventuell sogar 16 logischen Kernen (ergo: 32 logische Kerne) - da flutscht der Host.
Für mich: uninteressant (wie für geschätzte 90% der User).
schöner, nüchterner, aber vor allem äußerst sachlicher Beitrag, Madhatter.
Für meine Wenigkeit kann man das exakt so stehen lassen,
spiegelt wohl den realen Sachverhalt am ehesten wieder.
Da kann ich dir nicht ganz Recht geben. Programme die keine riesige leistung brauchen mögen nicht gut skalierbar sein (Office, Internet...) aber die Progs, wos auf CPU-Leistung ankommt sind auch gut zu skalieren. Da sind einmal die Komprimierung, Verschlüsselung, komplexe Berechnungen und eben auch Spiele. Physik kann man wohl recht gut aufteilen, weil es immer viele parallele Physikberechnungen in einem Spiel gibt. Dazu die aufkommende Raytracing Technik, deren Leistung fast Ideal mit der Anzahl der Kerne skaliert. Also die Anwendungen sind da. Ich finds gut :D
Gruß CPUQuäler
Deshalb sagte ich auch "Standard(!)-Software" ;-)
Vor allem nicht, wenn Thread 3 und 4 auch vom Ergebniss des vorhergehenden Threads abhängig sind.Natürlich gibt es immer Codebereiche die nur ein Thread gleichzeitig durchlaufen kann. Der Programmierer muß allerdings darauf achten, das diese möglichst klein sind. Idealerweise sollten alle Threads an der seben Aufgabe werkeln - nur eben an unterschiedlichen Teilen der Daten (die sich natürlich besser nicht überschneiden sollten). Bei Video/Audio/Bilddaten ist das i.d.R. recht gut möglich - und die machen ja inzwischen im Heimbereich das größte Datenvolumen aus...
beim Gaming wird ab Quad-Core Schluß sein. In Spielen kann es gar nicht so viele voneinander getrennt laufende Threads wie Kerne geben, vor allem ist hier die Abhängigkeit von den Ergebnissen der einzelnen Threads sehr groß.
Grafik, Physik, KI - das hängt ja alles zusammen.Das sehe ich als Programmierer aus einer anderen Sicht ;-)
Es ist auch nicht so daß für jede Aufgabe ein Prozessor mit einem Thread beschäftigt würde, sondern viel mehr Alle CPUs sich erst um die Grafik, dann die Physik und dann um die KI kümmen (die Reihenfolge ist womöglich nicht umbedingt sinnvoll). Man muß lediglich dafür sorgen tragen daß die rechenintensiven Geschichten wie Graphik und Physik gut parallelisiert werden...
Der Geschwindigkeitsgewinn ist natürlich nur bei sehr wenigen Problemstellungen nahe an der Linearität zur CPU-Anzahl.
Gruß
bor
Und genau da liegt auch das Problem. Irgendwann wird der Aufwand schlicht zu groß um das vernünftig und mit einem erträglichen Kosten/Nutzen-Verhältnis lösen zu können, ab einem bestimmten Punkt sagt man dann: Die Hardware wirds schon richten.
Auch lässt sich leider nicht alles parallelisieren bzw, entsprechend verkleinern, es wird immer Überschneidungen und Abhängigkeiten geben.
Aber dieses Problem gibts nicht nur im Software-Bereich (Grrrr....!)
Aber wer weiß, wenn wir in ein paar Jahren wirklich CPUs mit 80 Kernen haben, schaut die Sache vielleicht wieder ganz anders aus. Das Potenzial von 3D-Beschleunigern konnte man anno 1990 auch noch nicht wirklich so abschätzen ;-)
Hallo,
Ich meine mal, Intel übertreibt es! Irgendwann machen die sich lächerlich... mit ihren "16" Kernen. Da wirds lächerlich, es gibt doch noch keine Programme die 8 oder 16 Kerner ausreizen können. ES GIBT JA NICHTMAL PROGRAMME die 4 Kerner ausreizen könnten -.- Das ganze wird eine Richtige Lachnummer von Intel