Irgendwann ist die Grenze dann aber erreicht, eine Optimierung von Standard(!)-Software ist vielleicht noch bis zum vierten Kern möglich, danach machts einfach keinen Sinn mehr.
Wenn Befehl 2 erst gestartet werden kann, wenn Befehl 1 abgeschlossen ist (weil Befehl 2 vom Ergebniss von Befehl 1 abhängig ist), bringt Dual/Multi-Core genau: gar nichts.
Vor allem nicht, wenn Thread 3 und 4 auch vom Ergebniss des vorhergehenden Threads abhängig sind. Ist dies der Fall, so ist ein Quad-Core nicht schneller als ein Dual oder Single-Core, bzw, nur minimal schneller, weil die Befehle schon im Cache bereitliegen.
Ob es irgendwann dahingehend optimierte Software geben wird, ist durchaus fraglich und alles andere als eine Frage der Zeit.
Bei Simulationen (z.B. FEM, Wetter oder Strömungsanalysen), Renderings und im klassischen Server-Umfeld ist eine Parallelisierung dagegen sehr gut möglich, dort machen Multi-Cores durchaus Sinn.
Im Home/Office-Bereich und speziell beim Gaming wird ab Quad-Core Schluß sein. In Spielen kann es gar nicht so viele voneinander getrennt laufende Threads wie Kerne geben, vor allem ist hier die Abhängigkeit von den Ergebnissen der einzelnen Threads sehr groß.
Grafik, Physik, KI - das hängt ja alles zusammen. Einzig die Wetter/Umwelt-Simulation könnte ungestört auf einem extra-Kern laufen - bis jetzt gibts aber noch kein Spiel, bei dem das Wetter einen Einfluß auf das Spielgeschehen hat ;-)
Lange Rede, gar kein Sinn:
Die Server-Admins werden sich freuen, 2 Xeons mit 8 physikalischen, bzw, eventuell sogar 16 logischen Kernen (ergo: 32 logische Kerne) - da flutscht der Host.
Für mich: uninteressant (wie für geschätzte 90% der User).