Na gut, die Jungs von THG waren immer schon ein wenig pro Intel, trotzdem:
http://www.tomshardware.de/FX-Bulldozer-Effizienz,testberichte-240891.html
Desweiteren:
http://www.3dcenter.org/artikel/sisoft-mit-eigenen-bulldozer-benchmarks
Nach dem verspäteten Launch hätte man so was ahnen können, aber der Glaube stirbt zuletzt.
Nach dem Shrink auf 32 nm hatte ich bei derzeitigen Anwendungen ein deutliches Leistungsplus erwartet,
nichts dergleichen bei nahezu gleichem Verbrauchslevel.
Unter Win 8 soll das natürlich besser werden, da ist AMD Vordenker.
Vordenker auch bei faked Benchmarks:
http://www.pcgameshardware.de/aid,850265/AMD-veroeffentlicht-Battlefield-3-Benchmarks-mit-Bulldozer-Community-Aufreger-des-Tages/CPU/News/
Habe ich etwas verpasst? Was soll dieser Griff ins Klo? Will AMD jetzt Prozessoren verkaufen oder sich spätestens bei Erscheinen von Battlefield 3
lächerlich machen ?
Bin gerade am Zusammenstellen eines PC für den Junior vom Kumpel.
Da kommt ein AMD Phenom II X4 955 Black Edition rein, zusammen mit vernünftigen Komponenten
und einer brauchbaren Grafikkarte reicht es bei 500€ Limit derzeit nicht zu Intel.
Und genau das ist des Pudels Kern: Stillstand im Prozzimarkt und unverschämte Preise, sobald man besseres will.
Schade, Bolldozer...
Gruß - Kongking
Archiv Prozessoren 8.660 Themen, 54.742 Beiträge
Moin,
bin ebenso enttäuscht. Meiner Meinung nach hat die Fusion (LIano)-Serie mehr Potenzial, als der Bulldozer.
8-Kerne, hin oder her, der Leistungverbrauch ist, für die gebrachte Leistung, einfach nicht mehr zeitgemäß.
Intel schafft es schon seit 2 Jahren, mit 95Watt CPU deutlich höhere Leistung zu erreichen.
Mein Fazit, Fusion für Mittelklasse und NB/Netbook, ja, Bulldozer für Desktop, nein! Da nutze ich lieber weiterhin meinen 955er!
Gruß
Maybe
Wenn man bedenkt das intels nächster Prozessor schon 22nm nutzen soll sieht man wie weit AMD zurück liegt. Der Bulldozer ist ja nicht mal schlecht, aber der verbrauch ist einfach zu hoch. Ich hätte mir da deutlich mehr vom Powergating versprochen, wenn das beim C2 überhaupt richtig funktioniert. Gerüchte über Cache-Probleme gibt es ja auch. Es fehlt einfach massig Geld und Resourcen für die Entwicklung und das manueller erstellen von Designs.
Und ganz ehrlich mein Phenom reicht mir eigentlich noch dicke, die meiste Zeit läuft er eh mit 1,1Ghz bei 0,85V
mfg
chris
und @all
.."Der Bulldozer ist ja nicht mal schlecht, aber der Verbrauch ist einfach zu hoch"..
Wenn es der Energieverbrauch ist:
" gibt es denn keine guten 2 Kerner vom Bulldozer?"
Die mit nur 2 von Intel sollen ja auch oft gut genug sein.
Um die Verwirrung noch zu optimieren;-) soll es ja wieder mal
verschiedene Typen des Bulldozer geben.
Der eine Typ läuft auch auf konditionierten Motherboards wo auch die Alten AMDs gehen.
Der andere Typ von Mainboards kann "nur" Bulldozer?
Ja, AMD geht der Arsch langsam auf Grundeis,wenn die nicht bald die Kurve bekommen, dann wird das ganz bös enden.
Ich kann mich noch ganz gut erinnern als AMD mit seinen 1 Kern Athlon XP´s Intel ganz schön den Arsch aufgerissen hat damals :D Besonders mit dem Barton.
$irion
Jepp - das war 2003. Allerdings gab es damals generell nur 1-kernige CPUs, bzw. der Begriff "Kerne" war damals noch gar nicht geläufig. Wer mehr Leistung wollte, musste eben zwei CPUs installieren. Bei den großen Desktops von Apple, Modellreihe G5, war das damals schon gang und gäbe, im PC-Bereich afair dagegen eher selten.
CU
Olaf
Ich glaube nicht, dass es böse enden wird. Intel braucht AMD alleine schon aus Monopolstellungs-Gründen um eine Zerschlagung in den Staaten zu verhindern.
Traurig ist die Bulldozer-Leistung schon. Leidtragende sind die Verbraucher, Intel könnte heute schon Prozessoren zwischen 4 und 5Ghz anbieten, braucht das aber nicht zu tun, da seitens AMD nichts gegenüber gestellt werden kann.
Die Prozessorentwicklung und somit Performancesprünge verlangsamen sich daher momentan enorm.
Grüß dich Czuk, gibt es dazu irgendeine Quellenangabe...?
Eigentlich fast absurd, dass ein Hersteller mit seiner Technik hinterm Berg hält, nur weil die Konkurrenz nicht mithalten kann.
CU
Olaf
Seitens Intel? Das braucht Intel nicht, die überlassen das den wenigen Enthusiasten,
die sich heutzutage gar nicht mehr groß auskennen müssen:
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/50/
Nennt sich übertakten, und wenn sowas so problemlos geht, könnte Intel die Taktschraube (zusammen mit dem Preis)
locker nach oben ziehen. Aber wozu? Intel hat Leistungsvorsprung und kann damit Preise diktieren.
Eigentlich fast absurd, dass ein Hersteller mit seiner Technik hinterm Berg hält, nur weil die Konkurrenz nicht mithalten kann.
Wenn du Silber zum Goldpreis verkaufen kannst, lässt du erst mal die Diamanten im Schrank.
Würdest du bei Ebay genau so machen oder?
Gruß - Kongking
Naja, eine übertaktete CPU ist ja nicht gleich dem Mainstream. Die 5 GHz, die hier jemand mit einem i5 erreicht, mit Corsair H50/60/70 ? wird wohl nur selten zu erreichen sein.
Ich denke aber auch, das Intel inzwischen locker die 4 GHz übertreffen könnte. Aber wozu? Die Software verlangt es nicht, oder kann es nicht nutzen. Da werden nur 2 Kerne unterstützt, da funktioniert z.B. Turbo Boost nicht richtig etc...
Nach dem anfänglichen Fiasko mit den Sandy Bridge, bzw. dem Chipsatz geht man vielleicht erstmal auf Nummer sicher und basteln weiter an der Massentauglichkeit der "3D Transistoren".
Mir ist, vielleicht eher subjektiv, aber noch was aufgefallen. Kann es sein, dass sich mit aktuellen Intel-CPUs einfach "flüssiger" arbeiten lässt?
In meinem Desktop werkelt ein Phenom II X4 955 @ 3,6 GHz, in meinem Subnotebook grade mal ein Intel i5 UM520 mit 1GHz. Klar, bei reinen Berechnungen ist der Desktop wesentlich schneller, aber manchmal "hakt" es einfach. Das gleiche Gefühl habe ich beim i3 530 @ 2,9 GHz, bei meinem Bruder. Wie gesagt, ich meine nicht Geschwindigkeit, sondern "flüssiges Arbeiten".
Gruß
Maybe
Ich habe vor ein paar Tagen gelesen da hat einer ein AMD auf 8.43 Ghz hoch geschraubt.
Nur das mit dem Overcklocking finde ich es an spielereien. Das die Industrie keine schnellere Prozzys rausbringt. Liegt doch auf der Hand.
Gruss
Sascha
Klar, diese Spielchen gibt es schon ewig, ob mit integrierter Klimaanlage, oder gar mit Stickstoffkühlung. Das ist aber nicht real umsetzbar, auf normale Bereiche. Gut, große Serveranlagen sind auch "flüssiggekühlt".
Nur das mit dem Overcklocking finde ich es an spielereien.
Ich habe das "Spiel" auch nie mitgemacht, solange die CPUs gelockt waren, man also mit Silberleitlack etc. die Hardware manipulieren musste (Pentium 2, Celeron, Athlon XP etc.)
Die modernen CPUs, mit offenen Multiplikator, finde ich aber durchaus interessant. Durch die vielen, inzwischen eingebauten, Schutzmechanismen, kann man da nicht viel falsch machen. Ein XP rauchte noch sehr schnell ab. Moderne MB und CPUs schalten runter, bzw. komplett ab.
An der Spannung jedoch bastel ich auch nicht rum, wobei mich "undervolting" doch interessieren würde.
Ob man jetzt natürlich wirklich mehr davon hat, wenn man eine CPU mit 3,2, oder wie bei mir, mit 3,6 nutzt, ist eine andere Sache. Für Office und Internet bringt es nichts, selbst im Extremfall nur Sekunden oder einige FPS.
Wirkliche Leistungsschübe kommen immer erst mit neuen Architekturen, incl. Speicheranbindung- und Verwaltung und Multicores etc. aber nicht durch reine Erhöhung der Taktfrequenz.
Gruß
Maybe
Hi,
bei dem Versuch mit 8,43 Ghz tats flüssiger Stickstoff nicht mal mehr, es wurde flüssiges Helium verwendet:
http://www.computerbase.de/news/2011-09/neuer-weltrekord-amds-bulldozer-auf-8.43-ghz-uebertaktet/
Es hängt auch ein wenig davon ab, in wie weit die eingesetzte Software in der Lage ist, die Anforderungen auf mehrere Kerne zu verteilen. Je schlechter ihr das gelingt, desto mehr hilft eine höhere Taktrate.
CU
Olaf
Sicherlich hilft es, den Takt ein wenig anzuheben. Man (ich) hat dadurch aber keinen wirklichen Mehrwert, da es sich um Sekunden handelt, die man gewonnen hat. So gut wie alle modernen CPUs arbeiten, im normalen Betrieb, so gut wie verzögerungsfrei, auch bei mehreren Programmen. Mit dem Umfang der zu berechnenden Daten merkt man dann auch den Unterschied.
Gruß
Maybe
Kommt auf die Software an... wenn ein CPU-Kern am "Glühen" ist und die Software es nicht schafft, ihn auf Kosten eines anderen Kernes zu entlasten, dann wäre mehr Takt schon hilfreich.
Der Punkt ist eher, dass die meisten von uns kaum Software im Einsatz haben, die derartige Ansprüche an die CPU-Leistung stellt.
CU
Olaf
Moin Olaf,
das wiederum kommt drauf an, wie Multi-Threading-fähig eine CPU ist, weniger, wie viele Kerne (DIEs) verbaut sind.
Intel hat es damals mit der Hyperthreating-Technologie eingeführt, Pausen für andere Bearbeitungen nutzbar zu machen. Hyperthreading ist, AFAIR, sowas wie hardwareseitiges Multithreading. Wie die Threads aufgeteilt werden, hängt von der Hardware, dem BS und der jeweiligen Anwendung ab.
Ist hier relativ gut erklärt:
http://de.wikipedia.org/wiki/Multithreading
http://de.wikipedia.org/wiki/Mehrkernprozessor
http://de.wikipedia.org/wiki/Hyperthreading
Das ist z.B. wohl auch der Grund, warum moderne Intel-CPUs der Oberklasse immer noch Hyperthreading nutzen, obwohl schon Multicore vorhanden ist.
Wie die genaue Zerlegung von Aufgaben in Threads erledigt wird, hängt wohl von der Architektur der CPU ab.
Von daher hast Du Recht, das evtl. ein höher getakteter Singlecore teilweise effektiver sein kann. Genau darauf basiert z.B. auch die TurboBoost-Technologie, die einzelne Kerne, bei Bedarf, übertaktet.
Ob und wie jemand übertaktet, sei ihm selber überlassen. Wie beim Auto auch, geht es manchmal einfach um Reserven, auch wenn man meist nur 50-130 km/h fährt.
Und ganz ehrlich, manchmal vermisse ich die Zeiten, in denen man, während des Bootvorgangs noch eine Tasse Kaffee trinken konnte! ;-)
Ich denke mal, sowas meinte Prosseco auch. Für die Wirtschaftlichkeit und Effektivität mag das alles nützlich sein, für den Menschen selber wohl kaum.
Gruß
Maybe
Gruß
Maybe
HT kann das Problem von nicht parallelisierter Software nicht lösen. Mit HT bekommt ein Kern noch einen weiteren "Halben" dazu, damit können sich dann zwei solche "halben Kerne" gemeinsam die komplexen Recheneinheiten teilen während der andere gerade auf Daten warten oder die Pipeline neu aufbaut (das war beim P4 AFAIR die Motivation: die Architektur hatte eine sehr lange Pipeline und entsprechend teuer war der Verlust selbiger)...
Gruß
Borlander
Moin Borlander,
ich habe lediglich "Rest-Grundkenntnisse", was Programmierung angeht. Meinst Du mit "parallellsierter Software" solche, deren Bearbeitung in mehrere Threats aufgeteilt werden kann? Kann, in dem Falle, das BS die Threats so aufteilen, das Multicores genutzt werden können? Wo wird also entschieden, ob und wie Software bzw. Threads auf verschiedene Kerne, bzw. HT aufgeteilt wird?
Gibt es dazu irgendwelche Quellen bzw. Diagramme? Ich denke mal, es unterscheidet sich doch stark, je nach CPU-Architektur, BS und Anwendung, oder?
Gruß
Maybe
Die CPU hat absolut keinen Einfluss darauf. Wie die einzelnen Threads und oder Prozesse auf die CPU-Kerne verteilt werden muss der Scheduler des Betriebssystems entscheiden. Damit ein Programm wirklich von mehreren CPU-Kernen profitieren kann müssen schon zur Entwicklungszeit die entsprechenden Voraussetzungen geschaffen werden, durch den Einsatz von parallelisierbaren Algorithmen (das kann ihm keine Automatik abnehmen!). Bei gut skalierbaren Lösungen kann dann zur Laufzeit die Anzahl der Threads entsprechend der Anzahl der vorhandenen bzw. verfügbaren CPUs/CPU-Kerne gewählt werden...
Gruß
Borlander
Danke, darunter kann ich mir was vorstellen!
Gruß
Maybe
So weit klar. Aber in wie weit die einzelnen "Teil-Prozesse" eines Programms überhaupt verteilbar sind, hängt doch nicht nur vom BS ab, sondern auch vom Programm selbst?
D.h. wenn das Programm nicht auf die Nutzung mehrerer Kerne bzw. Threads ausgelegt ist, vielleicht sogar nicht ausgelegt sein kann, weil die Aufgabenstellung dies nicht hergibt, dann nutzt ein ausgefeilter Scheduler im BS doch auch nichts mehr?
CU
Olaf
P.S. THX auch an Maybe für das tiefere Einsteigen in die Materie!
Ja. Der kann nur das verteilen was es auch gibt ;-)
Richtig und falsch. So viele "Black Editions" hab ich bei AMD noch nie gesehen.
Das "Black" ist doch eine Aufforderung zum übertakten, da ist halt der Multi offen.
n meinem Desktop werkelt ein Phenom II X4 955 @ 3,6 GHz, in meinem Subnotebook grade mal ein Intel i5 UM520 mit 1GHz. Klar, bei reinen Berechnungen ist der Desktop wesentlich schneller, aber manchmal "hakt" es einfach. Das gleiche Gefühl habe ich beim i3 530 @ 2,9 GHz, bei meinem Bruder. Wie gesagt, ich meine nicht Geschwindigkeit, sondern "flüssiges Arbeiten".
Hm. Glaskugelfrage...
Gruß - Kongking
Naja, ÜbertaCKten ist ja nun keine technische Neuerung, das gab es immer schon. Letztlich heißt das nur: auf eigene Gefahr die CPU außerhalb ihrer Hersteller-Spezifikation laufen lassen. Nichts für mich.
Dass ein Hersteller immer eine gewisse Pufferzone einbaut zwischen der genannten Leistung und der technisch möglichen, ist eine verständliche Absicherung. Das würde ich an Intels Stelle genau so machen.
Wenn du Silber zum Goldpreis verkaufen kannst, lässt du erst mal die Diamanten im Schrank. Würdest du bei Ebay genau so machen oder?
Kommt drauf an, wie die Preisentwicklung bei den Diamanten ist - und wie dringend ich das Bargeld benötige.
CU
Olaf
Mein E6750 den ich Ende 2007 gekauft habe. Der laeuft sahne fluessig schnell mit ein Intel Board. Wuerde ich den noch eine Graka spendieren. Noch schneller. Nur er braucht es nicht.
Gruss
Sascha
Der ist ja noch ein richtig gutes Teil,
fast wie ein Xeon E3100..
:-)
Die Legende D805 mit maroder netburst Technik hat da keine Chance..
Ja da gebe ich dir recht. Der einzige Prozzy der mir immer so schoen passt und ich immer noch liebe ist mein PIII, 733 Mhz.
Auch wenn ich so viele Prozzys habe. Von jede Generation eins.
Gruss
Sascha
Du hast vollkommen recht, wenn es um normale Anwendungen geht. Aber der kleine Racker will schon mal ein Spiel anzocken.
Und gerade was pädagogisch vertretbares wie z.B. Anno 1404 verträgt sich nicht mit 1,1 GHz,
da sind aktuelle CPU schon gut ausgelastet.
Gruß - Kongking
Das ist ja der Punkt.
Graka und Monster Prozzys nur fuer Games und CAD/Video. Ansonsten braucht man sie nicht. Ach hoppla. Habe fast vergessen. Es gibt ja viele USEr die wollen ja alles Trubo schnell haben. Nur das Menschliche Gehirn ist in weiten nicht so schnell, wie ein Prozzy und den Rest der Hardware.
Gruss
Sascha
Ack.
Gruß - Kongking.
Kommt ganz darauf an, welche Rechner Du damit meinst. Direkt kann man das wohl eh nicht vergleichen. Rein von der Rechenleistung her, erreichen moderne Desktop-CPUs noch lange nicht die Rechenleistung eines menschlichen Gehirns.
http://de.wikipedia.org/wiki/Technologische_Singularit%C3%A4t
Wenn auch wohl eher Spekulation, geht man von 100 bis 10.000 Terraflops aus. Akutuelle CPUs liegen aber noch im 5stelligen Megaflops-Bereich:
http://www.maxxpi.net/pages/result-browser/top10---flops.php
Wie gesagt, kann man so wohl kaum vergleichen, daher nur, falls es von Interesse ist.
Gruß
Maybe
Sie haben aber genügend Power Anwendungen zu starten, die falsche Kommas verhindern ;-)
Gruß - Kongking
Sollte wirklich mal etwas zu tun sein taktet er sich schon hoch (2,6GHz@1,15V). Das schöne am Phenom 2 im Gegensatz zu meinem Phenom ist, neben der höheren Pro/Takt Leistung, auch das er über 4 P-States verfügt, also nicht wenn es mal etwas zu tun gibt gleich unter Volldampf läuft. Meiner kennt ja nur 1,1GHz und aktuell 2,6 GHz.
Den 955 habe ich übrigens auch gerade bei meinem Bruder verbaut zusammen mit einer leisen 6850 und einem Mugen 3. Silent Gaming System ;-)
Nun wurmt es mich zwar etwas, nicht mehr den aktuellsten Rechner der Familie bzw des Verwandten/Bekanntenkreises zu haben, aber was solls. Der Bulli hat mir nen gehörigen Strich durch die Rechnung gemacht.
mfg
chris
Ein kleiner Wurm steckt manchmal im leckersten Apfel ;-)
Bei der Gedankenfabrik sind die 955 (C3) derzeit nicht verfügbar und moderat teurer geworden.
Thats the way it is.
Gruß - Kongking
von was redet bzw. schreibt ihr alle ? :-D
ich habe mir noch nie gedanken gemacht ob was bei mir 22nm oder 32nm hat!
mich interessiert eher die frage, für was man sich solche gedanken macht und für welche anwendungen man diese braucht.
für mich sind das wichtigste medizin bzw. forschung, für den gemeinen 08/15 anwender (auch firmen) ist das aber nicht wirklich überlebensnotwendig. (ok, ausser für hersteller von solch komponenten *g*)
oder sehe ich das wieder mal zu naiv?
gruß alekom
Eine geringere Strukturbreite hat zwei Vorteile: Die Leistungsaufnahme lässt sich reduzieren und der Platzbedarf auf dem Wafer (d.h. aus dem gleichen Stück Silizium kann man mehr CPUs herstellen)...
Durch die kleinere Fertigung lassen sich mehr Chips pro Wafer herstellen, es werden damit in der Regel auch höhere Taktraten erreicht, und es wird weniger Spannung benötigt was letztendlich auch in einem Geringeren verbrauch resultiert.
Da ist es für AMD eben fatal wenn sie dort hinterher hängen, wobei das auch verständlich ist, wenn man sich die Budgets beider Firmen anschaut.
Ich habe lieber einen günstigen, schnellen, sparsamen und leicht zu kühlenden Prozessor im Rechner. Überlebensnotwendig ist es aber nicht
mfg
chris
na ok, alles ist besser, wenn beim endanwender die kosten reduziert werden können.
aber dann sollte man sich ausrechnen, ob ein neukauf im laufe der jahre wirklich "günstiger" kommt.
vergleich neupreis versus einsparungspotential.
aber ich denke so eine frage stellt sich sowieso nur, wenn der "alt"-rechner aus den letzten löchern pfeift.
oder nicht? *g*
gruß Alekom
Beim Neukauf erfolgt auch eine Abwägung AMD oder Intel. Und derzeit kaufen sogar User die immer AMD hatten eine Intel-CPU...
Geht das nicht sogar schon seit 2006 so, also seit Erscheinen des CoreDuo? Ich erinnere mich dunkel, dass sich das Preisniveau bei Intel seinerzeit deutlich nach unten bewegt hat, während der jahrelang zuvor hochgelobte Performancevorteil von AMD dahin war.
CU
Olaf
Ja. Aber aktuell kaufen nicht mal mehr die AMD die nach erscheinen der Intel Core-CPUs noch ein AMD-System gebaut haben...
AMD ist out, wenn die den Arsch nicht hochbekommen, vopr allem bei der privaten Kundschaft sind die bals weg vom Geschäft als denen lieb ist.
Naja, ist ziemlich hart! AMD hatte eigentlich immer einen geringeren Marktanteil. Wenn ich an Zeiten von Celeron und K6-2 zurückdenke, da war der AMD auch keine wirkliche Konkurrenz, schon garnicht für P2/P3.
Der erste Athlon war auch kein Überflieger, erst der Athlon XP konnte es wirklich mit dem P4 aufnehmen. Und die Turion CPUs für NB waren auch keine Konkurrenz für die Core Duo/Core 2 Duo- Reihe.
Momentan sieht es eigentlich aus wie immer. Die A und C Serie sind durchaus interessante Produkte, für das Netbook (C) oder den Multimedia-Rechner (A). Die Fusion-Technologie (APU) finde ich keinen schlechten Ansatz. Im Netbook würde ich sie momentan den Atoms vorziehen.
Nur Topprodukte, die mit den Flagschiffen von Intel (i5/i7) konkurrieren können, die findet man momentan wohl nicht. Zumal in der Klasse die integrierte Grafik keine große Rolle spielt, da man sich eh eine leistungsfähige GK dazukauft.
Dennoch gebe ich Dir teilweise Recht. Ich habe (im Desktop), lange AMD gefahren (Seit K6-2). Momentan würde ich aber auch eher zum i5 greifen, der einfach effizienter arbeitet.
Und da grade bei den Gamers AMD immer recht beliebt war, dürfte das schon gewaltige Umsatzeinbrüche mitbringen.
Gruß
Maybe
Das hat aber jahrelang - so um die Mitte der 2000er - daran gelegen, dass Intel im OEM-Geschäft so aggressiv den Markt dominiert hat. Komplettsysteme hatten praktisch immer Pentium- oder Celeron-Prozessoren an Bord, ein AMD in einem Medion-Rechner bei Aldi etwa wäre noch 2002 undenkbar gewesen. Das kam erst kurz darauf.
Dafür hat AMD jahrelang mit dem Athlon XP das Retail-Geschäft dominiert. Aber das ist natürlich das wesentlich geringere von beiden, die meisten PCs werden "fertig von der Stange" gekauft.
CU
Olaf
Moin Olaf,
stimmt, wo Du es schreibst. Intel hatte auch mit HP, IBM und Dell jahrelang sehr starke Partner. Zudem hatte AMD damals mit massiven Chipsatzproblemen zu tun. Man denke nur mal an den VIA KT133A Chipsatz und die Probleme mit der Soundblaster Live, damals eine der gebräuchtlichsten Soundkarten. Wer da gar in eine SB Live Premium, mit Frontpanel gegriffen hatte, war ganz schön sauer. Denoch habe ich so einen Rechner fast 10 Jahre gehabt.
Gut wurde es eigentlich erst mit den nVidia nForce Treibern und dem Barton XP. In der Zeit, in der ein P4 nichtmal mit Rambus-Speicher schneller war.
Noch hat AMD ein wenig "Puffer", den diejenigen, die momentan einen Phenom II X4/6 fahren, werden wohl nur selten zu einem i5/i7 wechseln. Die gebotene Leistung sollte noch ein wenig reichen, in Verbindung mit einer guten GK.
Sprich, auf mich bezogen, die 20% mehr, die ein i5 bringen mag, braucht man momentan eben nicht und P/L sind aktuell auch immer noch recht gut (Phenom II X4 955 für 99 Euro).
Und, wie ich geschrieben hatte, die A, C und E Serie sind, imho, durchaus brauchbare CPUs mit genug Leistung, je nach Anwendung.
Gruß
Maybe
Puh, ist das lange her ;-) Das war sogar noch ganz knapp vor meiner Zeit. Als ich meinen ersten PC zusammengestellt hatte - P4-Northwood auf Asus P4B266 - wäre bei AMD der VIA KT266A aktuell gewesen. Afair war der KT266 "mit ohne" A auch immer noch buggy. Einen eigenen AMD-Chipsatz gab es zu der Zeit nicht bzw, nur als Auslaufmodell, und Nforce kam leider erst im Jahr darauf, sonst wäre ich vielleicht doch AMD-User geworden.
Gut wurde es eigentlich erst mit den nVidia nForce Treibern und dem Barton XP. In der Zeit, in der ein P4 nichtmal mit Rambus-Speicher schneller war.
Rambus stand bei mir damals ziemlich oben auf der Wunschliste - gottseidank habe ich davon gerade noch rechtzeitig Abstand genommen. Sauteuer, und schneller allenfalls im Intel-internen Vergleich, nicht aber gegenüber AMD. Das wäre ein echter Reinfall gewesen.
CU
Olaf
Moin,
muss dazu schreiben, dass der VIA KT133A eigentlich nur für den Athlon gedacht war, mit einem MOD-BIOS lief aber auch der XP, mit Palomino Kern. Der lief sogar noch mit 1GB PC-133 SD-RAM, also vor DDR.
Ja, auch der KT266 hatte noch Probleme, ebenfalls z.B. mit der SB Live. AFAIR kam mit dem 266er auch DDR als Speicher.
Wenn AMD nicht am Headspreader gespart hätte, hätten auch mehr überlebt, vom fehlenden Überhitzungschutz mal ganz abgesehen.
Die stabilere Lösung war eigentlich auch damals ein P4 mit Intel Chipsatz. Der Einfachheit halber eine Intel-Netzwerkkarte und Ruhe war.
Wenn man wirklich ehrlich ist, war der einzige wirkliche Grund für eine AMD-CPU schon immer der Preis. Den wenn nicht in der Leistung, dann lagen sie in der Qualität und Stabilität hinten. Gut, Intel hat auch viele Böcke geschossen (RAMBUS, Sandy Bridge Chipsatz), aber die können es sich eben finanziell leisten.
Naja, whatever, mal schauen, was noch kommt, evtl. sogar bald ARM-CPUs im heimischen PC!? Für mich wäre ein Multiprozessor-System mit ARM-CPUs durchaus eine interessante und evtl. günstige Alternative zu z.B. Multi-XEON Systemen.
Gruß
Maybe
Das wusste ich gar nicht, dass die Heatspreader bei AMD nicht so gut waren. Ich habe nur noch in Erinnerung, dass die Intel-Prozessoren sich damals schon heruntertakteten - d.h. es wurden einfach Takte ausgelassen - wenn es ihnen zu heiß wurde. Bei AMD ging das anfangs noch gar nicht, später erschienen Mainboards, die diese Funktion übernahmen, was aber nicht ganz so zuverlässig gewesen sein soll. Bei einem Kumpel von mir ist auf jeden Fall einmal ein Athlon XP abgeraucht, weil die Lüftung ausgefallen war.
Intel hat auch viele Böcke geschossen (RAMBUS, Sandy Bridge Chipsatz), aber die können es sich eben finanziell leisten.
Weder Rambus noch Sandy würde ich pauschal als "Bock" titulieren. Rambus hat den Performance-Vorsprung der Athlons nur zum Teil wett machen können und war dafür einfach nur zu teuer. Die Hardwarebugs bei Sandy-Bridge-CPUs traten nur im Zusammenhang mit dem Cougar Point-Chipsatz im B2-Stepping auf und waren mit B3 bereits behoben.
CU
Olaf
Nicht nicht gut, sondern nicht vorhanden ;-)
Moin,
wie Borlander geschrieben hatte, beim den XPs gab es keinen Headspreader. Darum gingen viele CPUs schon beim Einbau/Umbau zu Bruch, ein leichtes Verkanten des Kühlers reichte manchmal schon, ein Stück vom DIE abzubrechen, vor allem wegen der bescheidenen Klammerbefestigung. Warum? Keine Ahnung! Ältere und neuere hatte ihn wieder. Zumal das auch ne ziemliche Sauerei mit Wärmeleitpaste gab.
Stimmt, was Du geschrieben hast. Den Wärmesensor haben die MB-Hersteller im Sockel integriert, der war aber häufig nicht "schnell" genug, wenn man z.B. den Lüfter nicht plan aufgesetzt hat.
Gruß
Maybe
Genau das ist die Achilles-Ferse. Der in die CPU integrierte Wärmesensor bei Intel hat einfach spontaner reagiert - Sekunden, die Leben retten können...
beim den XPs gab es keinen Headspreader. Darum gingen viele CPUs schon beim Einbau/Umbau zu Bruch, ein leichtes Verkanten des Kühlers reichte manchmal schon
Aah okay, Denkfehler von mir. Ich war ehrlich gesagt der Meinung, Heatspreader und Kühler seien dasselbe (im Gegensatz zum Lüfter, der aus einem drehenden Propeller besteht). [EDIT: lese soeben den Beitrag von Borlander] Ja, so ist das mit den preiswerten CPUs - wie überall im Leben, Sparen am falschen Ende ist nicht gut.
CU
Olaf