Ich habe mich in letzter Zeit recht intensiv mit dem Problem "Auslagerungsdatei" beschäftigt und einige Erkenntnisse gewonnen.
Die möchte ich nun gerne mal mit Messungen belegen.
Mit Videobearbeitung gehts anscheinend nicht, die Zeit bleibt die Gleiche, egal, was ich mit dieser pagefile anstelle.
Habt Ihr einen Hinweis, welches Programm sehr viel RAM benötigt und was man testweise mal installieren könnte?
Danke für Hinweise.
Jürgen
Allgemeines 22.007 Themen, 148.997 Beiträge
Hallo,
ich weiß nicht, ob dir dieses Programm bei deinen Studien von Nutzen sein kann, aber ein Versuch ist es wert. Das kostenlose Programm Heavyload ist eigentlich ein "PC-Stress-Tool". Es erzeugt eine hohe Auslastung bei CPU, RAM, Festplatte, Netzwerk. Du kannst die Module aber einzeln (de)aktivieren, also z.B. alleine mit Festplatten-Auslastung laufen lassen. Auszug aus der Produktbeschreibung: "To stress your PC or server, HeavyLoad writes a large test-file to the temp folder, it allocates physical and virtual memory...".
Gruß,
Foxtrot
Danke, @Foxtrot- ich hab mir es sogleich geholt. Mal sehen, ob ich damit klar komme - ich spreche leider kein englisch.
Mit des Personaltranslators Hilfe werd ich es mal versuchen.
Jürgen
Hallo Jüki,
ich hab mal auf die Schnelle ein kleines Programm geschrieben, das nichts macht, außer Speicher anfordern. Vielleicht hilft es Dir:
www.commarkt.de/downloads/memuser.exe
Probiere ich natürlich aus.
Und werde berichten. Danke!
Jürgen
Ihr habt Euch nun große Mühe gegeben, mir zu helfen. Aber entweder hab ich an den beiden Tools etwas nicht kapiert oder nicht exakt ausgedrückt, was ich eigentlich beabsichtige.
Deshalb noch einmal konkret:
Ich habe einen PC mit installierten 2 x 512MB RAM.
Ich will nun erproben, was für die Performace besser ist
- ohne Auslagerungsdatei
- mit einer Alibi- Auslagerungsdatei 64MB
- mit Auslagerungsdatei 1536 MB auf der gleichen Festplatte im Betriebssystem
- mit Auslagerungsdatei 1536 MB auf einer anderen Festplatte
Und dazu benötige ich ein Tool, wo ich sagen kann - ja, diese Einstellung erledigt das in nur xx% der Zeit der "Windows- Normeinstellung" und dieses benötigt dazu 100 + xx% der Zeit.
Ich habe es mit einer Video- bearbeitung gemacht, indem ich 4 Teilvideos zu einer DVD zusammenstellte. (Nero Vision Express)
Bei allen vier oben genannten Möglichkeiten ist die Zeit identisch. Jedenfalls fast, wenn man bei 78 Minuten eine Abweichung von 70 Sekunden ausklammert.
Die beiden von Euch empfohlenen Tools dagegen schreiben eben nur kontinuierlich den Speicher voll. Den Speicher, der vorhanden ist.
Sie liefern mir kein Kriterium, welche der Einstellungen nun zu empfehlen ist.
Und so etwas suche ich.
Jürgen
Sagt Dir der Begriff "Benchmark" etwas? Da gibt's z.B. große Dinger von Ziff-Davis. Für Deine Zwecke wäre z.B. der Multimedia Content Creation Winstone (MCCWinstone) geeignet. Dafür gibt's auf der verlinkten FTP-Site zwar nur noch das Update, die (kostenfreie) Originalsoftware müsste aber auch noch irgendwo aufzutreiben sein, wenn man dem Esel eine Möhre gibt...
Benchmark - schon oft gehört, wird oft bei Spielen und Grafikkarten verwendet und es wird um zehntel gefeilscht, stimmts?
Ehrlich: hab es noch nie verwendet, kenne nur den Begriff.
Gut, Möhren hab ich nicht im Hause, ich versuche es mal beim Esel mit ein paar guten ISOs.
Danke für den Hinweis!
Jürgen
Richtig. Nur handelt es sich in diesem Fall (MCCWinstone) um einen Systembenchmark, der ein ganzes Arsenal an gängigen Programmen zur Bewertung der Multimedia-Leistung einsetzt. Zum Einsatz kommen:
* Adobe Photoshop 7.0.1
* Adobe Premiere 6.50
* Macromedia Director MX 9.0
* Macromedia Dreamweaver MX 6.1
* Microsoft Windows Media Encoder 9 Build 2980
* NewTek's LightWave 3D 7.5b
* Steinberg WaveLab 4.0f
Zur Interpretation der Testergebnisse:
Als Ergebnis ergibt sich eine Zahl, die die Leistung des jeweiligen Systems in Relation zur Basis-Plattform stellt. Diese besteht aus einem 1,0-GHz-Intel Pentium III mit 256 kB Level-2-Cache, 256 MB Arbeitsspeicher und einer 64-MB-GeForce 256-Grafikkarte. Als Festplatte diente Seagates Barracuda ST330630A mit 28.6 GB. Dieses System erreicht vereinbarungsgemäß 10 Punkte. Erreicht ein Rechner 20 Punkte in diesem Test, so ist dieser doppelt so schnell wie das Referenz-System.
Danke auch Dir, @out-freyn.
Seh ich eine Gefahr: "Diese besteht aus einem 1,0-GHz-Intel Pentium..." hihi, ich hab ASUS...
Aber das hätte ich dann sicher gefragt, was diese Punkte bedeuten. Naja, erst mal schauen - beim Esel bin ich auf Platz 3 der Warteliste.
Wenn ich es habe, schaue ich es mir erst mal an, dann kann ich konkret fragen.
Jürgen
eMule war mir wohlgesonnen - ich hab das Teil. Auch schon installiert.
Aber leider - ich kann nichts damit anfangen, muß um Hilfe bitten.
Noch einmal mein Ziel:
Ich will einen PC mit vorgegebener Hardware testen.
- einmal mit Null Auslagerungsdatei
- einmal mit Auslagerungsdatei 1GB (ebensoviel, wie eingebauter RAM)
- einmal mit 1GB auf der Festplatte 2
Und feststellen, ob und welche Performance- Unterschiede auftreten.
Jürgen
Eigentlich ist alles ganz einfach :-)
Als Vorbereitung sind folgende Schritte abzuarbeiten:
- Die Windows-Taskleiste darf nicht "immer im Vordergrund" sein, weil die Programme während des Benchmarks im Vollbildmodus laufen sollen.
- Mit dem Startup-Manager kannst Du Programme, die beim Start gewöhnlich automatisch gestartet werden, für die Dauer des Benchmarks abschalten. Dies ist sinnvoll für diverse Programme, die im Hintergrund aktiv sind.
- Ein Test ganz ohne Auslagerungsdatei ist nicht möglich. Die Auslagerungsdatei muss mindestens 150000 kb (ca. 147 MB) groß sein.
- Der Test kann nur als Administrator gestartet werden.
- Gestartet wird der Test mit dem Link "Multimedia Content Creation Winstone - batch". Danach ist recht oft auf OK zu klicken; das System wird für den Test automatisch neu gestartet.
Danke - ich werde es versuchen.
Jürgen
Fraglich ist, ob die Unterschiede überhaupt gewaltig werden. Afair war es früher (W9x) schon ziemlich egal, ob das Swapfile fest, variabel (Standard), mit auf der Win-Parition oder auf anderer Partition war. Den größten Vorteil bringt es eher doch (weil logisch) fixed am Anfang einer 2. Platte (falls da nicht dauernd Traffic drauf ist ...). Im normalen Betrieb wirst du das aber kaum spüren (Unterschiede waren damals
Am ehesten wäre ein Unterschied wohl bei aktuellen Spielen zu merken, wo Lade- und Nachladezeiten geringer werden.
Bildbearbeitung und Scans mit hohen Auflösungen (A4 mit 1200x600 oder höher ...) würden auch sehr stark das Swapfile beanspruchen (braucht man real aber auch nicht).
Hier fragt sich, ob der ganze Aufwand wirklich lohnt (außer du hast zu viel Zeit).
Zum letzten Teil Deines Satzes, @Göttin des gerechten Zornes ins Quadrat -
>>Hier fragt sich, ob der ganze Aufwand wirklich lohnt (außer du hast zu viel Zeit)
- die habe ich. Endlich einmal. Was soll man als Rentner sonst treiben?
Und zum ersten Teil: Das lohnt sich auf jeden Fall. Zumindest für mich und auch für die, denen ich versuche, zu helfen.
Das wenige, was ich weiß, soll eben nicht nur aus dem Nachplappern von gängigen Meinungen bestehen, sondern ich möchte gerne die Ursachen, die Quellen verstehen lernen.
Und über die Auslagerungsdatei sind schon immense Kämpfe ausgetragen worden, wohin diese Pagefile und wie groß. Auch hier bei Nickles. Wo beide Seiten ihre Standpunkte mit Vehemenz vertraten. Allerdings eben nur gefühlsmäßige Standpunkte - und demzufolge zu keiner Einigung kamen.
Meine bisherigen Erkenntnisse zielen ganz genau in diese Richtung "Im normalen Betrieb wirst du das aber kaum spüren"!
Was sich eben schon aus der Theorie (soweit ich sie kapiere) des Datenmanagementes ergibt. Aber ich möchte dies mit Messungen belegen.
Jürgen
Berühmt-berücktig ist der Conrad-Katalog als PDF. Du lässt einfach durch den Katalog nach einem Begriff suchen, mit der PDF-Suche, sagen wir mal Acrobat 7. Und beobachtest dabei das Anwachsen der Auslagerungsdatei. Als ich noch zweimal 256 MB RAM hatte, bin ich da wohl so auf 1400 MB Auslagerungsdatei gekommen...und entsprechend langsame Suche.
Edit:
Mit dem neuen Katalog und 1 GB RAM klappt es nicht so richtig. Gegen Ende der Suche und DANACH (!) kommt Windows so über 600 MB. Habe jetzt mal ein zweites Suchwort nachgeschoben, mal sehen..., ne klappt nicht so recht, steuert jetzt erst auf so 700 MB zu. Beim Schließen des PDFs geht es beim neuen Catalog auch sofort auf knapp 300 MB-Auslagerungsdatei runter.
Man müsste noch so ein älteres Conrad-PDF finden, 2-3 Jahre alt und etwas RAM ausbauen. Geduld braucht man auch, bis jeweils die 1750 Seiten (früher nur so 1000 Seiten) durchgesucht sind.
Hab ich natürlich sofort versucht, mir diesen Katalog von der "Conrad-Apotheke" herunter zu laden - aber die wollen von mir komplette Adressangaben haben. Obwohl das auch aus dem Telefonbuch entnommen werden kann, ich hab da was dagegen. Und habs gelassen.
Nach einem älteren werde ich mal suchen.
Danke für Deinen Hinweis!
Jürgen
Ich habe für den Katalog-Download noch nie Daten abgeben müssen. Was ist das denn jetzt?
Hier:
http://www.eshopinfo.net/download/conrad-katalog.html
und weiter zum Download:
http://www.trademanager.org/downloads/register.asp?owner=606&referer=eshopinfo&typ=&portal=dci&ad-typ=dci
Jürgen
Die Monopolisten werden übermütig.
Die c't hat das auch mal nachgemessen:
"Auslagerungsdatei auf eine zweite physikalische Festplatte auslagern" >> keine messbaren Änderungen
"Eine Auslagerungsdatei mit 10 MB auf der Systempartition belassen" >> keine messbaren Änderungen
"Für die Auslagerungsdatei eine feste Größe vorgeben" >>> keine messbaren Änderungen
Dein "privater" Benchmark mit der Videobearbeitung war also durchaus aussagekräftig
lg
maestro
Ja. das glaube ich auch.
Ich werde meine konkreten Ergebnisse noch zusammenfassen und hier veröffentlichen.
Jürgen
Geschwindigkeitsvorteil hin oder her, C muss ja nicht unnötig fragmentieren.
Tut es ja auch nicht, wenn man die Pagefile mit einer festen Größe einrichtet. (Nachteil: Der Speicherplatz ist dauerhaft belegt, auch wenn nur eine Datei ausgelagert ist.)
Fragmentiert die Platte nicht trotzdem?
In den Platz werden ja ständig Daten geschrieben und wieder gelöscht.
Windows reserviert den kompletten Speicherplatz sofort - sozusagen als Container, in den im weiteren Verlauf bei Bedarf Daten geschrieben werden. Daher ist es natürlich unerlässlich, vor dem Anlegen der festen Auslagerungsdatei das Laufwerk zu defragmentieren. Die Auslagerungsdatei bleibt permanent erhalten. Fragmentierung findet auch später nicht statt - außer natürlich wenn man Windows veranlasst, die Pagefile beim Herunterfahren zu löschen. In diesem Falle wird sie bei jedem Neustart neu angelegt, evtl. auf einer dann etwas fragmentierten Platte.
Ich defragge mein System immer nur mit der Windowsoption dafür.
Sind Programme wie O&O wirklich so viel besser, bzw lohnt es sich darauf umzusteigen?
Die Anzeige ist bei mir nach dem Defrag komplett blau und lt Bericht keine fragmentierten Dateien mehr vorhanden.
O&O Defrag - Dieses Tool ist eigentlich das fachlich anerkannt Beste.
Wobei ich nicht unbedingt auf von Werbung finanzierte Tester in Zeitschriften baue, sondern mehr auf fachlich relevante Tests, Hochschulen, Unis. hab aber leider keinen Link gespeichert.
Du hast bei "O&O" mehrere Defrag- Möglichkeiten der Defragmentation. Ich benutze für die Systempartition "COMPLETE Access", für die Programm- und Datenpartition "Space".
Und sogar wenn ich eine Partition, die vorher mit dem XP- Defrag defragmentiert wurde, mit diesem einfachen "Space" prüfen lasse, werden mir oft noch eine Reihe fragmentierter Dateien angezeigt.
Was aber eigentlich nur dann so richtig wichtig wird, wenn man von einer solchen Partition mit einem Rettungstool Dateien retten will.
Bei der Performance habe ich da bislang ohne präzise Messung nichts bemerkt.
Jürgen
Das Windowstool ist "Diskeeper Lite" von Executive Software. Ich hab' die Diskeeper-Vollversion, weil man damit u.a. auch eine Grunddefragmentierung beim Systemstart planen kann - dann lassen sich auch Systemdateien defragmentieren, die sonst - da in Benutzung - nicht angetastet werden.
Von O&O lass' ich mittlerweile die Finger, nachdem mir eine frühere Version mal Daten beim Defragmentieren kaputt gemacht hat (waren hinterher teilweise nicht mehr lesbar). Vermutlich ist die aktuelle Version besser, aber so ist das nun mal mit gebrannten Kindern... :-)
ich verwende es schon sehr lange - empfehle es auch in meinem Bekanntenkreis. Derlei ist mir noch nicht zu Ohren gekommen.
Weiß der Teufel, was da passierte.
Geht mir im Übrigen auch so - bin ich mal mit einem Tool auf nie spitzigliche Nase gefallen, hab ich ne Abneigung dagegen. Auch, wenn das gar nichts dafür kann.
Jürgen
Hallo,
seit ich vor etwa einem Jahr einen Produkt-Testbericht über O&O Defrag V8 geschrieben habe, verwende ich dieses Programm konsequent. Mich hat es überzeugt, und ich empfehle es im Bekanntenkreis ebenfalls oft weiter. Einziger fader Beigeschmack ist eine ähnliche Geschichte wie von out-freyn berichtet. Hatte nach einer Windows-Neuinstallation alles schön eingerichtet und wollte vor dem Image noch alles defragmentiert haben. Das Boottime-Defrag für die Systemdateien hatte mir ebenfalls meine komplette Windowsinstallation zerschossen. Anschließend half nur noch Neuinstallation. Als mir das beim zweiten mal erneut passierte habe ich seitdem Abstand dazu genommen. Was aber das normale Defragmentieren unter Windows angeht, das läuft stabil und bringt 1A Ergebnisse!
Gruß,
Foxtrot
- hab ich hier mal nieder gelegt:
Auslagerungsdatei bei Win XP
Jürgen
Hallo Jürgen,
klasse Arbeit, die Grösseneinstellung der Auslagerungsdatei ist für mich zwar weniger interessant gewesen(Photoshop will sogar noch eine zweite), aber die Funktion ist klasse erklärt, konnte so "auf die schnelle" noch was lernen ;-)
Wenn man die Erklärung der Funktionsweise der Auslagerung schon quasi 1:1 abkupfern muss, dann sollte man wenigstens die Quelle und den zitierten Autor nennen.
Das will ich hiermit nachholen.
Autor: PCO
Quelle: Klick!
Wenn Du Photoshop hast, dann versuche mal eine Kollage zu erstellen, mit 15 Bildern und schaue Dir an wie schnell das geht, beim arbeiten und nachher beim Speichern als jpg. Stelle demensprechen die Auslagerungsdateien ein.Macht Spaß.