Hallo zusammen!
Irgendwann musste es ja passieren - die Terabyte-Grenze bei Festplatten ist geknackt:
http://www.vnunet.de/testticker/news/detail.asp?ArticleID=11074&Topic=Newsticker&Ref=pc-pro
Das gute Stück wird übrigens knapp 1200 $ kosten - hmmm, also dafür würde ich mir lieber einen 2. PC hinstellen. Natürlich mit Festplatte *g*.
CU
Olaf
Klatsch, Fakten, News, Betas 5.087 Themen, 27.849 Beiträge
Moin Olaf,
sieht man mal von professionellen Multimedian-Anwendungen ab, braucht doch kein Mensch diese riesige Platte (welche ja, wie ich gelesen habe, aus mehreren Packages bestehen soll), oder doch? Aber vor etlichen Jahren dachte ich auch mal, dass man niemals Platten mit mehr als 1 GB wirklich brauchen könnte. *ggg*
Na ja, wenn die Rechner immer schneller und besser werden, könnte es schon sein, dass man eines Tages Platten hat, die die gleichen Zahlenangaben besitzen wie die derzeitigen, nur dass des sich dabei dann um TB-Dimensionen handelt. Wer weiß was die Zukunft uns noch so alles bescheren wird.
Hi Franky!
> Aber vor etlichen Jahren dachte ich auch mal, dass man niemals Platten mit mehr als 1 GB wirklich brauchen könnte. *ggg*
Genau das ist es eben. Mein erster Mac hatte 1993 auch nur 230 MB Festplattenspeicher, heute ist die 500-fache Größe an der Tagesordnung, und man braucht kein großer Prophet zu sein, um vorauszusagen dass es diese Entwicklung immer weiter gehen wird. Beim Arbeitsspeicher ist es genau das gleiche: 1987 auf dem Atari war 1 MB schon viel, inzwischen ist 1 GB nichts Ungewöhnliches mehr.
Und doch mag ich mich der allgemeinen Fortschrittsgläubigkeit nicht vorhaltlos anschließen.
Im Gegensatz zu damals - 1987 bzw. 1993 - sehe ich heutzutage kaum noch eine praktische Anwendungsmöglichkeit für derart hohe Harddisk- bzw. Arbeitsspeicher-Kapazitäten. Okay, vielleicht wenn man sich ein digitales Videoarchiv mit "Abend füllenden" Filmen anlegen und diese auch noch nachbearbeiten und schneiden will, dann könnte man eine TB-Platte und 2 GB RAM gebrauchen. Was aber, wenn die Entwicklung in ein paar Jahren bei 20-TB-Platten und 32 GB RAM angekommen sein wird?
Anders gesagt: 1987 war man froh, einen 24spurigen Midi-Sequencer im Rechner zu haben und träumte davon, die gleichen Möglichkeiten auch mit Audio zu haben. 1993 war man froh, auch Audio-Harddisk-Recording betreiben zu können, wenn auch zunächst nur mit wenigen Spuren. Für mehr waren die Festplatten nicht nur zu klein, sondern auch zu langsam. Und der Spaß war sündhaft teuer! Damals träumte man davon, eine 24-Spur-Bandmaschine mit dem Computer ersetzen zu können.
2004 ist man froh, auch das geschafft zu haben... doch wovon träumen wir heute?
CU
Olaf
[Diese Nachricht wurde nachträglich bearbeitet.]
Tach,
@Olaf: Du meintest doch sicher in Deinem zweiten Post Hauptspeicher oder? Denn in 93 hätte man mit 230mb Ram schon ganz schön für Aufsehen gesorgt, normal waren da max. 8mb. Und heute würde man mit dem 500 Fachen auch schon ganz gut bestaunt werden ;-)
Ich denke mal, dass man die Platte gebrauchen kann, die Mp3 Sammlung hat man dann eben gleich im WAV Format auf dem Server zu liegen, heruntergeladene Filme legt man auch gleich dort ab und brennt nicht mehr, was ja eh viel zu lange dauert und die Spiele werden ja auch immer größer. Das ist es ja überhaupt, je mehr Speicher zur Verfügung steht, desto schlampiger werden Anwendungen programmiert. Überhaupt nicht mit der ABsicht Platz zu sparen. Das nächste Windows bringt bestimmt ein paar GB auf die Platte- Grundkonfiguration natürlich. Aber da das mit einem bestimmten Überwachungszubehör ausgestattet ist, welches uns das Denken verbieten soll, kaufe ich das eh nicht.
Ich denke nicht, dass es soweit kommen wird mit den 32GB Ram, irgendwann werden auch die Letzten merken, dass der Speicherwahn nichts mehr bringt und früher oder später wird der ganze Mist durch etwas Effizienteres und Effektiveres ersetzt. Ich glaube nicht, dass Computer in 10 Jahren noch genauso aufgebaut sind wie heute.
Ich sehe bei diesen Dimensionen ein Problem, wie macht man es denn mit der Datensicherheit, respektive dem Spiegeln? Solche Mengen brennt man nicht mal eben auf ´ne DVD, selbst die DVD Standard 9 ist da noch um ein vielfaches zu klein. Da muss man schon im Raidverbund arbeiten, am besten noch mit 3 Platten parallel, um auch ganz sicher zu sein. Uijuijui, dat wird aber ganz schön auf die Euronen gehen...
Das mit dem "Arbeitsspeicher" habe ich mittlerweile in "Festplattenspeicher" korrigiert. Danke - wieder eine Peinlichkeit weniger :-D
> früher oder später wird der ganze Mist durch etwas Effizienteres und Effektiveres ersetzt. Ich glaube nicht, dass Computer in 10 Jahren noch genauso aufgebaut sind wie heute.
In die gleiche Richtung gehen meine Überlegungen. Dieser ganze Höher-Schneller-Weiter-Wahn ist völlig witzlos, wenn die Bedürfnisse der User auch nicht annähernd im gleichen Tempo mitwachsen. Mehr Effektivität statt immer mehr Quantität - dann lohnt es sich auch in Zukunft noch, ab und an mal einen neuen Rechner zu kaufen.
@Franky
> wie macht man es denn mit der Datensicherheit, respektive dem Spiegeln? Solche Mengen brennt man nicht mal eben auf ´ne DVD, selbst die DVD Standard 9 ist da noch um ein vielfaches zu klein
Diesen Punkt habe ich in meinem ersten Posting bewusst ausgelassen, damit's nicht zu lang wird... aber Du hast natürlich völlig recht: Das Wachstum der Backupmedien kann mit dem der Festplatten auch nicht annähernd mithalten. Wann kam die CD-Brennerei in Mode - so Mitte der Neunziger, oder? Wie groß war damals eine Festplatte - 1 GB? Also 350 MB Systempartition und 650 MB Datenpartition - passt perfekt auf nur eine CD. Als das CD-Brennen allmählich zum Volkssport avancierte (~1997) war eine Festplatte im Durchschnitt 2 GB groß - also 3 CDs für eine Komplettsicherung inkl. System.
Heute sind Festplatten gerne mal 80 GB groß, macht 17(!!!) DVDs für eine allumfassende Datensicherung - das tut sich keiner an. Bevor sich also die Festplattenkapazitäten ins Astronomische weiter entwickeln, wär's nicht verkehrt, die Schraube bei den Backupmedien etwas anzuziehen. Von Platte zu Platte zu backuppen ist jedenfalls nicht das Wahre, auch wenn es momentan keine brauchbare Alternative dazu gibt.
CU
Olaf
Hallo zusammen, habe gerade gebannt den Thread durchgearbeitet, um mehr über die LaCie Platten zu erfahren. Zum Grundtenor des threads fällt mir ein, dass noch niemand bemerkt hat, dass die LaCie Platten auch externe Platten sind, die über die Anschlüsse Firewire 400 und 800, sowie USB 2.0 und iLink/DV verfügen. Daher sind Sicherungsmechanismen in Form von Speichermedien wie DVD's bei den Größenordnungen von max 1,6 Terrabyte vermessen.
Die Lösung dafür ist ein RAID 1 mit 2 der Wahnsinnsplatten kombiniert mit Backupsoftware wie z.B. VERITAS. Hier klärt sich dann auch der Bedarf des Marktes. Mittelständische unternehmen bauen sich so ein Backupsystem für ihre Server zu einem sagenhaften Preis.
Während meiner Recherche in diesem Bereich stoße ich allerings nun auf eine für mich sehr wichtige Frage. Wenn es doch so einfach ist, Festplatten in dieser Größenordnung zu bauen, warum sind dann SCSI Platten mit 164 GB begrenzt. Eine Vergleichskalkulation zwischen den beiden Systemen als Backupsystem (LaCie und SCSI mit RAID 5) sähe wie folgt aus. (die Veritas Software bleibt außen vor).
LaCie Platten 2 x 1 Terrabyte: Kosten: 2 x 959 € = 1918 € (gespiegelt eingesetzt)
Da ich die SCSI Platten nun nicht in dieser Größe bekomme, wird hier RAID 5 angewendet
also:
1000 GB + (1000 GB * 0,33Parity verlust) = 1330 GB
Max Größe SCSI= 146 GB
1330 / 146 = 9,1 Festplatten x ca. 450 €
eigentlich müsste man nun von 10 Platten ausgehen, um LaCie nun nicht auch noch zu bevorteilen machen wir das nun aber
Also: 9 HDD SCSI x 450 € = 4050 €
Nun zu meiner FRAGE: Wie kann es sein, dass andere Festplattenhersteller es nicht schaffen diese Größen zu bauen. Ich habe nun die Befürchtung, dass die Speicherkapazität der Lacie Platten auf Kosten der Datensicherheit geht. Sprich ist das was ich heute speichere auch morgen noch auf der Platte.
Ein Lösungsansatz meines Hirnschmalzes ist, dass evtl. mehr Platz zwischen den einzelnen Scheiben der Platte benötigt wird, da SCSI Platten mit einer höheren Umdrehungszahl laufen.
Falls jemand eine Idee hat, woran die geringere HDD Kapazität bei SCSI liegen könnte freue ich mich über Antworten. Falls Jemand die Lösung WEIß, umso mehr.
MFG Robin