Tja, da es einige wissen. Aber vielen meinen, was ich auch dene das gute Recht gebe. Wollen wir mal sehen was da so ablaeuft.
Ach ja, mein Deutsch wird immer Schlechter. Weil ich es ja nicht praktiziere. Habe ja mit keinem es in mein Alltag zu sprechen.
Du kannst mit Linux machen was du willst, weil angeblich Windows dir vor diktiert, was und wie du es handhaben oder Software installieren musst. Bei Linux ist es das gleiche. Die Programmierer schreiben dir auch vor wie du Linux handhabst.
Es ist leicht zu installieren, aber schlimm um es zu konfigurieren. Das Hauptproblem ist nicht das viele konfigurieren, ist ja alles nach Texte orientiert, aber es hat keine Konsistenz. Einige sachen wird durch hdparm und ifconfig konfiguriert. Andere sachen wird durch Text Files konfiguriert, genauso wie andere sachen werden durch scripts konfiguriert (das alte rc.modules style) anderes wird wie modules.conf, konfig gemacht. Vielleicht kriegt man ein Feedback wenn was falsches laeuft oder wenn man es gemacht hat. Aber mann weiss immer noch nicht, was man falsch gemacht hat, wenn man ALSA konfiguriert, als beispiel.
Wieviel verschiedene versionen gibt es mit Programme, wie PIDGIN, GAIM, YATTM und noch viele 1000 andere. MP3 Players. Mehr als genug. Mann sollte nur 1 bis 2 Optionen lassen, wo es arbeitet und es sollte stabil sein. Linux soll nicht crashen, soll stabil sein, was vielleicht auch richtig ist. Wen der GUI crasht, der Kernel arbeitet weiter. Nur wenn man als beispiel: eine DVD brennt, du ladest eine Datei vom Internet runter und zugleich du schreibst einen Brief, dazu noch, du startest ein Programm. Alles ist verloren, wenn der GUI crasht. Sollte man dann zufrieden sein weil der Kernell weiter arbeitet.
Angeblich verwendet Windows kooperatives multi-tasking. Das stimmt einfach nicht. Windows95 und WindowsNT verwenden präemptives multi-tasking und in der Tat, der multi-task laeuft sanfter als Linux. Es ist nicht eine Leistungs sache, sondern mehr als, das "Gefuehl".
Die Geschwindigkeit des Standard-quantum in NT, ist ca. 20 Millisekunden schnell auf Arbeitsstationen, 50-100 auf Server. Das Standard-quantum unter Linux, ist 50 Millisekunden (neuerdings gesenkt im kernel 2.4). So in Linux jede Anwendung braucht eine längere Zeit. Wo es eigentlich efizienter sein koennte/kann, aber das interaktive leidet drunter
Linux ist auch zu gross. Um mit Windows zu vergleichen, muss man KDE oder GNOME verwenden. Anderfalls wird ein Wettbewerb vergleich veranstaltet, wo einer mehr funktionen hat gegenueber den anderen. Aber wenn du GNOME oder KDE nicht verwendest, dann seht man zu wie ihr es handhabt um zu arbeiten. Um ein vergleich zu machen, zwischen Linux und Windows, du musst GNOME + KDE haben (mit beide hast eine volle kompatibilitaet) dazu noch Mozilla und X und das Kernell. Nicht zu vergessen die ganze versionen von glibc und die dazugehoerige (oft redundante) Bibliotheken, um Anwendungen zum laufen zu bringen. Dazu bei der verwendung des Arbeitsspeichers, Linux bläst NT4 aus dem Wasser (schlecht). Linux kann es nicht.
Linux Anwender sollten doch angeblich lernen, wie man Compiliert von der Quelle. Wie man eine Software konfiguriert, wissen was LPD/LPR ist, sockets, LPP, that/dev/Ip0, wo der Drucker ist, das eth0=inet1, etc.
Wie schaut es denn aus mit dem Downloading von ein kleines Programm aus, bei der benuetzung von apt oder yum oder andere?
Linux laeuft oder besser rennt hinterher. Manche neue Kernell funktionen, wie journaling FS, new automounter, LVM und andere. Sind schon in vorherige Betriebssysteme implementiert worden. Nicht zu vergessen mit KDE und GNOME, das dene die puste ausgeht.
Andere BS Kernell, laden nicht alles in der gleichen Zeit. Das meisste von Windows, haengt nicht alles von die dll ab, weil es dynamisch entladen werden kann. Die meisten Unixes, haben ein Modular Kernel, lange Zeit vor Linux. Mikrokernell wie BeOS kann das ganze Subsystem ausschalten wenn es nicht gebraucht wird.
Es stimmt auch das es kein Virus fuer Linux gibt. Es ist schwer fuer ein Virus das er als Root arbeitet, damit er dein System Crasht. Nur ein Schaedling kann leicht unter denn User Account laufen und denn schaden verursachen. Aber da es viele nicht wollen ist halt eine andere sache. Man nimmt sich immer denn leichten weg.
Linux unterstuetzt DirectX nicht und automatisch fehlt Unterstuetzung für ein grossteil der Hardware funktionen. Der Hauptgrund war die transparente nutzung der Hardware, ein grosses Design aspekt für DirectX.
Manche Test, zeigte das NT threads, nicht nur weniger Zeit brauchen um zu erstellen, sondern signifikanter schneller wechselt. Darueber hinaus macht man Entschuldigungen für Linux, wegen mangel an threaded Anwendungen.
Multi Threaded anwendungen sind besser. Moeglicherweise braucht man etwas mehr Aufwand und sind komplexer zu schreiben, aber zahlt es sich aus mit SMP-Maschinen. Vielleicht zahlt es sich aus in die heutige Systeme, aufgrunddessen die steigerungen der CPU Kerne. Nicht nur wegen die SMP Maschinen, sondern mehr wegen die spezialisierte Chip Systeme in deren benuetzung.
Linux ist nicht wirklich schneller, je nachdem was man tut. Für Serveraufgaben ist er zweifellos, ein Geschwindigkeits Monster. Aber für Desktop Aufgaben sind NT4 Computer (nicht BeOS-Maschinen zu nennen) schneller. Screens haben weniger sichtbare Anzeigen, Applikationen schalten schneller von einem zum anderen. Um ganz zu schweigen von die Tatsache , dass Media orientierte Anwendungen besser unter Windows laufen als unter Linux. (Dies ist teilweise aufgrund von den APIs. X ) was wirklich nicht ideal ist für schnelle Bildschirm Displays,, OSS ist nicht wirklich ideal für ein komplexen Sound, das X-input-system ist nicht zu vergleichen mit Direkt Input, es wirklich nicht, dass es viele MIDI-APIs gibt, mindestens vergleichbar mit DirectMusic, dazu noch es anzusprechen. 3D ist immer noch langsamer unter Linux als unter Windows.
So bitte dann will ich ja Profis hoeren die was dagegen sagen, ob es stimmt oder nicht????
Gruss
Sascha
Linux 15.028 Themen, 107.048 Beiträge
Gähn... so viel Müll auf einem Haufen. Eigentlich wollte ich nicht antworten, aber ich hab auch noch keine Lust ins Bett zu gehen.
Du kannst mit Linux machen was du willst, weil angeblich Windows dir vor diktiert, was und wie du es handhaben oder Software installieren musst. Bei Linux ist es das gleiche. Die Programmierer schreiben dir auch vor wie du Linux handhabst.
Gegenmassnahmen: 1. Andere Distribution verwenden, 2. Entwickler beeinflussen, 3. Selber programmieren, 4. System wechseln (es gibt noch einen Haufen andere freie Systeme).
Wieviel verschiedene versionen gibt es mit Programme, wie PIDGIN, GAIM, YATTM und noch viele 1000 andere.
Stimmt. Unter Windows hat man diese Auswahl ja nicht. Da gibt es auch nicht tausende Messenger und tausende Mediaplayer. Guten Morgen, willkommen in 2008. Quicktime, Realplayer und Windows Media Player hatte man übrigens schon unter Windows95 parallel im System (und dazu Winamp, als damals einzig brauchbare Software). Lustig finde ich auch die Leute, welche MSN, ICQ, YIM und Skype parallel laufen lassen.
Pidgin und Gaim ist übrigens ein- und dasselbe. Gaim ist lediglich der alte Name.
Linux soll nicht crashen, soll stabil sein, was vielleicht auch richtig ist. Wen der GUI crasht, der Kernel arbeitet weiter.
Linux ist der Kernel. Nichts weiteres. Alles andere sind zusätzliche Programme (z.B. GNU-Tools), die von einem Distributor zu einem lauffähigen Betriebssystem für den Anwender zusammengestellt wurden. Wenn also die GUI crasht und der Kernel weiterläuft, dann ist Linux eindeutig nicht gecrasht.
Nur wenn man als beispiel: eine DVD brennt, du ladest eine Datei vom Internet runter und zugleich du schreibst einen Brief, dazu noch, du startest ein Programm. Alles ist verloren, wenn der GUI crasht.
Die GUI ist auch nichts anderes als ein gestartetes Programm (bzw eine Gruppe von Programmen). Wenn der Parent-Prozess sich aufhängt, dann gehen logischerweise auch die Kinder zu grunde. Unter Windows ist das kein Bisschen anders. Dort ist's im konkret genannten Fall sogar noch schlimmer, da die GUI mit dem Kernel verzahnt ist, ergo bei einem Crash potentiell das ganze System mitreisst.
Sollte man dann zufrieden sein weil der Kernell weiter arbeitet.
Auf einem Server ist dies das A und O! Ich war übrigens auch auf meinem Desktop schon froh, wenn ich per SSH reinkonnte, um die Kiste dann sauber zu rebooten, nachdem sich der proprietäre ATI-Grafiktreibermurks ordentlich aufgehängt hatte.
Die Geschwindigkeit des Standard-quantum in NT, ist ca. 20 Millisekunden schnell auf Arbeitsstationen, 50-100 auf Server. Das Standard-quantum unter Linux, ist 50 Millisekunden (neuerdings gesenkt im kernel 2.4). So in Linux jede Anwendung braucht eine längere Zeit. Wo es eigentlich efizienter sein koennte/kann, aber das interaktive leidet drunter
"Neuerdings" und "Kernel 2.4". Gleich piss ich in die Hosen vor lachen. Wenn "Neuerdings" vor 3 Jahren war, ja dann wurden "neuerdings" ein paar signifikante Änderungen in Kernel 2.4 eingebracht. Aber danach hat man sich ausschliesslich Kernel 2.6 gewidmet. Übrigens, Präemptives Multitasking gibt es unter Linux auch schon ewig. Aktuell hast du die Wahl zwischen keiner, freiwilliger oder forcierter Präemption. Und wenn dir der Kernel zu träge Reaktionszeiten bietet, dann kannst du ja einen Kernel mit beschleunigtem Timer verwenden. Den kannst du bis auf 1000Hz hochstellen, also ein Interrupt pro Milisekunde!
Linux ist auch zu gross. Um mit Windows zu vergleichen, muss man KDE oder GNOME verwenden.
Kommt auf den Einsatzzweck an. Auf einem Server braucht man das Grafikzeugs nicht.
Nicht zu vergessen die ganze versionen von glibc und die dazugehoerige (oft redundante) Bibliotheken, um Anwendungen zum laufen zu bringen.
Klar, sowas gibt's unter Windows gaaaanz bestimmt nicht. Ist's nicht sogar so, dass unter Windows jeglichste Programme ihre Bibliotheken ins System bringen, schlimmstenfalls bestehende Bibliotheken kommentarlos überschreiben und damit eventuell bestehende Applikationen beschädigen?
Manche neue Kernell funktionen, wie journaling FS, new automounter, LVM und andere. Sind schon in vorherige Betriebssysteme implementiert worden. Nicht zu vergessen mit KDE und GNOME, das dene die puste ausgeht.
Trenne die Argumente. Ich kapier überhaupt nicht, was dieser Abschnitt aussagen will :-(
Die meisten Unixes, haben ein Modular Kernel, lange Zeit vor Linux.
Und was ist daran nachteilig? Muss denn Linux jedes Rad eigens neu erfinden, kann man nicht bewährte Konzepte übernehmen?
Mikrokernell wie BeOS kann das ganze Subsystem ausschalten wenn es nicht gebraucht wird.
Toll. Und wie viel Speicher spart das? Auf einem System mit 2GB vielleicht 0.0000001%. Super. Dafür dauert's dann ewig, bis das Subsystem wieder geladen ist. Übrigens kannst du auch unter Linux einzelne Subsysteme komplett deaktivieren oder nachträglich laden.
Reine Mikrokernel haben drastische Performance-Probleme, da extrem viele Kontext-Wechsel notwendig sind. Deshalb werden sie sich auf absehbare Zeit nicht durchsetzen (obwohl: Das Konzept ist genial). Lediglich teilweise Mikrokernel wie Darwin (OSX) oder Windows NT haben sich gut bewährt.
Linux unterstuetzt DirectX nicht
Bravo. Du lobst NT4 in den Himmel und bemängelst, dass es unter Linux kein DirectX gibt. Ich verrat dir jetzt ein Geheimnis: Das gibt es auch nicht unter Windows NT4. Und bei Windows 9x hört der Spass auch bei DirectX8 auf. Das liegt vielleicht daran, dass es eine Technologie von Microsoft ist. Neben Windows Vista gibt es gar kein anderes System, das DirectX10 kennt. Aber das macht nichts. OpenGL ist nämlich auf jedem Betriebssystem verfügbar, das 3D-Beschleunigung bietet. Professionelle und wissenschaftliche Software wie CAD oder Raytracing nutzt übrigens ausschliesslich OpenGL.
Nebenbei: wine hat bereits einen grossen Teil von DirectX 9 implementiert.
Manche Test, zeigte das NT threads, nicht nur weniger Zeit brauchen um zu erstellen, sondern signifikanter schneller wechselt.
Ach nein, du sagst! Welche Erkenntnis. Gerüchteweise hab ich mal vernommen, dass genau dies das Designziel von Threads gewesen sein soll. Übrigens kennt auch Linux Threads und die meisten Linux-Anwendungen sind Thread-basiert (nenne konkrete Gegenbeispiele).
Linux ist nicht wirklich schneller, je nachdem was man tut.
Ist das nun dein Hauptargument? Nun, mit dem gesparten Geld der Windows-Lizenz kann ich mir ja mehr RAM und eine schnellere CPU kaufen, damit wär's wohl wieder ausgeglichen :-) Abgesehen davon skaliert Linux hervorragend und kann auch auf kleinsten und extrem leistungsschwachen Systemen genutzt werden. Also irgendwie ist da nicht wirklich was an deiner Aussage dran...
Screens haben weniger sichtbare Anzeigen
Hä?
OSS ist nicht wirklich ideal für ein komplexen Sound
Breaking News: OSS wurde aus Linux entfernt (zu 99%). Die Zukunft gehört seit mehreren Jahren ALSA. Nebenbei gibt's noch diverse Soundserver für verschiedene Anwendungen, z.B. Pulseaudio für Soundmultiplexing und Netzwerksound oder JackAudio für Echtzeitanforderungen.
3D ist immer noch langsamer unter Linux als unter Windows
Aha, und woran glaubst du, könnte das liegen? Doch nicht etwa an so guten Firmen wie nVidia oder AMD, welche doch bekanntliche seit Jahren ihre komplette Manpower in die Entwicklung von Linux-Treibern stecken?
Es gibt übrigens Tests von Spielen aus dem Jahr 2006, welche auf gleicher Hardware unter Linux/wine höhere Frameraten erzielten als unter Windows.
So bitte dann will ich ja Profis hoeren die was dagegen sagen, ob es stimmt oder nicht????
Stimmen tut vor allem eins: Dein Wissensstand ist völlig veraltet. Das führt zu einer dicken Auflistung von FUD, Ammenmärchen, Blödsinn und Trollereien in diesem potentiellen Flamewar-Thread.