Archiv Monitore und Displays 1.459 Themen, 9.652 Beiträge
Moin,
na, da musst Du aber schon wesentlich früher anfangen.
Warum?
- ISA
- PCI
- AGP
- PCI-e
- COM
- VGA
- etc. etc.
Die Technik entwickelt sich weiter und aktuelle Schnittstellen bieten irgendwann nicht mehr genug Reserven, bei z.B. den Übertragungsraten. Und da diese stetig anwachsen und die Menschen nicht tagelang warten möchten, werden schnellere Schnittstellen entwickelt. Das ist natürlich stark vereinfacht, es gibt noch viele andere Aspekte.
HDMI und Displayport z.B. sind wesentlich einfacher zu integrieren als VGA und DVI. Sie sind kleiner, die Kabel und Stecker nutzerfreundlicher. Hinzu kommt die Übertragung von Ton und sogar Netzwerkdaten bei z.B. HDMI.
Stelle Dir mal bitte die Übertragung von 1TB Daten über eine USB 1.1 Schnittstelle vor.
Es nützt der schnellste Prozessor nicht, wenn die rechtliche Hardware nicht auch schneller wird. Und dafür müssen zwangsläufig neue Schnittstellen her.
Ohne z.B. schnelles DSL wäre Videoestreaming undenkbar.
etc....
Wenn Dich die Thematik interessiert, kannst Du z.B. hier mal vergleichen:
http://www.elektronik-kompendium.de/sites/com/0310281.htm
Gruß
Maybe
Die zu übertragenen Daten bleiben doch immer die Gleichen.
Nein.
- VGA: analoges Signal. Bei Auflösungen oberhalb von SXGA mit sichtbaren Einschränkungen verbunden
- DVI-D digitales Signal mit einem (SingleLink) oder zwei Übertragungskanälen (DualLink - für hohe Auflösungen)
- DVI-A: da hat man tatsächlich das gleiche Signal wie über VGA
- HDMI: Single-Link DVI-D + Audio-Signal
- USB ist mit den vorganannten nun überhaupt nicht zu vergleichen und auch nicht auf Bildübertragung ausgelegt. Dafür gibt es noch ein bisschen Stromversorgung mit dazu
DP (DisplayPort) hast Du vergessen
Die zu übertragenen Daten bleiben doch immer die Gleichen.
Wie kommst Du drauf, dass (z.B.) bei VGA die gleichen Daten übertragen werden wie bei HDMI?
Gruß, mawe2
dass (z.B.) bei VGA die gleichen Daten übertragen werden wie bei HDMI?
Bilddaten = Bilddaten ? Genauer darf man dann allerdings nicht mehr hinschauen.
Genauer darf man dann allerdings nicht mehr hinschauen.
Stimmt. Z.B. darf man dann nicht auf den Ton schauen...
(Kann es sein, dass wir hier gerade den Troll füttern?)
Hi!
Aus dem Grund wegen dem es Züge, Autos, Flugzeuge, Schiffe, Fahrräder und Schuhe gibt, auch wenn die damit transportierten Menschen immer die Gleichen bleiben.
Unterschiedliche Anwendungsfälle und/oder Gegebenheiten für den Transport.
Bis dann
Andreas
auch wenn die damit transportierten Menschen immer die Gleichen bleiben.
Hast Du schon mal versucht eine Kuh auf einem Fahrrad zu transportieren? Das geht mit einem Zug einfach besser ;-)
Hi!
Gibt es unter Euch vielleicht einen Radio Fernsehtechniker ? Der könnte da vielleicht was zu beitragen. Auch was die Daten angeht....
Da braucht man keinen Fernsehtechniker.
Es liegt halt an der Geschichte:
VGA war alt, analog und quasi immer schon da. Alle waren froh, dass man sich nicht mit EGA und was es davor in der Steinzeit noch so alles gab, herumschlagen musste. Die VGA-Entwickler hatten es geschafft, alle waren glücklich - es gab ständig Partys im Wohnzimmer der Entwickler.
Aber dann kamen immer höhere Auflösungen und flache Displays am PC in Mode. Nun, eine neue Schnittstelle musste her. Am besten gleich digital, weil Flachdisplays eh digital arbeiten. Ist zudem billiger, als analoge Kabel teuer abzuschirmen.
DVI wurde geschaffen - für PCs gedacht - und damals reichte es wirklich für jeden. Die DVI-Entwickler saßen stolz, satt und sehr selbstzufrieden im Wohnzimmer, weil sie alles richtig gemacht hatten, als es an der Tür klingele....
Da standen dann schlaue Homecinema-Jünger vor der Tür und sagen, "Geile Sache, dass mit dem digitalen Bild, viel besser als das alte RGB- und VGA-Zeugs! Aber kann man da nicht noch Ton gleich mit digital übertragen?".
Da guckten sich die DVI-Entwickler dumm an. Daran hatten sie nun wirklich nicht gedacht, dass jemand auf so eine Idee kommen kann und Bild UND Tondaten gleichzeitig über ein Kabel zuschicken. Wozu gab es denn schon zwei wirklich perfekte Standard zu digitalen Tonübertragung? Und dann auch noch wahlweise optisch oder elektrisch.
Trotzdem kein Problem: wenn der alte Standard nicht reicht, dann mach einfach eine Neuen!
Also hat man HDMI geschaffen. Das ist im Prinzip einfach DVI um digitalen Ton erweitert. Also wieder alles gut und die HDMI-Entwickler sitzen wieder sehr stolz, satt und selbstzufrieden im Wohnzimmer, als es an der Tür klingelt...
Da stehen Bildschirmuser vor der Tür, die ganz große Displays mit riesigen Auflösungen reinschleppen und fordern "Sorry, könnt ihr die mal eben durch HDMI richtig ansteuern lassen? - Wie das geht nicht!?!". Es gab unschöne Szenen im Wohnzimmer...
Aber auch wieder kein Problem: wenn der alte Standard nicht reicht, dann mach einfach eine Neuen! Upps, sorry! Den Spruch hatten wir schon...
Also wurde Displayport geschaffen.
Und wieder sitzen alle stolz, satt und selbstzufrieden im Wohnzimmer, als es an der Tür klingelt...
Aber diesmal ist es nur meinnameisthase, der da steht und sagt "VGA, DVI, HDMI, USB, wozu eigentlich all dieses durcheinander?"
Bis dann
Andreas
PS: An der Tür zum Wohnzimmer hängt jetzt ein Schild: "An USB sind wir nicht Schuld!!!Eins Elf!!!"
Hi!
Neuere Boards besitzen überhaupt keinen VGA, DVI, blablubb Kram
Alte auch nicht. Wer braucht schon gemalte Bilder, wenn es soviele Grafikkarten gibt, dass die Hersteller sie sogar verkaufen mussten, tun und müssen werden.
Bis dann
Andreas
Neuere Boards besitzen überhaupt keinen VGA, DVI, blablubb Kram...
Warum sollten sie auch?
Moderne Flachbildschirme arbeiten Digital und HDMI benötigt weniger Platz auf dem Mainboard. Da kann man z.B. mehr USB 3.0 Ports verbauen, was den Nutzern zugute kommt. Zudem wird über HDMI auch der Ton gleich mit übertragen, es entfällt also das 3,5 Klinke-Klinke-Kabel bei Monitoren mit Lautsprechern.
Man mag mich hier verbessern, ist ne Weile her:
VGA ist analog, die Grafikkarte muss das Signal von digital in analog umwandeln (RAMDAC), um VGA nutzen zu können. Bei einem modernen Monitor wird nun das analoge Signal wieder in ein digitales gewandelt. All das kann bei digitaler Übertragung entfallen. Zudem ist afaik bei VGA bei 1980x1200 Ende im Gelände, mehr geht nicht. Und der HDCP-Kopierschutz bei z.B. Bluray unterbindet das Abspielen über VGA:
http://praxistipps.chip.de/vga-und-dvi-im-vergleich-das-sind-die-unterschiede_19011
Genauso könntest Du fragen, warum wir nicht beim analogen Modem geblieben sind, sondern mit ISDN und DSL auf digital umgestiegen sind.
Das sind schlichtweg notwendige Schritte in der technologischen Weiterentwicklung.
Gruß
Maybe
Irgendwie erinnert mich das alles an den "Schluchtenjodler"...
Irgendwie erinnert mich das alles an den "Schluchtenjodler"...
Zwei Doofe - ein Gedanke... ;-)
Gruß
Shrek3
Ja ja, ein erneuter Versuch (e) , Nickles ins Computermittelalter zurück zu katapultieren
Die anderen Threads sind auch nicht besser..
Ab sofort auf der Blacklist bei mir..;-)
Gruß
http://www.tomshardware.de/Displaylink-USB-Grafikkarte,testberichte-239985.html
USB Grafikkarten kann man ausschließlich zusätzlich benutzen, in der Kiste muß absolut immer ne nicht USB Grafikkarte drin sein, sonst läuft die Kiste nicht!!!
Bei dir muß man wirklich bei Adam + Eva anfangen und dazu hat niemand Bock...
Und das ein Zockerboard wie ein X99S SLI Plus nix onboard Videoausgänge hat sollte klar wie Kloßbrühe sein und was beim AMD 970 Chipsatz zu beachten ist habe Ich dir schon janz jenau verklickert!!!
Voraussetzung für onboard Videoausgänge sind absolut immer eine im Chipsatz integrierte Grafikkarte (alt!) oder ne in der CPU integrierte Grafikkarte (absolut auch nicht mehr so neu!) und dann gibts zusätzlich bei da möglichen CPUs mit integrierte Grafikkarte auch Boards ohne Videoausgänge und dann ist aus die Maus angesagt!!!
Und es gibts absolut kein Board mit AMD 970 Chipsatz mit Videoausgängen und aus sehr guten Gründen.
Wenn man unbedingt ne FX CPU ohne diskrete Grafikkarte betreiben will, dann muß man absolut immer ein Board mit uralten AMD Chipsatz nehmen, wo die Grafikkarte im Chipsatz integriert ist und das sollte selbst ein DAU wie du begreifen!
Janz allgemein braucht man absolut immer bei nem Board ohne Videoausgänge zusätzlich ne diskrete Grafikkarte, die man aufs Board stecken muß!
http://geizhals.de/asrock-fm2a78m-dg3-90-mxgtc0-a0uayz-a1100995.html?hloc=at&hloc=de
+
http://geizhals.de/amd-a8-7600-ad7600ybjabox-a1051533.html?hloc=at&hloc=de
wären da bei AMD Alternativen und solche gibts natürlich von Intel auch und jetzt ist definitiv Ende im Gelände!
Mein Name ist Hase, ich weiß von nichts
Nomen est Omen und mindestens Google und WiKi selbst bemühen kann man da sowas von verlangen!!!
Übrigens ohne ein gewisses Grundwissen ist da sowieso nix zu machen und wer das nur im entferntesten hat stellt so ne dumme Frage nicht!
=> ein absoluter DAU oder Troll ist da am werken...
Vielleicht betreibt hier jemand ein privates Experiment, um zu sehen, wieviel Leute auf die schwachsinnige Frage reagieren.
Warum gibt es Windows, OS X, Chrome, Linux? Wozu dies Durcheinander?
Warum gibt es VW, BMW, Audi, Volvo, Suzuki, Skoda, Mercedes ...? Was soll das Durcheinander auf unseren Strassen? Das wirst Du noch verrückter!
Gruß an den Troll
Was hat HDMI was DVI nicht hat? Klar, kann man googlen.
Aber bei einem Troll-Thread kriegt man gleicht alle Infos und dazu noch in unterhaltsamer Form. Man kann auch sagen- Troll-Threads haben auch ihr gutes ;-)
Ein Troll ist ja nicht immer gleich zu erkennen ..es gab hier mal wohl die
nichtmal so uncoole Frage "Wieviel wiegt ein Mainboard?" oder so.
Bei den "neuen" Anschlüssen gibt es den Nachteil so die nicht immer
Out of the Box oder "Driver Free" funktionieren.
Eine "alte" Maus, funktioniert immer, USB Mäuse machten mit Xp oder, bei neuen BS, mit alten Motherboards nicht selten Probleme.
Da nicht Driver Free .. oder anderswie nicht adhoc sofort bereit.
Bei USB sind nur Geschichten wie USB-Sticks und solches was keine Treiber braucht Probemlos.
"Genau: Wieso nicht Grafik über USB"
Weil das definitiv nur zusätzlich und als zweite Grafikkarte läuft und lesen ist bei dir definitiv nicht!!!
Oder für DAUs wie dich, ne USB Grafikkarte läuft nur nachdem! das OS korrekt gestartet ist!
Und um ein OS zu booten braucht die Kiste absolut immer eine schon beim booten laufende Grafikkarte!
Da wären wir wieder bei Adam + Eva!
http://www.asus.com/de/Monitors_Projectors/MB168B/
USB Monitore mit integrierter USB Grafikkarte gibts natürlich auch und da gilt absolut dasselbe!
http://de.wikipedia.org/wiki/Chromecast#Hardware
Selbst HDMI Sticks besitzen natürlich einen System-on-a-Chip mit integrierter Grafikkarte!
http://de.wikipedia.org/wiki/Power-on_self-test
Der POST des Bios überprüft bei nem PC Mainboard absolut immer ob in der Kiste ne Grafikkarte drin ist und ob Sie funktioniert und wenn das nicht so ist gibts ein Fehlersignal und das wars!
Gleiches gilt natürlich auch für den RAM!
Und absolut kein POST eines Bios erkennt und akzeptiert ne USB Grafikkarte!!!
http://www.computerbild.de/artikel/cb-Ratgeber-Kurse-PC-Hardware-USB-Grafikkarten-erleichtern-den-Anschluss-zusaetzlicher-Monitore-2909339.html
Ist von 2008. Heute erlaubt bereits CPU-Grafik von Intel den Anschluss von 3 Bildschirmen un es ist kein Problem ein passendes Mainboard zu finden.
Da wird dann eben ein neuer "Standard" ins Leben gerufen. Also unter "Standard" verstehe ich allerdings etwas Anderes. USB ist ein Standard.
USB ist eine ganze Sammlung von verschiedenen Standards. Und wenn man nach Deinem Argument geht hätte man USB nie einführen dürfen, weil es früher schon andere Standards gab. Mit USB 3.1 / C-Steckern wird es in Zukunft wohl auch möglich sein über das Kabel DP-Signale zu übertragen. Wird dann nur blöd, weil vermutlich nicht jedes Kabel mitdem Stecker dran das auch mitmachen wird.
Genau: Wieso nicht Grafik über USB
Weil es übler Bastelkram ist und das USB-Protokoll auch nicht für Harte Echtzeitdatenübertragung ausgelegt ist.
sondern auch Strom gleich dazu
Der reicht aber (nach bisherigen Standards) gerade mal aus um kleine LED-Bildschirme zu versorgen. Es gibt aber auch 30" Bildschirme mit einer Leistungsaufnahme von bis zu 180W…
Im Grunde hat jeder zu Hause einen Flachbildschirmferseher an den er den Rechner anschließen kann und somit brauch man keinen Monitor mehr. (hypothetisch gesehen)
Kann man machen, aber TV als Monitor taugt nicht viel!
teuer und die Stromversorger freuen sich.
Bei USB-Grafik dürfen die sich auch freuen. Weil die CPU-Last dadurch deutlich erhöht wird.
Dieser Beitrag wurde entfernt weil er vermutlich rechtlich bedenklich ist und dem Nickles-Teilnehmer Ärger bereiten könnte (Beispiel: Bezeichnung einer Firma als "Betrüger" obwohl noch kein Gerichtsurteil wegen Betrugsvorfalls gefällt wurde). Entfernt werden auch Hinweise und Anfragen bezüglich illegaler Dinge (Beispiel: Hinweise zu Raubkopien oder Mechanismen zum Umgehen eines Kopierschutzes). Ebenfalls entfernt werden Beiträge, die das Urheberrecht verletzen (beispielsweise Kopieren von Texten anderer Internetseiten).
Was willst Du uns damit nun sagen?
Der Bildschirm wird per USB angeschlossen, aber der ist auch nur 15,6" groß und zum Mitnehmen vorgesehen. Nichts was man sich zum vernünftig Arbeiten auf den Schreibtisch stellen wird.
Er will damit sagen, Nachts ist es bei Ihm immer kälter als draußen!!!
http://geizhals.de/aoc-e1759fwu-a1228503.html
http://www.displaylink.com/shop/monitors
http://geizhals.de/hp-elitedisplay-s231d-f3j72at-a1093543.html
Gibts schon auch in größer, ist aber normalerweise nur mobil und nicht stationär ne Option.
Dazu kommt, daß er es scheinbar immer noch nicht gefressen hat, daß dass absolut keine Option ist, wenn sich in der Computer Kiste keine Grafikkarte befindet!
Gibts schon auch in größer
Klar. Aber da ist dann eine Standardkonforme Stromversorgung über USB ausgeschlossen. (Bis zu 60W bei dem von Dir verlinkten HP)
daß dass absolut keine Option ist, wenn sich in der Computer Kiste keine Grafikkarte befindet!
Das ließe sich auf Mainboard-Seite aber sicherlich auch durch eine Emulation lösen. Das wird nur niemand machen.
Den BIOS POST so überlisten?
Läuft AFAIK noch nicht einmal in Taka Tuka Land...
Unser Mister ohne Wissen will ein vernünftiges Mainboard für ne FX CPU haben und keine Grafikkarte stecken und das ist definitiv ein Satz mit X!
Und der HP Monitor läuft natürlich nur mit dem mitgelieferten Netzteil per USB...
Den BIOS POST so überlisten?
Der Threadstarter wird das sicherlich nicht schaffen.
Aber wenn der Hersteller das Mainboards das vorsieht sehe ich kein zwingendes Problem darin. Könnte es aber dann werden wenn das Betriebssystem zwingend eine braucht.
Zumindest früher gab es bei Server-Mainboards noch die Möglichkeit alle (Text) Ausgaben über ein Serielles-Terminal auszugeben und ich gehe davon aus, dass damit dann auch ein Betrieb ohne gesteckte Graka möglich wäre. Ist aber am Ende wohl auch nur die Emulation einer Graka die ausschließlich Text-Modus unterstützt.
Ansonsten erinnerst Du Dich sicherlich auch noch an die BIOS-Option "Halt on": "All/All but Keyboard errors/u.s.w."
Bei AFAIK keinem Desktop Mainboard läuft das (auch nicht mit Trick 17) und nur von älteren Server Mainboards weiß Ich, daß es prinzipell dort läuft, aber auch nur mit nem Server OS.
Selbst wenn man die Bios Hürde nimmt ist AFAIK beim normalen Windows Schluß mit lustig, spätestens wenn die grafische Benutzeroberfläche geladen wird und das kann man da AFAIK nicht deaktivieren.
Selbst wenn man die deaktivieren könnte wär so ne Kiste für fast alles was ein Normaluser mit nem PC macht definitiv nicht zu gebrauchen und nachträglich kann man die definitiv nicht wieder aktivieren.
Davon mal janz abgesehen ist die Diskussion mit ner 30€ PCIe Grafikkarte erledigt und die verbraucht auch nicht viel Strom und hat viele Vorteile...
Der gesamte Thread basiert auf absolut dummen Ideen eines dummen Menschen, wenns sich nicht doch um nen Troll handelt!
EOD
"Hypothetisch gesehen" hat jeder einen Flachbildfernseher, der auch vom PC angesteuert werden kann. Pratisch will aber niemand seinen Computertisch im Wohnzimmer aufstellen. Zumal man ja vor dem Gerät sitzen muß. Das ist einfach unpraktisch.
Sag mal, hast Du zu viel Zeit?
Ergebnis dieses ganzen Hin und Her.......
Das ist eher Deine krude Interpretation des ganzen.
Notebook-Bildschirme sind was für unterwegs und können eine anständigen Bildschirm nicht ersetzen.
Schaut mal: https://www.office-partner.de/SwpFindologic/search?sSearch=USB+3.0+Monitor
Was sollen wir das groß schauen? Monitore mit USB-Hub sind nun nicht so exotisch.
Da wird ein Standard entwickelt egal ob nun Mainboard, CPU, RAM oder was auch immer. Dieser wird dann auf den Weltmarkt geschmissen und sobald die Umsatzkurve nach unten geht, also der Markt gesättigt ist und einen bestimmten Punkt erreicht hat, kommt schon der Nächste. Nur mal der verständnishalber für alle Nickler hier:
Vielleicht solltest Du Dich selbst erst einmal bemühen die Zusammenhänge zu verstehen. Neue Standards gibt es es dann wenn technische Grenzen erreicht werden. Und so lange man neue ggf. nur leicht verbesserte Produkte auf Basis von bereits bestehenden Standards verkaufen kann ist das deutlich profitabler als neue Standards umsetzen zu müssen.
Anstatt gleich was vernünftiges zu bauen, ne da muß noch was dazwischen kommen. Und alle Hersteller tun das dann fast gleichzeitig.
Das jeweils maximal technische Machbare ist für gewöhnlich zu massentauglichen Preisen Herstellbar.
http://www.displaylink.com/shop/monitors
Das sind fast alle!!! Monitore mit USB Grafikkarte (weltweit, in China könnte es noch andere geben, von namhaften Herstellern definitiv und absolut nicht), die es gibt und Displaylink ist Hersteller des Chips und absoluter Marktführer!
http://www.displaylink.com/technology/dl-3000/
Jemanden wie dir das zu verklickern ist aber Perlen vor die Säue werfen und sonst nix...
Das man normalerweise Monitore mit USB Anschuß nicht darüber mit Bilddaten befeuern kann (fungiert in aller Regel nur als "Verteiler") ist wirklich absolutes Basiswissen!!!
Da muß im Monitor ein entsprechender Chip verbaut sein!!!
Jemand wie du sollte dringend seinen Jagdschein beantragen!!!
Selbst Dummheit und Ignoranz hat seine Grenze, bei dir natürlich nicht, bei Leuten die deinen absoluten Müll "anhören" aber schon!
Auf nimerwiedersehen!
EOD
"Please note that some systems do not have enougth USB host controller resources for a scenario like this. [...] Intel USB 3.0 xHCI based systems wil often run out of USB resources with just a handful of graphics adapters attached"
Gigabit Ethernet Adapter auf USB 2.0
Bremst GBit-Ethernet auf weniger als die halbe Geschwindigkeit aus.
Die Monitore: Alle VGA Monitore
Du bist einfach genial: Da übersteigt dann der Preis der USB zu VGA Konverter den Restwert der Monitore (vielleicht noch Röhrenbildschirme?).
Les dir nochmal den Beitrag von Andreas 42 genau durch.
Das habe ich schon voher gemacht, und da der Gutein der Lage sich verständlich in Schriftform auszudrücken muss man seine Beiträge nicht mehrfach lesen um den Inhalt zu verstehen.
Worum es geht..........
Das müsstest Du schon selbst schreiben wenn Du dazu in der Lage bist.
Und wenn dann Displaylink kommt wird wieder alles auf den Kopf gestellt.
Display-Link ist allerdings kein irgendwie gearteteter Standard, sondern eine Technologie zum Anschluß eines Grafikadapters an einer zwar überall vorhandenen aber eigentlich nicht geeigneten Schnittstelle anzubinden.
Vielleicht kann ja der Ein oder Andere seinen Monitor wieder beleben.... obwohl Neues Board vorhanden ist. Dumme Sache diese Sache mit den Anschlüssen....
Du redest hier ein Problem herbei was real nicht existiert. Du musst Dir heute richtig Mühe geben um ein Mainboard ohne Bildschirmanschluss zu bekommen!
Notebook-Bildschirme sind was für unterwegs und können eine anständigen Bildschirm nicht ersetzen.
Im Allgemeinen: Ja. Einzige mir bekannte Ausnahme: das Retina-Display vom MacBook Pro. Das ziehe ich jedem großen Monitor vor.
Ist zwar etwas kleiner, dafür sitzt man dichter davor. Das gleicht sich also wieder aus. Die Bildqualität, insbesondere die Schärfe, ist dafür unerreicht.
CU
Olaf
Die Bildqualität, insbesondere die Schärfe, ist dafür unerreicht.
Mit einem 4K/5K-Bildschirm könntest Du das auch auf dem Desktop haben behaupte ich mal ;-)
Hmmm, also die 5k-Bildschirme nähern sich derzeit noch dem Preis an, den ich für mein MacBook Pro gezahlt habe, aber die 4k-Teile gibt es schon verführerisch günstig... so im mittleren dreistelligen Bereich. Wahnsinn, wie schnell die Preise verfallen.
CU
Olaf