antilet
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
Hallo nochmal. Hin und wieder schließe ich mein Lappi via HDMI an meine Glotze an.
Leider bekomme ich es unter Linux nicht hin, dass das Bild passt.
Unter Win7 wird auf'm Lappi und auf dem TV das gleiche Bild - aber jeweils entsprechend der Größe des "Anzeigegerätes" eingepasst dargestellt - kurzum so wie es eben sein soll. Unter Linux funktioniert das nicht. Das Bild wird - wenn ich das HDMI-Kabel anstecke - sowohl auf dem Laptop als auch auf dem TV zu groß dargestellt, so dass immer Bildteile fehlen.
Das ist nicht nur ärgerlich, so läßt sich das Schuppentier nur schwer bändigen, da das Menü nicht sichtbar ist - also alles andere als präzise. Was mache ich verkehrt? Warum klappen so Sachen unter Windoof einfach so und unter Linux ist das alles viel komplizierter...
Ich hoffe, Ihr könnt mir da weiter helfen. LG Susi
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
Das hat nichts mit dem System zu tun, sondern mit deinem Fernseher. Da ein TV Gerät nicht erkennen kann was genau an einer HDMI Buchse hängt, verwendet es immer Overscan und schneidet dir damit eben jene fehlenden Kanten ab - bei den meisten TV Geräten lässt sich dieses Verhalten einfach abschalten. Die proprietären Treiber versuchen in der Regel in den Standardeinstellungen stattdessen einfach Overscan zu kompensieren und skalieren das Bild einfach kleiner (wird auch als Underscan bezeichnet), was aber dadurch auch einen Qualitätsverlust zur Folge hat - genau das wird bei deinem Windows System der Fall gewesen sein.
|
antilet
(Themenstarter)
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
Auch wenn Win das vielleicht falsch macht, ist es doch nutzerfreundlicher.
Ich könnte ja noch verstehen, wenn das Overscan nur auf dem TV wäre,
aber auf dem Laptop sieht es bei Anschluss an HDMI genauso aus. Gibt es denn keine Möglichkeit, die Ausgabe so zu steuern, dass entweder der TV richtig darstellt (weil er 'merkt', dass er ein 'Nicht-overscan-Signal' bekommt) oder das Laptop das Bild verkleinert, damit es wieder passt.
Es kann doch nicht sein, dass ich in die Tiefen der Einstellungen meines TV eintauchen muss (von denen ich weder weiß ob sie existieren noch wo) nur weil ich mal ein Filmchen gucken will. Danach müsste ich ja auch wieder alles zurück setzen.... m(
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
antilet schrieb: Es kann doch nicht sein, dass ich in die Tiefen der Einstellungen meines TV eintauchen muss (von denen ich weder weiß ob sie existieren noch wo) nur weil ich mal ein Filmchen gucken will. Danach müsste ich ja auch wieder alles zurück setzen.... m(
In der Regel sind diese Einstellungen alle Input-spezifisch, gerade wenn man die internen Tuner nutzt wird man dort dies auch überhaupt nicht deaktivieren können. Aber trotzdem: Es kann auch nicht sein, dass im digitalen Zeitalter der Multimedia Bereich immer noch von Standards dominiert wird, die ihre einzige Existenzberechtigung aus den Verfehlungen analoger Verfahren ziehen... Alles was über die alten PAL/NTSC Formate hinaus geht hat bereits auf technischer Ebene keinen Bedarf an Overscan, dennoch wird es selbst bei FullHD Material noch vorausgesetzt. HDMI ist auch nur ein weiterer Standard zur digitalen Bildübertragung wie DVI, DisplayPort oder im analogen Zusammenhang sogar VGA, aber keiner davon ist von so einer archaischen Plage befallen. Du könntest problemlos jeden beliebigen Fernseher über VGA anschließen und keiner würde dich damit konfrontieren, weil es schlichtweg nie im Multimedia Bereich zum Einsatz kam. Gerade bei den High Definition Fanatikern sollte es eigentlich einen gewaltigen Aufschrei provozieren, aber diese scheinen sich kaum genug mit der Technik auszukennen um so eine Qualitätsunterschlagung zu erkennen. Es ist hier weniger eine Frage der Benutzerfreundlichkeit. Overscan ist ohne Frage ein Dorn im Auge und völlig fehl am Platz, in jeder Hinsicht - aber solange jeder versucht möglichst automatisierte Workarounds für diese Verfehlung zu erschaffen wird sich daran nichts ändern. Es wäre ja schon genug diese Kompensationsfunktionen rein optional anzubieten, um ein größeres Bewusstsein für die Problematik zu schaffen und somit Druck aufzubauen der das Potential hat auch etwas zu verändern, aber es passiert schlichtweg nicht - und so werden selbst heute noch TV Geräte verkauft die nicht einmal zulassen dass man Overscan abschalten kann.
|
antilet
(Themenstarter)
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
Letalis Sonus schrieb: In der Regel sind diese Einstellungen alle Input-spezifisch, gerade wenn man die internen Tuner nutzt wird man dort dies auch überhaupt nicht deaktivieren können.
Na das ist doch top. Linux macht es zwar richtig, ist aber nicht zu gebrauchen?
Da lacht sich doch Billyboy (also der Gates - falsch verstehen 😉 ) ist Fäustchen.
Wozu soll das gut sein? Mehr Marktanteile für Linux, weil ich nun doch zwingend Windows dafür nutzen muss?
Oder gibt es eine Möglichkeit wie ich das Bild korrekt angezeigt bekomme?
Kann man nicht dem TV via HDMI irgendwas an Infos mitgeben, damit der Overscan aus bleibt? (Bei BluRay klappt das doch auch oder?)
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
antilet schrieb: Kann man nicht dem TV via HDMI irgendwas an Infos mitgeben, damit der Overscan aus bleibt? (Bei BluRay klappt das doch auch oder?)
Nochmal: Ob TV, DVD oder BluRay: Overscan ist quasi immer mit dabei, steht auch noch mal im verlinkten Wikipedia Artikel - du kannst ja mal bei der Wiedergabe einer BluRay mit den Overscan Einstellungen am Fernseher herum spielen und die Ränder beobachten. HDMI bräuchte schon einen eigenen Datenkanal um den Bildschirm überhaupt irgendetwas mitzuteilen, aber den gibt es nicht. Es gibt nur eine zusätzliche Datenleitung, und die läuft in die andere Richtung - darüber werden die verfügbaren Bildschirmmodi vom Bildschirm ausgelesen, der dafür zuständige Standard wurde von DVI und VGA übernommen und sieht auch keine Extras wie solche Zusatzinformationen vor. Die Informationen über Auflösung und Frequenz können halt vom Bildschirm direkt von der Übertragung der Bilddaten her abgeleitet werden, es gab schlichtweg keinen Bedarf für zusätzliche Kommunikation. Es bietet aber wie gesagt fast jeder Fernseher für jede HDMI Buchse jeweils einzeln die Option an, Overscan abzuschalten. Du kannst natürlich (treiberabhängig) auch versuchen irgendwie eine Underscan Option zu aktivieren, aber ein Bild das erst hoch- und dann wieder herunter skaliert wird verliert halt an Detail und Schärfe.
|
antilet
(Themenstarter)
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
Ich habe doch in der Tat die Einstellung für den Overscan im TV-Menü gefunden. Habe es probehalber mal ausgestell. Beim TV merke ich keinen Unterschied, kann das sein? Das Läppi hatte ich zwischenzeitlich noch nicht wieder am Pana. Komme ich vllt. am WE dazu, dann werde ich berichten... ☺
|
antilet
(Themenstarter)
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
antilet schrieb: Das Läppi hatte ich zwischenzeitlich noch nicht wieder am Pana. Komme ich vllt. am WE dazu, dann werde ich berichten... ☺
So, heute war nun der große Testtag. Ich hatte heute das Laptop mal wieder am TV um den großen Bildschirm zu nutzen.
Aber was mussten meine trüben Augen sehen? Es fehlte doch tatsächlich immer noch ein Stück vom Bild - ringsherum. Also musste ich wiedermal Windows durchstarten damit alles passt. Später habe ich spaßeshalber nochmal Porteus gestartet. Eigentlich wollte ich mir nur ein paar Bilder auf dem Laptop ansehen, aber ich hatte das HDMI-Kabel noch nicht ausgesteckt. Oh Wunder: Unter Porteus wird der Desktop exakt passend auf dem TV dargestellt. Wie geht denn das... ??? 😲 😲 😲 Das heißt doch dann aber, es liegt nicht am TV sondern an... - ja an was - kann es am Grafiktreiber liegen? Denn Porteus bringt einen funktionierenden ATI-legacy-Treiber mit oder woran kann es liegen, dass es unter einem Linux geht und unter dem anderen nicht... ???
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
Die proprietären Treiber skalieren wie bereits gesagt das Bild standardmäßig herunter, wenn sie der Meinung sind dass da ein TV Gerät dran hängen könnte - was im wesentlichen darauf zurückfällt, ob der Anschluss HDMI ist oder nicht. Das ist aber keine Lösung, sondern ein dreckiger Workaround auf Kosten der Bildqualität. Besonders pikant wird dies, wenn man einen normalen Monitor über HDMI anklemmt, da sich das Problem dann komplett umkehrt - soweit ich weiß hat man bei Nvidia seit einiger Zeit die Einstellung dazu aus der GUI entfernt, das wird dann sehr abenteuerlich... Du hast uns auch immer noch nicht mitgeteilt, was du überhaupt für eine GPU mit welchem Treiber befeuerst. antilet schrieb: Beim TV merke ich keinen Unterschied, kann das sein?
Wie ich schon sagte: beim internen TV Tuner wirst du es vermutlich gar nicht abschalten können, weil es keinen Grund gibt diese Funktion anzubieten.
|
antilet
(Themenstarter)
Anmeldungsdatum: 18. Mai 2013
Beiträge: 55
|
Letalis Sonus schrieb: Du hast uns auch immer noch nicht mitgeteilt, was du überhaupt für eine GPU mit welchem Treiber befeuerst.
Ja, sorry, in diesem Thread hatte ich es noch nicht erwähnt: Toshiba Laptop Satalite L550 -11J mit einer ATI Grafikkarte (Mobility Radeon HD 4650) per HDMI an Panasonic TX-P 42S10E angeschlossen. Letalis Sonus schrieb: Die proprietären Treiber skalieren wie bereits gesagt das Bild standardmäßig herunter, wenn sie der Meinung sind dass da ein TV Gerät dran hängen könnte - was im wesentlichen darauf zurückfällt, ob der Anschluss HDMI ist oder nicht. Das ist aber keine Lösung, sondern ein dreckiger Workaround auf Kosten der Bildqualität.
Ah das Schlüsselwort war proprietären - ich hatte deine Aussage auf Windows bezogen. Es mag ja sein, das es ein "dreckiger" Workaraound ist. Mit ist es bisher -qualitativ- noch nicht aufgefallen - auch nicht bei BluRays. Das zeigt, dass das Skalieren nicht ganz so augenscheinlich ist oder bin ich einfach blind? Der fehlende Rand ist nicht nur sehr augenscheinlich sondern durch das fehlende Menü auch kaum zu bedienen... Egal. Ich finde die Einstellung - es macht zwar jeder TV so - das ist aber falsch und deswegen unterstützen wir (Linux) es nicht - total blöd. Damit vergrault man willige User. Es macht doch keinen Sinn, die "Weltherrschaft" an sich reißen zu wollen, aber die Herrschaften aller Welt mit technischer Rechthaberei zurück in den Schlund der MS-Hölle zu drängen. Die richtig-falsch-Diskussion - so interessant sie auch sein mag - möchte ich eigentlich nicht führen. Mich interessiert, wie kann ich es hinbekommen, dass es funktioniert. Ich habe den Overscan am TV ausgeschaltet - hat nix gebracht. Es fehlt immernoch der Rand - jegliche Aspet/Seitenverhältnisse am TV ausprobiert - keine Besserung. Was kann ich also tun um das gesamte Bild (gestaucht oder nicht) am TV zu sehen? Ich glaube, der Ton kommt auch via HDMI nicht mit...
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
Hm, das wäre dann das erste Gerät das mir untergekommen ist, welches die Option zwar anbietet, aber nicht umsetzt... wird wohl ein Firmware Fehler sein. antilet schrieb: das ist aber falsch und deswegen unterstützen wir (Linux) es nicht - total blöd.
Das habe ich nie behauptet, es wird natürlich auch von den freien Treiber unterstützt - nur gibt es dafür keine GUI und es ist umständlicher einzurichten. Man ist bei Linux lediglich konservativer wenn es darum geht, etwas automatisch zu aktivieren was Ärger machen könnte oder schlichtweg nicht zuverlässig funktioniert (bzw überhaupt nicht zuverlässig funktionieren kann - die Unterscheidung zwischen TV Gerät und HDMI Monitor ist ein reines Ratespiel). RandR bietet neben den üblichen Einstellungen zu den Bildschirmmodi und den komplexeren Optionen zum manipulieren der Bildausgabe auch noch eine Art Attributssystem. Die Attribute der Monitore kannst du dir mithilfe von xrandr mit --prop ausgeben lassen und mit --set verändern (der Monitor muss bei letzterem mit --output gewählt werden). Dort solltest du neben dem underscan Attribut auch noch entsprechende vborder und hborder Attribute finden können, mit denen du das ganze feineinstellen kannst. Da die über xrandr durchgeführten Änderungen nur temporär sind und die Desktopumgebungen keine Möglichkeit zum speichern derartiger Einstellungen bereitstellen, wirst du diesen Befehl allerdings in den Autostart setzen müssen. antilet schrieb: Ich glaube, der Ton kommt auch via HDMI nicht mit...
Für diese GPU wird das allerdings schon lange unterstützt, da solltest du vielleicht mal die Audioeinstellungen durchwühlen. Da das ganze eben über einen eigenen Audiocodec läuft muss man da etwas Hand anlegen. Als Alternative zum Wechsel der primären Soundkarte kann man auch PulseAudio anweisen, über alle verfügbaren Audiogeräte wiederzugeben. Kontrolliere auch mal mit dem Alsamixer, ob die HDMI Soundkarte nicht gemutet ist. Eventuell musst du die Unterstützung noch aktivieren (siehe Grafikkarten/ATI/radeon#Kernel-Modul-Optionen), aber eigentlich müsste das nur neuere Karten betreffen.
|
captsven
Anmeldungsdatum: 25. Oktober 2007
Beiträge: 109
|
Falls nach langer Zeit hier noch jemand liest (so einer wie ich):
Habe gerade auf meinem Uralt-Dell-Studion 1555 mit Radeon HD 4570 Ubuntu Mate 16.04 installiert (Läuft auch ganz gut). Natürlich habe ich auf meinem 65" Samsung diese Darstellungsprobleme und habe keine Einstellungsmöglichkeiten im Treiber (radeon) gefunden.
Also habe ich einfach die obere und untere Leiste auf 60 Pixel vergrößert: sieht eigentlich ganz gut aus.
Aber wirklich toll ist das nicht.
|
HarryD
Anmeldungsdatum: 14. Juni 2006
Beiträge: 2627
|
Letalis hatte doch geschrieben RandR ist das Tool deiner Wahl.
|
Letalis_Sonus
Anmeldungsdatum: 13. April 2008
Beiträge: 12990
|
Ein Samsung Gerät sollte definitiv eine Einstellung haben um Overscan abzuschalten. Die Regelungsmöglichkeiten über den Treiber sollten stets nur das letztmögliche Mittel sein - sie umgehen das Problem nur mit Nachteilen anstelle es schlicht und ergreifend zu lösen, was nur in den Einstellungen des TV Geräts möglich ist. Nächstes mal bitte einfach ein eigenes Thema eröffnen anstelle eine 4 Jahre alte Leiche aus dem Grab zu holen.
|