staging.inyokaproject.org

Erwartungen an Ubuntu/Linux wurden erfüllt

Status: Gelöst | Ubuntu-Version: Nicht spezifiziert
Antworten |

habkainzmer

Anmeldungsdatum:
19. Mai 2019

Beiträge: 33

Durch einen ziemlichen Zufall bin ich auf einen Foren-Thread namens
Erwartungen an Ubuntu/Linux wurden nicht erfüllt
gestoßen und von dort aus auch noch auf seinen Antipoden; also diesen hier. So groß sind die Unterschiede der beiden Threads eigentlich gar nicht. Denn wo es was zu loben gibt, bleibt auch immer was zu kritisieren übrig (Nichts ist schließlich perfekt). Und wo Erwartungen nicht erfüllt wurden, müssen sie doch zuvor (berechtigterweise) bestanden haben. Man könnte die beiden Sammelthreads auch vereinen unter dem neuen Label
Antworten statt Fragen (zu Ubuntu/Linux).

Mein Post passt auf jeden Fall aber besser hier hin. Die These, die ich hier in den Raum werfe, lautet, dass die Zielgruppen für Linux sich verschoben haben. Also die, welche mit Ubuntu/Linux zufrieden sind (oder sein könnten, wenn sie es denn nutzen täten).

An Linux klebt ja immer noch das Etikett Freaks only. Das war vor 20 Jahren wohl auch zutreffend. Aber heute ist Linux (in Gestalt ihrer Mainstream-Distros wie Ubuntu, Mint, etc.) eher etwas für Durchschnittsanwender. (Sie wissen es bloß noch nicht.) Das ist jedenfalls mein Eindruck beim Lesen von Internet-Beiträgen und vor allem meine eigene Erfahrung. Denn seitdem ich vor knapp zwanzig Jahren zwangsweise auf die PC-Plattform migrieren musste, bin auch ich nur noch ein Durchschnittsanwender.

Ein Saulus zu Paulus-Erlebnis gab es jedoch nie, was mich zum Linuxianer bekehrt hätte. Vielmehr war es ein langsames Wegdriften von Windows zu Linux. Ein Prozess, der sich über mehr als zwei Jahrzehnte erstreckte und noch immer nicht zum Stillstand gekommen ist. Dieser Prozess lässt sich grob in 6 Etappen gliedern:

Phase 1: Theorie und Sympathie
Mitte der 90er Jahre hatte es sich herumgesprochen, dass es ein zweites System für PCs gibt. Linux besetzte dabei von Anfang an die Position des Good Guys gegenüber dem bösen Wintel-Kartell. Folgerichtig besaß Linux mein Wohlwollen. Es gab dann auch viele fortgeschrittene PC-User, die einen Ausflug in die neue Linux-Welt wagten. Aber meist ernüchtert davon zurückkehrten! Viel, viel Arbeit für wenig substantiellen Ertrag, so das gängige Fazit!

Ich selber sah keine Veranlassung, Linux auszuprobieren. Wie auch; ich besaß ja nicht mal einen PC! Mein erster Computer Mitte der 80er Jahre war ein typischer Heimcomputer gewesen, an dem mich eigentlich nur drei Dinge wirklich interessierten: Programmieren, Programmieren, Programmieren. Es war wie von einem Kanister mit Benzin übergossen zu sein und Streichholz dran!

In den 90er Jahren rettete ich mich auf eine buchstäbliche Insellösung, wo ich mein Hobby unbeirrt weiter betreiben konnte. Nunmehr auf dem nächsthöheren Level mit Anwendungen für den Desktop aber weiterhin über die bewährte Kombination aus BASIC und Assembler (wo nötig). Dieses BASIC besaß übrigens schon alle Funktionen für ein strukturiertes Programmieren und vermochte alle Betriebssystemroutinen zu nutzen (Desktop-Anwendungen wären anders auch gar nicht machbar gewesen). Von wegen Spaghettti-Code BASIC!

Warum ich das extra erwähne? Nun weil das ein Kernproblem der Linux-Welt anspricht. Es gibt nämlich zu wenig Programmierer. Und warum gibt es zu wenig? Weil Programmieren künstlich verkompliziert worden ist. Linux darf jedoch seine Hände in Unschuld waschen (Gnade der späten Geburt); denn die diesbezüglichen Fehlentwicklungen setzten schon sehr früh ein und waren dann in der PC-Welt auch (von Linux) nicht mehr zu korrigieren. Wenn es aber für freie Software in der Regel nur wenig bis gar kein Geld gibt, dann muss Programmieren wenigstens Spaß machen. Und das tut es für die meisten eben nicht (mehr). In den 80ern konnte man mit Hobby-Programmierern noch die Straßen pflastern. Beim Umstieg vom Heimcomputer auf den PC hieß es dann für die meisten aber: Programmieren Adé! So auch für mich. Nun haben die Nerds also das was sie wollten. Sie haben das Programmieren für sich alleine. Und das Fußvolk darf ein schlechtes Gewissen haben, weil es ja faul und untätig nur konsumieren und kritisieren will.

Phase 2: DOSenöffner Linux-Live-CD
Nach der Jahrtausendwende war der Traum ausgeträumt und ich musste von meinem Traumcomputer Abschied nehmen. Ich tröstete mich damit, dass ich ihn in Gestalt einer wahnsinnig schnellen Emulation (dank Dynamic Recompilation) auf den PC mitnehmen durfte (und somit weitermachen konnte). An Linux dachte ich zunächst noch gar nicht (natürlich war der Emulator nur für Windows erhältlich). Ich war erst mal froh, dass ich mit XP besser zurecht kam als erwartet. Ein zusätzliches Betriebssystem zu installieren, wäre mir nie in den Sinn gekommen; selbst wenn ich schon gewusst hätte wie so was geht. Den für damalige Verhältnisse üppigen Festplattenspeicher meines Desktop-PCs wollte ich für Multimedia-Inhalte reservieren (auch so ein Trostpflaster).

Aber neugierig wäre ich schon gewesen. Wie sieht so ein Linux denn wohl aus?
Eines Tages hielt ich unvermittelt eine Knoppix-CD in den Händen. Beschreibung, wie man die in Gang kriegt, war dem zugehörigen PC-Magazin zu entnehmen: einfach in CD/DVD-Laufwerk stecken, Computer hochfahren, Knoppix-Linux ausprobieren, Computer herunterfahren und Computer wieder ohne CD starten – und alles ist wieder rückstandsfrei wie vorher und in Windows. Na, da konnte ich natürlich nicht nein sagen.

Nun vermochte ich mich erstmals davon zu überzeugen, dass auch Linux ein brauchbares Computersystem darstellt. Wo man Dokumente lesen und schreiben kann; wo man nach Belieben Musik und Videos konsumieren kann. Somit: Schwellenängste beseitigt. Die Bedeutung der Live-CD für die Verbreitung von Linux kann man gar nicht hoch genug einschätzen. Anders als die Quellmedien von MS-Windows sind die Pendants der gängigen Linux-Distributionen sozusagen hybrid: sie enthalten nicht nur ein zu installierendes OS sondern zugleich auch ein bereits installiertes!

Das einzige, was ich mit der Knoppix übrigens nicht testen konnte, war Internet. Und zwar, weil ich noch keins hatte. Damals herrschte nämlich gerade ein derartiges Tohuwabohu in Sachen Internet-Sicherheit, dass ich beschloss erst mal abzuwarten, bis sich die Sache wieder beruhigt hatte. In einigen Jahren würden man diese Probleme sicherlich in den Griff bekommen haben. (Dachte ich.)

Phase 3: Auf Entdeckungsreise in virtueller Umgebung
Zum Ende des ersten Jahrzehnts des neuen Jahrtausends waren die PC-Zeitschriften plötzlich voll mit einer faszinierenden neuen Technik: Virtualisierung. Statt zwei Betriebssysteme nacheinander auf einem Rechner zu fahren, konnte man diese nun parallel laufen lassen. Sofern eines davon als virtuelle Maschine (VM) betrieben wird! Was Linux anbelangt, so bedeutete dies, man konnte es nun installieren ohne es wirklich installieren zu müssen. So eine VM-Lösung war für eine dauerhafte Nutzung noch bequemer und vor allem effizienter als ein Live-System.

Mehr noch: in VMs kann man nahezu alle erdenklichen Szenarien testen ,bevor man sie eventuell später einmal auch nativ umsetzt. Ich habe jede Variante einer Linux-Installation auf einem physikalischen Rechner zuvor ausgiebig in allen Einzelheiten in einer VM getestet. Man kann auch Multiboot in einer VM üben, indem man mehrere OSe darin installiert (Windows und/oder Linux). Sogar Multiboot unter UEFI (ohne und sogar mit Secure Boot) lässt sich in Grundzügen vorab simulieren (derzeit aber nur unter dem VMware Player, da VirtualBox nur ein transientes BIOS bzw. UEFI nachbildet). Ich kann daher nur jedem empfehlen, der anderen empfiehlt, Linux zu probieren, diesen zu empfehlen, dies vorab gründlich in einer VM zu testen, bevor sie sich an eine native Installation wagen. Denn Überraschungen bei Installationen sind erfahrungsgemäß höchst unwillkommen und können einem den geplanten Einstieg gründlich versauen.

Jetzt wurde es zunehmend ernst. Hatte ich mich an der Knoppix-CD nach ein paar Proberunden schon satt gesehen, examinierte ich die VM Ubuntu 9.04 (Mega) schon deutlich gründlicher. Es handelte sich dabei um eine Spezialversion der regulären Ubuntu-ISO, welche von einer Linux-Zeitschrift mit Zusatz-Features aufgepeppt worden war; mit zwei Desktops zur Auswahl (Gnome + KDE) sowie Medien-Player mit vorinstallierten Codecs (also ideal auch für Offline-Tests). Noch heute lasse ich diese VM ein bis zweimal im Jahr zu Referenzzwecken laufen.

Das vielleicht wertvollste Feature von Ubuntu steckt nicht im Betriebssystem selbst, macht aber den entscheidenden Unterschied zu anderen Distros. Die Rede ist von den Tonnen an Hilfe-Infos, die es für Ubuntu gibt. Sowas wie die Ubuntu-Wiki gibt es für andere Distros nicht in dem Umfang und in der Qualität (und auch noch in Deutsch). Das wurde mir ziemlich schnell klar, nachdem auch ich dann endlich online war.

Phase 4: Ubuntu als virtuelle Internet-Maschine
Nicht nur wegen meines Jubiläums 25 Jahre ich mit Computer und ohne Internet entschloss ich mich nämlich in 2011, meine Offline-Festung zu verlassen. Es waren die Erfahrungen mit dem VM-Betrieb, die mich zu der Meinungsänderung veranlassten, wonach sich (halbwegs) sicheres Internet nunmehr realisieren ließe. Denn gegenüber dem Sandboxie-Verfahren konnte die VM-Methode mit einem zusätzlichen Trumpf aufwarten. Linux als OS (in der VM anstelle von Windows) gilt nun mal als deutlich schadstoffresistenter als Windows.

So startete das Internet-Zeitalter bei mir mit Ubuntu 11.04 (Unity-Desktop) in einer VirtualBox-VM unter Windows 7 auf einem Notebook. Wenig später fand ich dann auch noch Gefallen an Linux Mint. Da wurde dann eben noch eine weitere VM aufgemacht, während ich mit Ubuntu auf Version 12.04 LTS umstieg. Und so lebten sie dann alle glücklich und zufrieden miteinander bis ans Ende ihrer Tage, wäre da nicht, anders als im Märchen, etwas dazwischen gekommen.

Zu anfangs nahm ich es gar nicht so recht wahr. Aber irgendwie wurden die Linux-VMs immer träger. Dabei lief es zunächst wie geschmiert. Die Webseiten klappten zügig auf; sogar TV-Sendungen aus den Mediatheken kamen akzeptabel rüber. Warum wurde Linux langsamer? Weil Windows langsamer wurde. Das ist, wie mir (ebenfalls) langsam klar wurde, die Achilles-Ferse dieser Methode. Man hat zwar Linux, aber der Unterbau ist halt Windows. Und zwar mit all seinen typischen Problemen.

Die üblichen Tipps – Defragmentieren, Tuner-Tools drüber bügeln – sind natürlich Blödsinn. Im günstigsten Fall bezweckt man damit gar nichts. Auch ist es keineswegs Naturgesetz, dass Windows mit der Zeit immer langsamer wird. Ich habe hier zwei weitere Rechner in Betrieb mit Windows 7 (einer 9 Jahre, einer 3 Jahre alt). Keiner der beiden läuft erkennbar langsamer als bei Erstinbetriebnahme. Aber keiner der beiden war auch jemals mit dem Internet verbunden! Heißt auch, auf keinem der beiden werkelt ein Antivirus-Programm in Konjunktion mit dem allmonatlichen Windows-Update-Ritual.

Der Update-Terror ließ sich nur dadurch halbwegs bändigen, indem Download und Anwendung voneinander separiert wurden. Der Download kommt nun von WinFuture und die Anwendung erfolgt strikt offline. Vorher versackte das Windows-Update zunehmend regelmäßig während des Betriebs. Aber das eigentliche Malware-Programm ist das Anti-Malware-Programm. Dreimal schon musste es in nur 6 Jahren gewechselt werden, weil einfach nichts mehr richtig funktionierte. Mal werden keine USB-Geräte mehr akzeptiert, mal friert das Netzwerk beim Hochfahren ein und beim Shutdown muss man den Notausschalter drücken, weil der Rechner sonst ewig braucht und so weiter und so fort. Ich wage gar nicht nachzurechnen, wie viel Zeit und Ärger mich das gekostet hat.

Testet man dann aber auf versteckte Malware mithilfe von externen Rettungssystemen, ist alles sauber und clean! Und natürlich sind die jeweiligen Absonderlichkeiten augenblicklich verschwunden, sobald das Antivirenprogramm deinstalliert wurde (und durch ein Anderes ersetzt wurde mit anderen Merkwürdigkeiten). Es ist das Duo Infernale aus Windows-Update und Anti-Malware-Programm, das den Rechner wie eine Würgeschlange zunächst umringt und dann langsam aber sicher erstickt. Mittlerweile kann man fast nach jedem Klick erst mal ein Tässchen Tee trinken, bis es wieder weiter geht. Ein Windows 7 ist das beste Betriebssystem, das ich kenne. Sofern ohne Verbindung nach draußen! Ansonsten die Hölle. Unter Linux dagegen braucht man (zu meiner anfänglichen Verwunderung) ein Antivirus-Programm eigentlich nur, wenn man die untersuchte Software anschließend für den Betrieb unter Windows weiter versendet. Also an jemand anders mit Windows. Hat man selber noch irgendwo Windows installiert, kann man das dem dort installiertem Antiviren-Programm überlassen.

Phase 5: MultiBoot auf dem Hostrechner
So konnte es also nicht weitergehen. Erst recht nicht, nachdem bekannt wurde, dass Microsoft den Hardware-Herstellern vorschreibt, künftige Mainboards so zu verbasteln, dass kein Windows 7 mehr darauf laufen kann. MS hatte schon richtig erkannt: es gibt zu wenig Doofe auf der Welt, die sich freiwillig dieses Malware-Monstrum namens Windows 10 auf ihre Rechner tackern wollen. Gegen solche Unbelehrbaren hilft daher nur brachiale Gewalt. Man kalkulierte des weiteren richtig, dass selbst High-Voltage-Stromstöße per WLAN ausgesandt die breite Masse nicht zum Systemwechsel zu animieren vermögen. Die wären dann einfach bloß tot, was nicht im Sinne des Geschäfts wäre. Also als einzige Alternative zu Windows 10 bleibt dann eben nur noch Windows 10.

Oder eben Linux. Wenn man sich denn traut, es nativ zu installieren! Und so was hatte ich bis dato ja schon bis zur Langeweile geübt. Daher machte ich das, was man in solchen Fällen gewöhnlich zu tun versucht. Ich versuchte, das (Un)angenehme mit was nützlichem zu verbinden. Ein neuer Desktop-Rechner mit allen Schikanen (aber bezahlbar) war nämlich schon seit längerem angedacht. Also schleunigst einen gekauft, maßgeschneidert mit allem Drum und Dran, aber ohne Betriebssysteme. Mit UEFI, aber ohne UEFI-Modus. 2016 konnte man so was noch kriegen; ab 2017 versieht derselbe Internet-Händler seine konfigurierbaren Rechnermodelle mit dem Warnhinweis „Für Windows 7 nicht geeignet“.

Darauf kam es mir aber an, dass auch Windows 7 noch läuft. Mir ist schon klar (und auch schnuppe), dass W7 ab 2020 nicht mehr supportet wird. Internet mache ich jetzt schon (abgerundet) zu 99% mit Linux. Aber als Offline-System bleibt W7 für mich weiterhin unverzichtbar (bin halt kein Monotheist).

Die vier projektierten Betriebssysteme waren problemlos und im Nu aufgespielt (2x Windows inklusive Online-Aktivierung, dazu Ubuntu 16.04 LTS und Mint 18). Das schicke UEFI-BIOS des MSI-Mainboards war schon ab Werk für meine Zwecke richtig eingestellt; also Boot-Modus Legacy+UEFI und Windows 8-Features disabled (ergo auch kein Secure Boot). Nur Fast Boot musste ich noch deaktivieren. Das MultiBoot-System wird technisch gesehen über das Windows-Tool EasyBCD zusammengehalten. Das heißt, die Grub-Starter der beiden Linuxe wurden absichtlich auf das jeweilige Installations-Volume geschrieben. EasyBCD bindet die Starter dann nachträglich noch in den Windows-BootManager ein. Somit ist beim Hochfahren des Rechners nach dem Windows-BootManager auch noch kurz das Grub-Menü zu sehen.

Phase 6: Erweiterter MultiBoot mit externen Festplatten
2018 stand dann für Ubuntu/Mint turnusgemäß The Next Generation im Programm. Was sollte ich tun; zwei funktionierende OSe mit denen ich bestens zufrieden war, einfach wieder runterschmeissen? So was kommt für mich nicht in Frage. Zusätzlich installieren? Aber wo? Alles schon anderweitig belegt oder reserviert. Aber 2018 lockte auch mit günstig gewordenen portablen USB3-Festplatten (also solche ohne separaten Stromanschluss). Die Dinger sind kaum größer als eine antike 3.5 Zoll Diskette (wenn überhaupt). Gut, sie kosten zwar immer noch das Fünfhundert- bis Tausendfache (wenn ich die Preise richtig in Erinnerung habe), aber dafür passt – vorsichtig ausgedrückt – auch einiges mehr drauf!

Mit der ersten mobilen HDD versuchte ich zunächst Windows 7 nach Internet-Anleitung portabel (mit USB3-Patch) zu installieren. Geht, aber nicht ganz ohne Wenn und Aber!

Für das zweite Experiment war ein Triple-Boot meiner drei Lieblings-Distros (Mint, Ubuntu und PCLinuxOS mit KDE) projektiert. Diesmal aber im UEFI-Modus. Denn der Modus UEFI+Legacy bedeutet schlicht das, was es heißt. Man kann (ohne Modusänderung) sowohl von MBR- als auch von GPT-Datenträgern booten, sofern diese regelgerecht aufgebaut wurden. (Das erledigt man per GParted.)

In Forenbeiträgen zu diesem Thema beschleicht einem manchmal das Gefühl, dass das Boot-Menü im UEFI-BIOS mit den Boot-Menüs von installierten OSen durcheinander gebracht wird. Von letzterem kann es theoretisch beliebig viele auf einem Rechner geben, das erstere aber ist immer unteilbar. Der Eintrag für das Booten vom anvisiertem Datenträger im UEFI-Modus ist stets nach dem Muster

<Name_des_OS>(<Name_des_Datenträgers>)

aufgebaut. Ist nur der Eintrag

 <Name_des_Datenträgers>

vorhanden, kann die Platte nicht im UEFI-Modus gestartet werden. In meinem Fall hatte ich daher (unter anderem) diese drei zusätzlichen Einträge erwartet:

  • mint(IntensoHDD)

  • ubuntu(IntensoHDD)

  • pclinuxos(IntensoHDD)

Mint jedoch schreibt sich beim Installieren automatisch in den Ubuntu-Entry. Warum, wo doch auf der EFI-Partition genügend Platz für beliebig viele OSe vorhanden ist, konnte mir noch keiner erklären. Der Default-Entry im resultierenden Grub-Menü wechselt dann ständig zwischen Ubuntu und Mint hin und her – je nachdem, welches OS gerade zuletzt aktualisiert worden ist. PCLinuxOS blieb nur solange als eigenständiger Eintrag im UEFI-BIOS erhalten, wie die externe HDD nicht zwischenzeitlich bei nachfolgenden Rechner-Sessions abgesteckt worden war. Stöpselt man sie wieder ein und fährt dann hoch, ist der Ubuntu-Eintrag wieder da, der von PCLinuxOS aber bleibt verschwunden!? Freundlicherweise aber schreiben die Linux-GRUBse automatisch alle auf angeschlossenen Datenträgern gefundenen Linuxe in ihr Boot-Menü. Da in meinem Fall PCLinuxOS vor Ubuntu installiert worden war, kann ich diese Distro immer noch aus dem Ubuntu-Grub heraus starten.

Nebenbei bemerkt: bevor ich mich mit neuen Versionen befasse, warte ich immer erst ein paar Wochen (sprich Monate) ab (und dann geht‘s erst mal ins Testlabor einer VM). Bis dahin ist möglicherweise der ein oder andere Bug-Klops, der im ersten Anlauf noch übersehen worden war, von den Entwicklern enttarnt und entfernt worden. Oder es ist noch was nachgebessert worden. Im Fall von Ubuntu 18 (mit Gnome-Desktop) war man bereits bei Variation 01 angelangt und zu meinem Erstaunen fand ich darin gleich zwei Programme mit Namen Dateien, aber leicht unterschiedlichen Icons. Hinter dem einem Tool verbarg sich der gewohnte Nautilus-Explorer. Der andere aber entpuppte sich als (Käptn) Nemo; also der Standard-Explorer, der in Mint verwendet wird. Als ich im Anmeldebildschirm auch noch die Option Cinnamon-Desktop entdeckte, wurden mir einiges klarer. Tatsächlich (in einer VM ausprobiert) ließ sich mit beiden zusammen ein täuschend echtes Linux Mint Fake realisieren. Von diesen Optionen war in den Previews zu Ubuntu 18 aber nichts zu lesen gewesen!

Wie oft wurde Ubuntu schon zum Vorwurf gemacht, dass der Nautilus einfach zu wenig und zu umständlich kann. Dann wurde darauf verwiesen, dass man mit etwas Gefrickel den Standard-Explorer durch einen anderen zu ersetzen vermag. Nun ist die Sache aber dahingehend gelöst, dass ohne meine Zutun der eindeutig leistungsstärkere Nemo ebenfalls vorinstalliert ist. Man darf auch beide problemlos (und sogar gleichzeitig) benutzen.

Das bringt mich zu der überleitenden These, wonach sowohl Unity als auch der neue Gnome-Desktop funktional etwas zu schlicht geraten sind. Selbst für einen Durchschnittsanwender wie mich ist das zu wenig. Aber beide lassen sich mit den verfügbaren Erweiterungen deutlich aufmotzen. OK, unter Mint gibt es diesbezüglich weniger zu tun. Aber solange so etwas nicht in kryptisches Script-Gefummel ausartet, kann ein bisschen individuelles Nachoptimieren sogar Spaß machen.

Ubuntu 18 hätte ich vielleicht überspringen können. Aber da der Unity-Desktop zugunsten von Gnome ausgetauscht wurde, wollte ich schon wissen, was da spätestens ab 2021 auf mich zukommt. Um mich eventuell schon mal langsam daran zu gewöhnen! Rein optisch gefällt mir sowohl Unity als auch Gnome, wobei dieses Ubuntu-Gnome kaum Ähnlichkeiten mit den Gnome-Varianten, die ich bisher gesehen habe, aufweist (einschließlich des alten Ubuntu-Gnome von vor 10 Jahren). Es sieht auf den ersten Blick nicht zufällig eher wie Unity aus. Zweifellos ist es Ubuntu mit seinem Gnome gelungen, der Version 18 sein eigenes unverwechselbares Gesicht zu geben (kein noch so ein Linux-Klon mit anderem Hintergrundbild).

Mein erster Eindruck von Ubuntu 18 (damals noch in der Test-VM) war: ok, brauchbar! Mein zweiter Eindruck: naja, aber der Desktop kann standardmäßig noch weniger als Unity im Werkszustand. Mein dritter Eindruck: gar nicht wahr, man muss nur genauer seine arteigenen Fähigkeiten betrachten und nicht nur alles auf den Vergleich mit Unity beschränken. Schlussfazit des Vorabtests war daher: zur nativen Installation freigegeben!

Übrigens, was Ubuntu, Mint und PCLinuxOS gemeinsam haben, ist, sie waren alle schon (vor längerer Zeit) mal Nummer eins bei DistroWatch. Was die Experten natürlich wissen (, aber vielleicht nicht jeder, der hier mitliest,) ist, dass DistroWatch aber nur die Klicks auf ihren distro-spezifischen Unterseiten zählt, jedoch nicht die Downloads geschweige denn die tatsächlichen Installationen der Distros. Wer sich aber mit einer speziellen Distro erst mal angefreundet hat, wird in der Regel zukünftige Materialien eher direkt über Websites der Distro beziehen statt über ein globales Infozentrum wie DistroWatch. Heißt übersetzt, die wirklich guten (in vielen Jahren gereiften) Distros findet man eher etwas weiter hinten in der DistroWatch-Hitparade.

Zum Abschluss: Ein Ausblick auf die Zukunft
Was Windows 7 betrifft, so werde ich versuchen, mich (mit der vorhandenen Hardware) noch bis 2030 durchzuschleppen (offline, wie gesagt). Oder bis zu meinem eigenen EOL-Termin. (Je nach dem, was früher eintritt.)

Ansonsten sehe ich für mich zu Linux (online) keine Alternative. Denn Microsoft wird von seinem Kurs der totalen Entmündigung des Menschen nicht mehr abzubringen sein. Und der Unterschied zu Apple ist für mich nur der: unter Windows darf man sich noch selbst die Schuhe zubinden und den eigenen Hintern abwischen; am MAC ist selbst das verboten und zudem kostenpflichtig.

Als Vorsatz für die nahe Zukunft habe ich mir vorgenommen, die wichtigsten Programme, die ich ohnehin schon unter Windows nutze, auch verstärkt direkt unter Linux zu verwenden. Also nicht nur Firefox und Thunderbird, sondern auch VLC, Avidemux und vor allem Libre Office (ach, mach‘ ich ja gerade). The Gimp könnte ich noch anführen. Aber für Grafik habe ich kein Talent und keine Ausdauer. Und für die paar essentiellen Windows-Programme, die nicht auch für Linux erhältlich sind, gibt es ja WINE. Obwohl damit habe ich persönlich noch nichts gescheites hinbekommen. Besser dann schon über eine virtuelle Windows-VM. VirtualBox und den VMware Player gibt es ja auch für Linux. Wobei VirtualBox allgemein mehr drauf hat, aber VMware speziell bei Windows-VMs einen Tick besser ist. Nur VMware und Linux beißen sich irgendwie etwas. Wer nicht die im Internet kursierenden Lösungen zu den Stichworten

  prefvmx.minVmMemPct = "100"

und

  mks.gl.allowBlacklistedDrivers = "TRUE"

beherzigt, wird mit dem VMware Player unter Linux nicht glücklich werden. Aus eigener Anschauung kann ich noch hinzufügen, dass Ubuntu 18 bei jedem System-Update die virtuellen Netzwerkadapter von VMware killt. Sodass man diese jedes mal über die Reparaturfunktion des Players (auf dem Admin-Account) reaktivieren muss. Aber wenn man diese Stolpersteine aus den Weg geräumt hat, kann man sogar Photoshop (testweise) darin mit allem Zipp und Zapp laufen lassen, um den Faden zum Thema Grafikprogramme nochmal aufzunehmen.

Ich persönlich benötige da aber eher einfachere Grafikanwendungen (, von denen es für Linux nicht gerade wenige gibt). Wirklich brauchen tue ich davon jedoch eigentlich nur Shutter, das zugleich ein sehr gutes Beispiel für ein äußerst nützliches, nur für Linux erhältliches Tool abgibt. Dieses Screenshot-Werkzeug bietet genau das, worauf es mir ankommt. Wenn man ständig für eigene Dokumentationszwecke Bildschirmfotos macht, will man nicht wie bei anderen Screenshot-Tools immer erst abspeichern müssen, bevor man den nächsten macht. Und Markierungen und Textanmerkungen sollen nicht nur freihändig einzukritzeln sein! Shutter kann das alles; einziger Haken: es wird anscheinend nicht mehr weiter entwickelt. Schon jetzt muss bei den aktuellen Ubuntu- und Mint-Versionen von Hand nachkonfiguriert werden, damit alle Funktionen noch zur Verfügung stehen. Bleibt meinerseits die Hoffnung, dass die Zukunft ein wieder gewartetes Shutter-Tool zurückbringt oder etwas neues, aber gleichwertiges!

Kätzchen

Avatar von Kätzchen

Anmeldungsdatum:
1. Mai 2011

Beiträge: 6036

Willkommen bei uns im Forum habkainzmer 😉

Habe alles gelesen 🤓 Danke für den Einblick wie du das so mit Linux gemacht hast.

Bei mir war das so:

ISO (Ubuntu 10.10) heruntergeladen und in Windows XP mit Wubi installiert und zufrieden genutzt. Nach einiger Zeit gelesen das Wubi kein richtige Installation ist, es wurde im Bootloader von WinXP zum Booten ausgewählt.

Danach richtig neben XP installiert.

Jetzt habe ich schon einige Jahre kein Windows mehr, auch nicht in einer VM. vermisse nichts.

Edit:

Das hat aber keinen speziellen Grund zb. Anwendungen warum du Windows 7 Offline und nativ auf echter Hardware weiterverwenden willst oder? Laufen die Anwendungen nicht in einer VM?

habkainzmer

Anmeldungsdatum:
19. Mai 2019

Beiträge: 33

Kätzchen schrieb:

Das hat aber keinen speziellen Grund zb. Anwendungen warum du Windows 7 Offline und nativ auf echter Hardware weiterverwenden willst oder? Laufen die Anwendungen nicht in einer VM?

Teils, teils.
Spiele beispielsweise (selbst solche mit geringeren Anforderungen) laufen eher schlecht als recht in einer VM unter Virtualbox oder dem VMware-Player (letzterer ist unter Linux nicht ganz unproblematisch). Und Qemu habe ich noch nicht probiert (verspreche mir davon auch keinen Durchbruch, da die zugrundeliegenden Techniken wohl schon in den vorgenannten Virtualisierern implementiert sein dürften). Ich spiele nur ganz wenige Games; eigentlich immer dieselben, aber an denen hänge ich.

Eine zweite Problemgruppe sind Anwendungen, die ihrerseits bereits virtualisiert bzw. emuliert sind. Extrembeispiel: ich habe hier einen CPC (80er Home-Computer), der unter einem CPC-Emulator läuft, der auf einem A5000 läuft (90er Desktop-Rechner von ACORN), der unter einem Acorn-Emulator läuft, der auf einem aktuellen PC mit Windows läuft. Wenn auch diese Ebene nochmals nach unten durchgereicht wird (an VBox oder VMware), läuft die Synchronisation nicht mehr so ganz rund (Tastatur- und Maussteuerung vor allem). Obwohl die Performance der Zwischenwirte deutlich höher als im Original ist.

Sonstige (normale) Anwendungen laufen in VMs dagegen gut bis sehr gut. Das gilt sowohl für Windows- als auch für Linux-Gäste.

Wenn ich nicht bereit bin, Windows 7 kampflos aufzugeben (ebensowenig wie meine 3 Lieblingsdistros: Ubuntu, Mint und PCLinuxOS), dann auch weil ich Vielfalt (in überschaubaren Maß) liebe. Außerdem setze ich nicht gern alles auf ein Pferd. Die Erfahrung der Vergangenheit lehrte mich, dass immer gerade das Pferd zusammenbricht, auf dem ich gerade Platz genommen habe. (Ob es an meinem Übergewicht liegt?) Dann doch besser die Gäule als Vierspänner vor dem Wagen. Ist gesünder für die Tiere und bequemer für mich. 😉

glasenisback

Avatar von glasenisback

Anmeldungsdatum:
20. November 2011

Beiträge: 1603

habkainzmer schrieb:

Spiele beispielsweise (selbst solche mit geringeren Anforderungen) laufen eher schlecht als recht in einer VM unter Virtualbox oder dem VMware-Player (letzterer ist unter Linux nicht ganz unproblematisch). Und Qemu habe ich noch nicht probiert (verspreche mir davon auch keinen Durchbruch, da die zugrundeliegenden Techniken wohl schon in den vorgenannten Virtualisierern implementiert sein dürften). Ich spiele nur ganz wenige Games; eigentlich immer dieselben, aber an denen hänge ich.

Welche sind das genau? Wine hat in den letzten Monaten massive Fortschritte gemacht.

Eine zweite Problemgruppe sind Anwendungen, die ihrerseits bereits virtualisiert bzw. emuliert sind. Extrembeispiel: ich habe hier einen CPC (80er Home-Computer), der unter einem CPC-Emulator läuft, der auf einem A5000 läuft (90er Desktop-Rechner von ACORN), der unter einem Acorn-Emulator läuft, der auf einem aktuellen PC mit Windows läuft. Wenn auch diese Ebene nochmals nach unten durchgereicht wird (an VBox oder VMware), läuft die Synchronisation nicht mehr so ganz rund (Tastatur- und Maussteuerung vor allem). Obwohl die Performance der Zwischenwirte deutlich höher als im Original ist.

Warum benutzt du nicht einfach einen Linux-nativen CPC-Emulator? Da gibt es unzählige. Einfach mal in den Paketquellen suchen. Für deinen A5000 gibt es auch einen passenden Emulator. Der ist leider nicht in den Paketquellen, lässt sich aber relativ einfach kompilieren und benutzen.

habkainzmer

Anmeldungsdatum:
19. Mai 2019

Beiträge: 33

glasenisback schrieb:

Welche sind das genau?

Meine Top 5 sind diese:

  • Carcassonne ;läuft in VMs bei mir so gerade noch ohne Qualitätsverlust

  • Free Billiards (2008) ;braucht echte Graka, flimmert mit Onboard- oder virtueller Graka

  • Autobahn Raser IV ;läuft akzeptabel eigentlich nur bis Windows XP (nativ)

  • Trackmania Forever ;läuft im Kern unter VMs noch erstaunlich flüssig

  • Super Tux Kart ;läuft bestens (weil nativ unter Linux installiert)

Apropos Trackmania; da fällt mir gerade ein, dass ich das ja seit ein paar Wochen auch unter Ubuntu 18 habe (entdeckte ich zufällig beim Blättern im Ubuntu-Software-Katalog). Abgesehen davon, dass die Verwaltungsoptionen nur fragmentarisch durchgereicht werden, läuft das Spiel wie im Original! Und dass obwohl es noch nicht mal portiert ist, sondern nur auf einem WINE-Unterboden fährt.

Stichwort WINE:

Wine hat in den letzten Monaten massive Fortschritte gemacht.

So?! Das könnte noch interessant werden für mich (siehe unten). WINE habe ich unter Ubuntu 16 installiert und vor zwei Jahren mal ein bisschen getestet. Es ist halt nicht unbedingt die Lösung für beliebige Anwendungsprogramme sondern mehr eine Maßschneiderei für PC-Games (, von denen ich so gut wie keine kenne). Unter Ubuntu 18 hatte ich vor kurzem stattdessen PlayOnLinux installiert. Das erleichtert die Bedienung etwas, aber nur wenn PlayOnLinux die jeweils passende WINE-Automatik in seinem Datenbestand findet, was eher die Ausnahme ist.

Das Grundprinzip und damit auch das Grundproblem von WINE besteht darin, dass es sozusagen für jedes Programm eine Einzel-VM errichtet. Bei Anwendungen kommt es aber meist darauf an, dass nicht nur das Programm selbst, sondern auch die zugehörige Umgebung (OS) verfügbar sein muss. Weil der Anwender (ohne sich dessen immer bewußt zu sein) seine Aufgaben innerhalb einer Multitasking-Umgebung erledigt. WINE kann aber die Lösung sein, wenn das Windows-Programm normalerweise nur isoliert betrieben wird (Spiele vor allem, aber auch bestimmte Spezialanwendungen).

Warum benutzt du nicht einfach einen Linux-nativen CPC-Emulator? Da gibt es unzählige.

Stimmt. Wenn auch vielleicht nicht unzählig viele, aber auf jeden Fall gute. Habe ich vor ein paar Jahren unter Ubuntu 12 mal ausprobiert. Allerdings - den CPC-Emulator, den ich verwende, hatte ich mir einst selbst auf meinem ACORN-Rechner programmiert, auf Geschwindigkeit optimiert und mit ein paar Zusatz-Features aufgerüstet, die es in der Form auf anderen Emus nicht gibt.

Aber das ist noch nicht alles. Der ACORN-Emulator (Virtual A5000), den ich mir dann anschließend nach meinem Umstieg auf den PC (für ziemlich viel Geld) gekauft habe, ist die reinste Rakete! Dieser Emulator interpretiert das Gastsystem nicht, sondern kompiliert es dynamisch im Hintergrund. Das heißt, die emulierte Umgebung läuft de facto als Binärprogramm auf dem PC. Die ACORN-Fangemeinde war immer besonders stolz auf die Geschwindigkeit ihrer Kisten. Aber dieser Emulator (damals auf einem Desktop-PC mit XP), war auf Anhieb rund zehnmal schneller als mein originaler Acorn-Compi (wenn auch 'nur' ein Prae-RPC-Modell). Dazu kommt, dass er direkt auf das Windows-Dateisystem ohne Tempoeinbuße zugreift (also nicht über Disc-Images). Das bedeutet, dass aus PC-Sicht die virtuellen ACORN-Festplatten wie Tauschordner funktionieren, auf die im Emu-Betrieb beide OSe simultan zugreifen können. Hieraus wiederum ergeben sich weitere interessante Möglichkeiten.

Für mich bedeutete dies, dass ich quasi noch mal von vorn für mehr als ein Jahrzehnt mit dem ACORN anfing. Als produktives System, nicht bloß als Nostalgie-Altar. Es motivierte mich, meinen CPC-Emulator in Grundzügen nochmal neu zu schreiben; wegen der nunmehr verfügbaren Performance-Power nicht mehr Speed- sondern Detail-optimiert. Der CPC-Emulator läßt sich unter anderem damit unabhängig von der Performance des Host-Rechners in präziser Originalgeschwindigkeit betreiben (oder optional in einem exakten Vielfachen davon).

Ich benutze eigentlich nur Standard-Software, aber das ist halt die Ausnahme davon. Und die läßt sich nunmal nicht über Ersatzlösungen portieren. Aber WINE könnte in dem Fall eine Alternative sein. Schon lange steht ein Versuch auf meiner ToDo-Liste. Gerüchteweise soll Virtual A5000 unter WINE laufen. Aber konkrete Anleitungen und Erfahrungen habe ich dazu nicht gefunden: mit welcher WINE-Version man das Windows-Programm aus dem Jahre 2003 am besten auf aktuellen Systemen ins Laufen bringt.

Danke übrigens für den Link auf den ARCem-Emulator. Den Artikel kannte ich noch nicht (ist für ein Retro-System auch noch ziemlich neu). Das wäre zugleich mal eine konkrete Anleitung, wie man ein Programm für Linux kompiliert (hab' ich noch nie probiert). Vor rund einem Jahr habe ich mal ein bisschen Inventur gemacht in Punkto was es so für ACORN und Umgebung noch gibt. Teilweise mußte ich das Material aus der Wayback Machine fischen, aber es gibt sogar noch einiges an Aktuellem. Sogar bei DistroWatch war es zu finden. (Als aktives nicht-Linux OS. Das heißt, der Hauptzweig von RISC OS ist mittlerweile Open Source und findet Verwendung in Emulatoren und Spezialrechnern (wie Raspberry Pi) für engagierte Bastler und Tüftler.) An ACORN-Emulatoren zählte ich insgesamt sieben Stück (2 kommerzielle, 5 als Freeware und davon wiederum zwei auch für Linux). Einen davon habe ich bereits mal getestet: nicht schlecht, aber kein Vergleich zum (immer noch kostenpflichtigen) Virtual A5000.

yogie1948

Anmeldungsdatum:
25. August 2007

Beiträge: Zähle...

Hallo! ich war jahrelang Büttel von Microsoft. Habe nun endlich zu Ubuntu gefunden. Es gefällt mir sehr gut. Aber ich denke ich muss mehrmals im Forum um Hilfe nachsuchen.

Moderiert von sebix:

An bestehenden Thread zum Thema angehaengt.

Udalrich

Avatar von Udalrich

Anmeldungsdatum:
15. Mai 2019

Beiträge: 472

habkainzmer schrieb:

Allerdings - den CPC-Emulator, den ich verwende, hatte ich mir einst selbst auf meinem ACORN-Rechner programmiert, auf Geschwindigkeit optimiert und mit ein paar Zusatz-Features aufgerüstet, die es in der Form auf anderen Emus nicht gibt.

Wie hieß dieser CPC-Emulator, bitte?

Denn ich hatte auf meinem Archimedes lange einen CPC-Emulator benutzt, welcher in ARM-Assembler geschrieben war, glaube ich. Er war sehr schnell.

Vomselben Autor kam glaube ich auch ein exzellenter SNES-Emulator, welchen ich ebenfalls lange auf meinem Archimedes benutzte. Wiederum in ARM-Assembler geschrieben, glaube ich mich zu erinnern (ist schon lange her…). Ob dieser Archimedes schon ein RiscPC mit StrongARM war, weiß ich nicht mehr, aber vermutlich schon, weil ein 12/30 Mhz Archimedes kaum ein SNES hätte emulieren können, oder?

Zurück zum Thema: Unter Linux nutze ich gerne MAME aus den Ubuntu-Systemquellen als CPC- und SNES-Emulator. Gewisse CPC-Megademos kann er nicht abspielen, aber sonst ziemlich alles und recht akkuart. Kann ich also empfehlen.

mame cpc6128  [-flop Diskette.dsk]
mame megadriv [-cart Abbild.md] 
mame snespal  [-cart Abbild.sfc] 

Martin73

Anmeldungsdatum:
1. August 2014

Beiträge: Zähle...

Hallöle

Nach einigen Jahren mit OSX hatte ich mal wieder Lust auf Ubuntu und wagte mich, dank einiger Geräte die ich von Apple besitze, an eine Installation auf einem MacBook Air. Obwohl ich früher, seit Warty Warthog, wenige Probleme hatte, war es diesmal anders. Diesmal wurde bei der 18.04 LTS-Version kein WLAN-Adapter erkannt.

Und da sind wir beim Kern des Pudels. Die Recherche hier und anderswo hat mein Problem gelöst und meine LieblungsDistribution läuft tadellos. Einfach mal, Danke ♥

Moderiert von ChickenLipsRfun2eat:

An bestehendes Thema angehängt.

Kellerkind_2009

Avatar von Kellerkind_2009

Anmeldungsdatum:
26. November 2009

Beiträge: 19527

Dann mal Willkommen "zurück" und weiterhin viel Spaß damit ☺

BerlinPinguin

Avatar von BerlinPinguin

Anmeldungsdatum:
10. November 2018

Beiträge: Zähle...

Bei mir bekäme "Erwartungen an Ubuntu wurden erfüllt" derzeit einen Daumen hoch. Mit 4.10 stieg ich damals ein, ließ 5.04 auch nochmal auf den Rechner, aber warm wurde ich mit allem nicht, zumal ich damals Suse Anwender war und keine Lust hatte, mich umzugewöhnen. Arbeite seit S.u.S.e. Linux 4.2 mit dem Pinguin, allerdings eben meist mit RPM basierten Systemen. Von Suse ging es dann über RedHat zu Fedora. Ein wenig Langeweile und Neugierde ließen mich vor kurzem mal das aktuelle Ubuntu Release auf den Rechner bringen und bisher bin ich echt angetan. Finde keine gravierenden Fehler, alles läuft recht ruhig. Allerdings werde ich hier noch nichts über den grünen Klee loben, kenne mein Glück, denn genau dann verreckt irgendwas 😉

Kellerkind_2009

Avatar von Kellerkind_2009

Anmeldungsdatum:
26. November 2009

Beiträge: 19527

BerlinPinguin schrieb:

Allerdings werde ich hier noch nichts über den grünen Klee loben, kenne mein Glück, denn genau dann verreckt irgendwas 😉

🤣 Sehr weise ☺

RamSpeicher

Anmeldungsdatum:
17. Juli 2009

Beiträge: 2508

BerlinPinguin schrieb:

Allerdings werde ich hier noch nichts über den grünen Klee loben

Das sieht natürlich bei einem erhöhtem Euphoriespiegel nochmal ganz anders aus 😈

BerlinPinguin

Avatar von BerlinPinguin

Anmeldungsdatum:
10. November 2018

Beiträge: 46

RamSpeicher schrieb:

BerlinPinguin schrieb:

Allerdings werde ich hier noch nichts über den grünen Klee loben

Das sieht natürlich bei einem erhöhtem Euphoriespiegel nochmal ganz anders aus 😈

Den habe ich nicht und werde ich auch so schnell nicht bekommen. Betriebssysteme sind nicht an mein Glücks-Level gekoppelt 😉

Kätzchen

Avatar von Kätzchen

Anmeldungsdatum:
1. Mai 2011

Beiträge: 6036

Habe wieder positive Erfahrungen mit Ubuntu zu berichten:

Habe ein Asus F200CA Notebook geschenkt bekommen, weil es schon länger ausgemustert ist wegen Akkuschaden bzw. Akku-Laden-Schaden. Es läuft Prima mit Lubuntu 19.10. Bildschirmhelligkeit über Tasten regelbar und WLAN läuft auch. Windows 8 war drauf, es soll einen Touchscreen haben, das ist das einzige was nicht "out of the box" funktioniert. Gehe dem aber nicht nach da es ohnehin für Lubuntu wenig sinn macht.

Habe mir auch eine Larmtek 1080p FullHD Webcam (Youtube) für meinen Desktop gekauft. Funktioniert mit dem Wire_(Messenger) sehr gut.

Bin überglücklich. ☺

habkainzmer

Anmeldungsdatum:
19. Mai 2019

Beiträge: 33

Hallo Udalrich

Nach knapp einem Jahr habe ich diesen Thread mal wieder besucht und mußte zu meinem Erstaunen feststellen, daß da ja eine von mir noch nicht beantwortete Frage vor sich hingammelt.

Wahrscheinlich wirst Du nun Deinerseits nach so langer Zeit die Antwort nicht finden; aber sei's drum (ein Versuch ist es wert).

Deine Frage (vom 22.06.19) lautete:

Wie hieß dieser CPC-Emulator, bitte?

Er heißt CPCgoesARC.

Um hier keine Threadentführung zu veranstalten, fange ich gleich mal mit dem Ende an und beschreibe wie der Emulator heutzutage zu betreiben ist. Nämlich: Linux starten (z.B. Ubuntu 16 oder 18), VM mit Windows (7) starten (via VirtualBox oder VMware), Acorn-Emulator VirtualA5000 starten, CPCgoesARC starten, CPC-Software laufen lassen. Alternativ kann man von den insgesamt 3 Emulationsebenen die erste weglassen. Also Virtualisierer raus und gleich auf einem Windows-Host beginnen. Das verbessert das Ergebnis natürlich. Oder den Acorn-Emulator mittels WINE unter Ubuntu laufen lassen. Letzteres habe ich allerdings (immer) noch nicht probiert (steht aber seit langem schon auf meiner ToDo-Agenda).

Meinen Emu hatte ich Ende der 90er entwickelt mit dem Ziel, den virtuellen CPC in Originalgeschwindigkeit auf meinem damaligen Acorn-A3010 (12 Mhz + Turbo-RAM) betreiben zu können, was dank ARM-Assembler auch locker gelang. (Emulatoren auf ACORNs dürften wohl alle in Assembler geschrieben worden sein.) Zu den Extra-Features gehört, daß CPC-Programme über bereitgestellte virtuelle Kommandos, auch Resourcen des Hosts anzapfen können (Maus, 4096er Farbpalette und anderen Kleinkram). Ferner lassen sich über den integrierten Inline-Debugger laufende CPC-Programme analysieren und manipulieren. Alles weitere dazu hatte ich bereits hier im Post vom 28.Mai 2019 erzählt.

Der CPC-Emulator, den Du auf dem ACORN benutzt hast, dürfte wohl der von Andreas Stroiczek sein. Dieser ist zweifellos der beste, weil kompletteste (war zudem von Anfang an für alle Acorn-Modelle konzipiert); ansonsten kenne ich nur noch den von Mark Rison.

Da ich sowieso (in mittlerweile größeren Abständen) den Acorn-Emulator benutze, bin ich mit den CPC-Emulatoren auf dieser Plattform einfach besser vertraut.

Ja, und auch das ist ein weiteres Puzzleteil für Erwartungen an Ubuntu wurden erfüllt, denn all das könnte ich nicht unter Ubuntu mehr machen, wenn es keine Virtualisierungsprogramme gäbe, die in gleicher Weise (wie in Windows) auch unter Linux laufen.