Durch einen ziemlichen Zufall bin ich auf einen Foren-Thread namens
Erwartungen an Ubuntu/Linux wurden nicht erfüllt
gestoßen und von dort aus auch noch auf seinen Antipoden; also diesen hier. So groß sind die Unterschiede der beiden Threads eigentlich gar nicht. Denn wo es was zu loben gibt, bleibt auch immer was zu kritisieren übrig (Nichts ist schließlich perfekt). Und wo Erwartungen nicht erfüllt wurden, müssen sie doch zuvor (berechtigterweise) bestanden haben. Man könnte die beiden Sammelthreads auch vereinen unter dem neuen Label
Antworten statt Fragen (zu Ubuntu/Linux).
Mein Post passt auf jeden Fall aber besser hier hin. Die These, die ich hier in den Raum werfe, lautet, dass die Zielgruppen für Linux sich verschoben haben. Also die, welche mit Ubuntu/Linux zufrieden sind (oder sein könnten, wenn sie es denn nutzen täten).
An Linux klebt ja immer noch das Etikett Freaks only. Das war vor 20 Jahren wohl auch zutreffend. Aber heute ist Linux (in Gestalt ihrer Mainstream-Distros wie Ubuntu, Mint, etc.) eher etwas für Durchschnittsanwender. (Sie wissen es bloß noch nicht.) Das ist jedenfalls mein Eindruck beim Lesen von Internet-Beiträgen und vor allem meine eigene Erfahrung. Denn seitdem ich vor knapp zwanzig Jahren zwangsweise auf die PC-Plattform migrieren musste, bin auch ich nur noch ein Durchschnittsanwender.
Ein Saulus zu Paulus-Erlebnis gab es jedoch nie, was mich zum Linuxianer bekehrt hätte. Vielmehr war es ein langsames Wegdriften von Windows zu Linux. Ein Prozess, der sich über mehr als zwei Jahrzehnte erstreckte und noch immer nicht zum Stillstand gekommen ist. Dieser Prozess lässt sich grob in 6 Etappen gliedern:
Phase 1: Theorie und Sympathie
Mitte der 90er Jahre hatte es sich herumgesprochen, dass es ein zweites System für PCs gibt. Linux besetzte dabei von Anfang an die Position des Good Guys gegenüber dem bösen Wintel-Kartell. Folgerichtig besaß Linux mein Wohlwollen. Es gab dann auch viele fortgeschrittene PC-User, die einen Ausflug in die neue Linux-Welt wagten. Aber meist ernüchtert davon zurückkehrten! Viel, viel Arbeit für wenig substantiellen Ertrag, so das gängige Fazit!
Ich selber sah keine Veranlassung, Linux auszuprobieren. Wie auch; ich besaß ja nicht mal einen PC! Mein erster Computer Mitte der 80er Jahre war ein typischer Heimcomputer gewesen, an dem mich eigentlich nur drei Dinge wirklich interessierten: Programmieren, Programmieren, Programmieren. Es war wie von einem Kanister mit Benzin übergossen zu sein und Streichholz dran!
In den 90er Jahren rettete ich mich auf eine buchstäbliche Insellösung, wo ich mein Hobby unbeirrt weiter betreiben konnte. Nunmehr auf dem nächsthöheren Level mit Anwendungen für den Desktop aber weiterhin über die bewährte Kombination aus BASIC und Assembler (wo nötig). Dieses BASIC besaß übrigens schon alle Funktionen für ein strukturiertes Programmieren und vermochte alle Betriebssystemroutinen zu nutzen (Desktop-Anwendungen wären anders auch gar nicht machbar gewesen). Von wegen Spaghettti-Code BASIC!
Warum ich das extra erwähne? Nun weil das ein Kernproblem der Linux-Welt anspricht. Es gibt nämlich zu wenig Programmierer. Und warum gibt es zu wenig? Weil Programmieren künstlich verkompliziert worden ist. Linux darf jedoch seine Hände in Unschuld waschen (Gnade der späten Geburt); denn die diesbezüglichen Fehlentwicklungen setzten schon sehr früh ein und waren dann in der PC-Welt auch (von Linux) nicht mehr zu korrigieren. Wenn es aber für freie Software in der Regel nur wenig bis gar kein Geld gibt, dann muss Programmieren wenigstens Spaß machen. Und das tut es für die meisten eben nicht (mehr). In den 80ern konnte man mit Hobby-Programmierern noch die Straßen pflastern. Beim Umstieg vom Heimcomputer auf den PC hieß es dann für die meisten aber: Programmieren Adé! So auch für mich. Nun haben die Nerds also das was sie wollten. Sie haben das Programmieren für sich alleine. Und das Fußvolk darf ein schlechtes Gewissen haben, weil es ja faul und untätig nur konsumieren und kritisieren will.
Phase 2: DOSenöffner Linux-Live-CD
Nach der Jahrtausendwende war der Traum ausgeträumt und ich musste von meinem Traumcomputer Abschied nehmen. Ich tröstete mich damit, dass ich ihn in Gestalt einer wahnsinnig schnellen Emulation (dank Dynamic Recompilation) auf den PC mitnehmen durfte (und somit weitermachen konnte). An Linux dachte ich zunächst noch gar nicht (natürlich war der Emulator nur für Windows erhältlich). Ich war erst mal froh, dass ich mit XP besser zurecht kam als erwartet. Ein zusätzliches Betriebssystem zu installieren, wäre mir nie in den Sinn gekommen; selbst wenn ich schon gewusst hätte wie so was geht. Den für damalige Verhältnisse üppigen Festplattenspeicher meines Desktop-PCs wollte ich für Multimedia-Inhalte reservieren (auch so ein Trostpflaster).
Aber neugierig wäre ich schon gewesen. Wie sieht so ein Linux denn wohl aus?
Eines Tages hielt ich unvermittelt eine Knoppix-CD in den Händen. Beschreibung, wie man die in Gang kriegt, war dem zugehörigen PC-Magazin zu entnehmen: einfach in CD/DVD-Laufwerk stecken, Computer hochfahren, Knoppix-Linux ausprobieren, Computer herunterfahren und Computer wieder ohne CD starten – und alles ist wieder rückstandsfrei wie vorher und in Windows.
Na, da konnte ich natürlich nicht nein sagen.
Nun vermochte ich mich erstmals davon zu überzeugen, dass auch Linux ein brauchbares Computersystem darstellt. Wo man Dokumente lesen und schreiben kann; wo man nach Belieben Musik und Videos konsumieren kann. Somit: Schwellenängste beseitigt. Die Bedeutung der Live-CD für die Verbreitung von Linux kann man gar nicht hoch genug einschätzen. Anders als die Quellmedien von MS-Windows sind die Pendants der gängigen Linux-Distributionen sozusagen hybrid: sie enthalten nicht nur ein zu installierendes OS sondern zugleich auch ein bereits installiertes!
Das einzige, was ich mit der Knoppix übrigens nicht testen konnte, war Internet. Und zwar, weil ich noch keins hatte. Damals herrschte nämlich gerade ein derartiges Tohuwabohu in Sachen Internet-Sicherheit, dass ich beschloss erst mal abzuwarten, bis sich die Sache wieder beruhigt hatte. In einigen Jahren würden man diese Probleme sicherlich in den Griff bekommen haben. (Dachte ich.)
Phase 3: Auf Entdeckungsreise in virtueller Umgebung
Zum Ende des ersten Jahrzehnts des neuen Jahrtausends waren die PC-Zeitschriften plötzlich voll mit einer faszinierenden neuen Technik: Virtualisierung. Statt zwei Betriebssysteme nacheinander auf einem Rechner zu fahren, konnte man diese nun parallel laufen lassen. Sofern eines davon als virtuelle Maschine (VM) betrieben wird! Was Linux anbelangt, so bedeutete dies, man konnte es nun installieren ohne es wirklich installieren zu müssen. So eine VM-Lösung war für eine dauerhafte Nutzung noch bequemer und vor allem effizienter als ein Live-System.
Mehr noch: in VMs kann man nahezu alle erdenklichen Szenarien testen ,bevor man sie eventuell später einmal auch nativ umsetzt. Ich habe jede Variante einer Linux-Installation auf einem physikalischen Rechner zuvor ausgiebig in allen Einzelheiten in einer VM getestet. Man kann auch Multiboot in einer VM üben, indem man mehrere OSe darin installiert (Windows und/oder Linux). Sogar Multiboot unter UEFI (ohne und sogar mit Secure Boot) lässt sich in Grundzügen vorab simulieren (derzeit aber nur unter dem VMware Player, da VirtualBox nur ein transientes BIOS bzw. UEFI nachbildet). Ich kann daher nur jedem empfehlen, der anderen empfiehlt, Linux zu probieren, diesen zu empfehlen, dies vorab gründlich in einer VM zu testen, bevor sie sich an eine native Installation wagen. Denn Überraschungen bei Installationen sind erfahrungsgemäß höchst unwillkommen und können einem den geplanten Einstieg gründlich versauen.
Jetzt wurde es zunehmend ernst. Hatte ich mich an der Knoppix-CD nach ein paar Proberunden schon satt gesehen, examinierte ich die VM Ubuntu 9.04 (Mega) schon deutlich gründlicher. Es handelte sich dabei um eine Spezialversion der regulären Ubuntu-ISO, welche von einer Linux-Zeitschrift mit Zusatz-Features aufgepeppt worden war; mit zwei Desktops zur Auswahl (Gnome + KDE) sowie Medien-Player mit vorinstallierten Codecs (also ideal auch für Offline-Tests). Noch heute lasse ich diese VM ein bis zweimal im Jahr zu Referenzzwecken laufen.
Das vielleicht wertvollste Feature von Ubuntu steckt nicht im Betriebssystem selbst, macht aber den entscheidenden Unterschied zu anderen Distros. Die Rede ist von den Tonnen an Hilfe-Infos, die es für Ubuntu gibt. Sowas wie die Ubuntu-Wiki gibt es für andere Distros nicht in dem Umfang und in der Qualität (und auch noch in Deutsch). Das wurde mir ziemlich schnell klar, nachdem auch ich dann endlich online war.
Phase 4: Ubuntu als virtuelle Internet-Maschine
Nicht nur wegen meines Jubiläums 25 Jahre ich mit Computer und ohne Internet entschloss ich mich nämlich in 2011, meine Offline-Festung zu verlassen. Es waren die Erfahrungen mit dem VM-Betrieb, die mich zu der Meinungsänderung veranlassten, wonach sich (halbwegs) sicheres Internet nunmehr realisieren ließe. Denn gegenüber dem Sandboxie-Verfahren konnte die VM-Methode mit einem zusätzlichen Trumpf aufwarten. Linux als OS (in der VM anstelle von Windows) gilt nun mal als deutlich schadstoffresistenter als Windows.
So startete das Internet-Zeitalter bei mir mit Ubuntu 11.04 (Unity-Desktop) in einer VirtualBox-VM unter Windows 7 auf einem Notebook. Wenig später fand ich dann auch noch Gefallen an Linux Mint. Da wurde dann eben noch eine weitere VM aufgemacht, während ich mit Ubuntu auf Version 12.04 LTS umstieg. Und so lebten sie dann alle glücklich und zufrieden miteinander bis ans Ende ihrer Tage, wäre da nicht, anders als im Märchen, etwas dazwischen gekommen.
Zu anfangs nahm ich es gar nicht so recht wahr. Aber irgendwie wurden die Linux-VMs immer träger. Dabei lief es zunächst wie geschmiert. Die Webseiten klappten zügig auf; sogar TV-Sendungen aus den Mediatheken kamen akzeptabel rüber. Warum wurde Linux langsamer? Weil Windows langsamer wurde. Das ist, wie mir (ebenfalls) langsam klar wurde, die Achilles-Ferse dieser Methode. Man hat zwar Linux, aber der Unterbau ist halt Windows. Und zwar mit all seinen typischen Problemen.
Die üblichen Tipps – Defragmentieren, Tuner-Tools drüber bügeln – sind natürlich Blödsinn. Im günstigsten Fall bezweckt man damit gar nichts. Auch ist es keineswegs Naturgesetz, dass Windows mit der Zeit immer langsamer wird. Ich habe hier zwei weitere Rechner in Betrieb mit Windows 7 (einer 9 Jahre, einer 3 Jahre alt). Keiner der beiden läuft erkennbar langsamer als bei Erstinbetriebnahme. Aber keiner der beiden war auch jemals mit dem Internet verbunden! Heißt auch, auf keinem der beiden werkelt ein Antivirus-Programm in Konjunktion mit dem allmonatlichen Windows-Update-Ritual.
Der Update-Terror ließ sich nur dadurch halbwegs bändigen, indem Download und Anwendung voneinander separiert wurden. Der Download kommt nun von WinFuture und die Anwendung erfolgt strikt offline. Vorher versackte das Windows-Update zunehmend regelmäßig während des Betriebs. Aber das eigentliche Malware-Programm ist das Anti-Malware-Programm. Dreimal schon musste es in nur 6 Jahren gewechselt werden, weil einfach nichts mehr richtig funktionierte. Mal werden keine USB-Geräte mehr akzeptiert, mal friert das Netzwerk beim Hochfahren ein und beim Shutdown muss man den Notausschalter drücken, weil der Rechner sonst ewig braucht und so weiter und so fort. Ich wage gar nicht nachzurechnen, wie viel Zeit und Ärger mich das gekostet hat.
Testet man dann aber auf versteckte Malware mithilfe von externen Rettungssystemen, ist alles sauber und clean! Und natürlich sind die jeweiligen Absonderlichkeiten augenblicklich verschwunden, sobald das Antivirenprogramm deinstalliert wurde (und durch ein Anderes ersetzt wurde mit anderen Merkwürdigkeiten). Es ist das Duo Infernale aus Windows-Update und Anti-Malware-Programm, das den Rechner wie eine Würgeschlange zunächst umringt und dann langsam aber sicher erstickt. Mittlerweile kann man fast nach jedem Klick erst mal ein Tässchen Tee trinken, bis es wieder weiter geht. Ein Windows 7 ist das beste Betriebssystem, das ich kenne. Sofern ohne Verbindung nach draußen! Ansonsten die Hölle. Unter Linux dagegen braucht man (zu meiner anfänglichen Verwunderung) ein Antivirus-Programm eigentlich nur, wenn man die untersuchte Software anschließend für den Betrieb unter Windows weiter versendet. Also an jemand anders mit Windows. Hat man selber noch irgendwo Windows installiert, kann man das dem dort installiertem Antiviren-Programm überlassen.
Phase 5: MultiBoot auf dem Hostrechner
So konnte es also nicht weitergehen. Erst recht nicht, nachdem bekannt wurde, dass Microsoft den Hardware-Herstellern vorschreibt, künftige Mainboards so zu verbasteln, dass kein Windows 7 mehr darauf laufen kann. MS hatte schon richtig erkannt: es gibt zu wenig Doofe auf der Welt, die sich freiwillig dieses Malware-Monstrum namens Windows 10 auf ihre Rechner tackern wollen. Gegen solche Unbelehrbaren hilft daher nur brachiale Gewalt. Man kalkulierte des weiteren richtig, dass selbst High-Voltage-Stromstöße per WLAN ausgesandt die breite Masse nicht zum Systemwechsel zu animieren vermögen. Die wären dann einfach bloß tot, was nicht im Sinne des Geschäfts wäre. Also als einzige Alternative zu Windows 10 bleibt dann eben nur noch Windows 10.
Oder eben Linux. Wenn man sich denn traut, es nativ zu installieren! Und so was hatte ich bis dato ja schon bis zur Langeweile geübt. Daher machte ich das, was man in solchen Fällen gewöhnlich zu tun versucht. Ich versuchte, das (Un)angenehme mit was nützlichem zu verbinden. Ein neuer Desktop-Rechner mit allen Schikanen (aber bezahlbar) war nämlich schon seit längerem angedacht. Also schleunigst einen gekauft, maßgeschneidert mit allem Drum und Dran, aber ohne Betriebssysteme. Mit UEFI, aber ohne UEFI-Modus. 2016 konnte man so was noch kriegen; ab 2017 versieht derselbe Internet-Händler seine konfigurierbaren Rechnermodelle mit dem Warnhinweis „Für Windows 7 nicht geeignet“.
Darauf kam es mir aber an, dass auch Windows 7 noch läuft. Mir ist schon klar (und auch schnuppe), dass W7 ab 2020 nicht mehr supportet wird. Internet mache ich jetzt schon (abgerundet) zu 99% mit Linux. Aber als Offline-System bleibt W7 für mich weiterhin unverzichtbar (bin halt kein Monotheist).
Die vier projektierten Betriebssysteme waren problemlos und im Nu aufgespielt (2x Windows inklusive Online-Aktivierung, dazu Ubuntu 16.04 LTS und Mint 18). Das schicke UEFI-BIOS des MSI-Mainboards war schon ab Werk für meine Zwecke richtig eingestellt; also Boot-Modus Legacy+UEFI und Windows 8-Features disabled (ergo auch kein Secure Boot). Nur Fast Boot musste ich noch deaktivieren. Das MultiBoot-System wird technisch gesehen über das Windows-Tool EasyBCD zusammengehalten. Das heißt, die Grub-Starter der beiden Linuxe wurden absichtlich auf das jeweilige Installations-Volume geschrieben. EasyBCD bindet die Starter dann nachträglich noch in den Windows-BootManager ein. Somit ist beim Hochfahren des Rechners nach dem Windows-BootManager auch noch kurz das Grub-Menü zu sehen.
Phase 6: Erweiterter MultiBoot mit externen Festplatten
2018 stand dann für Ubuntu/Mint turnusgemäß The Next Generation im Programm. Was sollte ich tun; zwei funktionierende OSe mit denen ich bestens zufrieden war, einfach wieder runterschmeissen? So was kommt für mich nicht in Frage. Zusätzlich installieren? Aber wo? Alles schon anderweitig belegt oder reserviert. Aber 2018 lockte auch mit günstig gewordenen portablen USB3-Festplatten (also solche ohne separaten Stromanschluss). Die Dinger sind kaum größer als eine antike 3.5 Zoll Diskette (wenn überhaupt). Gut, sie kosten zwar immer noch das Fünfhundert- bis Tausendfache (wenn ich die Preise richtig in Erinnerung habe), aber dafür passt – vorsichtig ausgedrückt – auch einiges mehr drauf!
Mit der ersten mobilen HDD versuchte ich zunächst Windows 7 nach Internet-Anleitung portabel (mit USB3-Patch) zu installieren. Geht, aber nicht ganz ohne Wenn und Aber!
Für das zweite Experiment war ein Triple-Boot meiner drei Lieblings-Distros (Mint, Ubuntu und PCLinuxOS mit KDE) projektiert. Diesmal aber im UEFI-Modus. Denn der Modus UEFI+Legacy bedeutet schlicht das, was es heißt. Man kann (ohne Modusänderung) sowohl von MBR- als auch von GPT-Datenträgern booten, sofern diese regelgerecht aufgebaut wurden. (Das erledigt man per GParted.)
In Forenbeiträgen zu diesem Thema beschleicht einem manchmal das Gefühl, dass das Boot-Menü im UEFI-BIOS mit den Boot-Menüs von installierten OSen durcheinander gebracht wird. Von letzterem kann es theoretisch beliebig viele auf einem Rechner geben, das erstere aber ist immer unteilbar. Der Eintrag für das Booten vom anvisiertem Datenträger im UEFI-Modus ist stets nach dem Muster
<Name_des_OS>(<Name_des_Datenträgers>)
aufgebaut. Ist nur der Eintrag
<Name_des_Datenträgers>
vorhanden, kann die Platte nicht im UEFI-Modus gestartet werden. In meinem Fall hatte ich daher (unter anderem) diese drei zusätzlichen Einträge erwartet:
mint(IntensoHDD)
ubuntu(IntensoHDD)
pclinuxos(IntensoHDD)
Mint jedoch schreibt sich beim Installieren automatisch in den Ubuntu-Entry. Warum, wo doch auf der EFI-Partition genügend Platz für beliebig viele OSe vorhanden ist, konnte mir noch keiner erklären. Der Default-Entry im resultierenden Grub-Menü wechselt dann ständig zwischen Ubuntu und Mint hin und her – je nachdem, welches OS gerade zuletzt aktualisiert worden ist. PCLinuxOS blieb nur solange als eigenständiger Eintrag im UEFI-BIOS erhalten, wie die externe HDD nicht zwischenzeitlich bei nachfolgenden Rechner-Sessions abgesteckt worden war. Stöpselt man sie wieder ein und fährt dann hoch, ist der Ubuntu-Eintrag wieder da, der von PCLinuxOS aber bleibt verschwunden!? Freundlicherweise aber schreiben die Linux-GRUBse automatisch alle auf angeschlossenen Datenträgern gefundenen Linuxe in ihr Boot-Menü. Da in meinem Fall PCLinuxOS vor Ubuntu installiert worden war, kann ich diese Distro immer noch aus dem Ubuntu-Grub heraus starten.
Nebenbei bemerkt: bevor ich mich mit neuen Versionen befasse, warte ich immer erst ein paar Wochen (sprich Monate) ab (und dann geht‘s erst mal ins Testlabor einer VM). Bis dahin ist möglicherweise der ein oder andere Bug-Klops, der im ersten Anlauf noch übersehen worden war, von den Entwicklern enttarnt und entfernt worden. Oder es ist noch was nachgebessert worden. Im Fall von Ubuntu 18 (mit Gnome-Desktop) war man bereits bei Variation 01 angelangt und zu meinem Erstaunen fand ich darin gleich zwei Programme mit Namen Dateien, aber leicht unterschiedlichen Icons. Hinter dem einem Tool verbarg sich der gewohnte Nautilus-Explorer. Der andere aber entpuppte sich als (Käptn) Nemo; also der Standard-Explorer, der in Mint verwendet wird. Als ich im Anmeldebildschirm auch noch die Option Cinnamon-Desktop entdeckte, wurden mir einiges klarer. Tatsächlich (in einer VM ausprobiert) ließ sich mit beiden zusammen ein täuschend echtes Linux Mint Fake realisieren. Von diesen Optionen war in den Previews zu Ubuntu 18 aber nichts zu lesen gewesen!
Wie oft wurde Ubuntu schon zum Vorwurf gemacht, dass der Nautilus einfach zu wenig und zu umständlich kann. Dann wurde darauf verwiesen, dass man mit etwas Gefrickel den Standard-Explorer durch einen anderen zu ersetzen vermag. Nun ist die Sache aber dahingehend gelöst, dass ohne meine Zutun der eindeutig leistungsstärkere Nemo ebenfalls vorinstalliert ist. Man darf auch beide problemlos (und sogar gleichzeitig) benutzen.
Das bringt mich zu der überleitenden These, wonach sowohl Unity als auch der neue Gnome-Desktop funktional etwas zu schlicht geraten sind. Selbst für einen Durchschnittsanwender wie mich ist das zu wenig. Aber beide lassen sich mit den verfügbaren Erweiterungen deutlich aufmotzen. OK, unter Mint gibt es diesbezüglich weniger zu tun. Aber solange so etwas nicht in kryptisches Script-Gefummel ausartet, kann ein bisschen individuelles Nachoptimieren sogar Spaß machen.
Ubuntu 18 hätte ich vielleicht überspringen können. Aber da der Unity-Desktop zugunsten von Gnome ausgetauscht wurde, wollte ich schon wissen, was da spätestens ab 2021 auf mich zukommt. Um mich eventuell schon mal langsam daran zu gewöhnen! Rein optisch gefällt mir sowohl Unity als auch Gnome, wobei dieses Ubuntu-Gnome kaum Ähnlichkeiten mit den Gnome-Varianten, die ich bisher gesehen habe, aufweist (einschließlich des alten Ubuntu-Gnome von vor 10 Jahren). Es sieht auf den ersten Blick nicht zufällig eher wie Unity aus. Zweifellos ist es Ubuntu mit seinem Gnome gelungen, der Version 18 sein eigenes unverwechselbares Gesicht zu geben (kein noch so ein Linux-Klon mit anderem Hintergrundbild).
Mein erster Eindruck von Ubuntu 18 (damals noch in der Test-VM) war: ok, brauchbar! Mein zweiter Eindruck: naja, aber der Desktop kann standardmäßig noch weniger als Unity im Werkszustand. Mein dritter Eindruck: gar nicht wahr, man muss nur genauer seine arteigenen Fähigkeiten betrachten und nicht nur alles auf den Vergleich mit Unity beschränken. Schlussfazit des Vorabtests war daher: zur nativen Installation freigegeben!
Übrigens, was Ubuntu, Mint und PCLinuxOS gemeinsam haben, ist, sie waren alle schon (vor längerer Zeit) mal Nummer eins bei DistroWatch. Was die Experten natürlich wissen (, aber vielleicht nicht jeder, der hier mitliest,) ist, dass DistroWatch aber nur die Klicks auf ihren distro-spezifischen Unterseiten zählt, jedoch nicht die Downloads geschweige denn die tatsächlichen Installationen der Distros. Wer sich aber mit einer speziellen Distro erst mal angefreundet hat, wird in der Regel zukünftige Materialien eher direkt über Websites der Distro beziehen statt über ein globales Infozentrum wie DistroWatch. Heißt übersetzt, die wirklich guten (in vielen Jahren gereiften) Distros findet man eher etwas weiter hinten in der DistroWatch-Hitparade.
Zum Abschluss: Ein Ausblick auf die Zukunft
Was Windows 7 betrifft, so werde ich versuchen, mich (mit der vorhandenen Hardware) noch bis 2030 durchzuschleppen (offline, wie gesagt). Oder bis zu meinem eigenen EOL-Termin. (Je nach dem, was früher eintritt.)
Ansonsten sehe ich für mich zu Linux (online) keine Alternative. Denn Microsoft wird von seinem Kurs der totalen Entmündigung des Menschen nicht mehr abzubringen sein. Und der Unterschied zu Apple ist für mich nur der: unter Windows darf man sich noch selbst die Schuhe zubinden und den eigenen Hintern abwischen; am MAC ist selbst das verboten und zudem kostenpflichtig.
Als Vorsatz für die nahe Zukunft habe ich mir vorgenommen, die wichtigsten Programme, die ich ohnehin schon unter Windows nutze, auch verstärkt direkt unter Linux zu verwenden. Also nicht nur Firefox und Thunderbird, sondern auch VLC, Avidemux und vor allem Libre Office (ach, mach‘ ich ja gerade). The Gimp könnte ich noch anführen. Aber für Grafik habe ich kein Talent und keine Ausdauer. Und für die paar essentiellen Windows-Programme, die nicht auch für Linux erhältlich sind, gibt es ja WINE. Obwohl damit habe ich persönlich noch nichts gescheites hinbekommen. Besser dann schon über eine virtuelle Windows-VM. VirtualBox und den VMware Player gibt es ja auch für Linux. Wobei VirtualBox allgemein mehr drauf hat, aber VMware speziell bei Windows-VMs einen Tick besser ist. Nur VMware und Linux beißen sich irgendwie etwas. Wer nicht die im Internet kursierenden Lösungen zu den Stichworten
prefvmx.minVmMemPct = "100"
und
mks.gl.allowBlacklistedDrivers = "TRUE"
beherzigt, wird mit dem VMware Player unter Linux nicht glücklich werden. Aus eigener Anschauung kann ich noch hinzufügen, dass Ubuntu 18 bei jedem System-Update die virtuellen Netzwerkadapter von VMware killt. Sodass man diese jedes mal über die Reparaturfunktion des Players (auf dem Admin-Account) reaktivieren muss. Aber wenn man diese Stolpersteine aus den Weg geräumt hat, kann man sogar Photoshop (testweise) darin mit allem Zipp und Zapp laufen lassen, um den Faden zum Thema Grafikprogramme nochmal aufzunehmen.
Ich persönlich benötige da aber eher einfachere Grafikanwendungen (, von denen es für Linux nicht gerade wenige gibt). Wirklich brauchen tue ich davon jedoch eigentlich nur Shutter, das zugleich ein sehr gutes Beispiel für ein äußerst nützliches, nur für Linux erhältliches Tool abgibt. Dieses Screenshot-Werkzeug bietet genau das, worauf es mir ankommt. Wenn man ständig für eigene Dokumentationszwecke Bildschirmfotos macht, will man nicht wie bei anderen Screenshot-Tools immer erst abspeichern müssen, bevor man den nächsten macht. Und Markierungen und Textanmerkungen sollen nicht nur freihändig einzukritzeln sein! Shutter kann das alles; einziger Haken: es wird anscheinend nicht mehr weiter entwickelt. Schon jetzt muss bei den aktuellen Ubuntu- und Mint-Versionen von Hand nachkonfiguriert werden, damit alle Funktionen noch zur Verfügung stehen. Bleibt meinerseits die Hoffnung, dass die Zukunft ein wieder gewartetes Shutter-Tool zurückbringt oder etwas neues, aber gleichwertiges!