Gelegentlich hat Linux bzw. Ubuntu Fehler, bei denen man sich einfach denkt: Das darf nicht passieren! Das verhindert die Alltagstauglichkeit. Gestern war es mal wieder so weit.
Es klingelte mein Smartphone und dran war der Anwender eines Kubuntu-Systems. Ich betreue ja kaum noch Geräte, beruflich bin ich da schon länger raus, aber ein paar Bekannte, Freunde und Familienmitglieder sind in den letzten Jahren glücklich auf Linux migriert und da hilft man natürlich weiter. Das Kubuntu-System war mal ein 16.04 und ist dann über 18.04 auf 20.04 aktualisiert worden. Sauber ist also was anderes, aber es funktioniert und der Anwender ist glücklich mit dem System. So viel zum Szenario.
Das Problem: Das System startet bis zum Loginscreen SDDM, aber nach dem Login landet der Anwender vor einem schwarzen Fehler mit einem X-Session Error:
Xsession: warning: unable to write to /tmp; Xsession may exit with an error
Code-Sprache: JavaScript (javascript)
Zum Glück keine große Herausforderung, das Internet ist voll mit Berichten, die teils 10 Jahre und älter sind. Folglich ist das Problem auch ebenso lange ungelöst.
Die Ursache war eine volle Festplatte bzw. Systempartition. Das System ist getrennt in eine Home- und eine Root-Partition. Das kommt langsam aus der Mode, war aber 2016 noch Quasi-Standard. Die Systempartition ist mit 20 GB großzügig genug dimensioniert.
Wenn da nicht Ubuntu wäre, das stoisch jedes heruntergeladene Paketupdate bis zum Sanktnimmerleinstag zwischenspeichert. Und irgendwann nach einigen Jahren ist dann halt mal voll. Keine Aufräumroutine, kein Cronjob, kein Automatismus – nichts. Das letzte Mal manuell aufgeräumt hatte ich 2020 beim Upgrade auf 20.04.
Ohne grafische Oberfläche geht natürlich keine Fernwartung via AnyDesk und folglich mussten wir es per Telefonanweisung lösen. Der Anwender musste mit Strg + Alt + F3 auf ein anderes TTY wechselt und dort den Benutzer einloggen und anschließend beherzt eintippen:
$ sudo apt clean
Nach einem weiteren Neustart ging wieder alles. Die Paketverwaltung war allerdings wegen eben jener vollen Festplatte im Vorgang abgebrochen und musste erst wieder in einen benutzbaren Zustand versetzt werden. Ebenfalls kein besonders schwieriges Problem, aber ebenso nur auf der Konsole zu lösen.
Das hört sich trivial an, aber für viele Menschen ist das nicht trivial und sie kriegen einen Nervenzusammenbruch. Das ist umso ärgerlicher, weil ein so doofer Fehler so einfach zu vermeiden wäre – entweder durch einen intelligenteren Paketmanager oder durch einen Aufräumautomatismus – und deshalb einfach nicht passieren darf.
Um das ein wenig zu generalisieren und auch auf die Gefahr hin, dass mir viele mal wieder Meckerei vorwerfen. Solche Probleme sind es, die den Einsatz von Linux bei der Masse der Anwender erschweren und nicht irgendwelche Installationsprobleme oder jene eine fehlende Funktion im Mailprogramm etc. Es bleibt nämlich der Eindruck haften: Linux ist fehleranfällig. Bei einem Anwender, der bereits seit vielen Jahren glücklich mit Linux arbeiten, ist der natürlich nicht so nachhaltig, wie bei einem Anwender, der nach wenigen Minuten, Stunden, Tagen oder Wochen in so ein Problem läuft und schnell wieder zu einem Ursprungssystem zurück migriert.
Als versöhnliche Worte zum Schluss: Genau deshalb finde ich es toll, dass KDE die 15-Minuten-Bug-Initiative gestartet hat. Es muss mehr Fokus auf die Fehler, die normale Anwender andauernd haben. Der fiktive eine Fehler in Kate, der in Dokumenten mit mehr als 1 Mio Zeilen auftritt und Programmierer nervt, ist dagegen eher nachrangig. Leider wird der Programmierer aber lieber einen Arbeitstag damit verbringen, diesen einen Fehler in Kate zu beheben. Der hier beschriebene Fehler passiert zwar nicht binnen 15 Minuten, aber ist derart trivial zu lösen und derart gravierend für normale Anwender: So etwas muss prioritär behoben werden.
Und wer jetzt mit Systempflege kommt, sollte sich ernstlich fragen, ob er weiß, wie normale Menschen mit ihren Geräten arbeiten und ob er zweitens das Prinzip des Workarounds schon zu sehr verinnerlicht, um Probleme bewerten zu können. Denn obligatorische manuelle Systempflege ist letztlich nur ein Workaround, wenn Systeme nicht in der Lage sind, sich per Automatismen selbst langfristig funktionsfähig zu halten.
Das trifft meiner Meinung nach den Nagel voll auf den Kopf.
Absolut, das sind diese doofen Fehler, von denen es zu viele gibt.
Recht hast du auch mit der Betriebsblindheit. Auf Kritik an Linux kommt immer „Aber das muss man so und so machen“ und „Wenn du das gemacht hättest, wäre dies und jenes nicht passiert“. Warum kann sich mein System eigentlich nicht selbst pflegen. Tut mein Smartphone doch auch?
Kleine Geschichte dazu: Als mir vor Jahren jemand KDE vorstellte und mir sagte, ich dürfe hier und dort nicht zu schnell klicken und keinesfalls zu schnell die Panels verschieben, ansonsten stürzt die Shell ab, aber ansonsten wäre alles super, war ich ganz schnell weg. Solche Ausreden führen dazu, dass Linux nicht besser wird.
Immer schön weiter den Finger in die Wunde legen. Macht ja sonst niemand.
Ich hätte
apt autoclean
genommen! Das läßt die installierten Pakete auf der Platte.Als Programmierer hat man da eine etwas andere Sicht. Man kann nun mal nicht alles vorhersehen, was eventuell passieren kann, besonders bei Systemen, die über etliche Versionen aktualisiert wurden. Und ich meine mich an eine Diskussion im Arch-Forum zu erinnern, wo es um genau diese Frage ging. Ist es sinnvoll einfach immer alle Pakete nach einer Aktualisierung zu löschen? Die Meinungen dazu gingen weit auseinander. Die einen wollten die Möglichkeit eines Downgrades behalten, die anderen wollten ein sauberes System. Und noch ganz viel dazwischen. Was soll der Programmierer jetzt machen?
Bitte nicht vermengen. Bei der Zielgruppe von Arch Linux und durch das RR-Modell haben wir eine ganz andere Problemlage als bei der Zielgruppe von Debian/Ubuntu mit stabilen Distributionen. Sowohl was die Erwartung an die Eigenleistung des Anwenders betrifft als auch die Wahrscheinlichkeit eines Downgrades.
Und ganz allgemein gesagt: Wenn man sich zwischen den „Sonderlocken“ von Anwendern entscheiden muss, die vielleicht alle Jubeljahre mal ein Downgrade vornehmen wollen und dem realen Risiko eines schweren Problems mit dem System und sich dann für die Sonderlocke entscheidet, dann hat die Analyse einen Bias.
Soweit ich das sehen kann, entscheiden sich Programmierer dann oft für die für sie schmerzfreiere Variante. Sie bauen ein „apt autoclean“ mit ein. So kann jeder ganz einfach aufräumen lassen. Und wer die alten Pakete behalten will, kann sie behalten.
Sicherlich gibt es gravierende Unterschiede zwischen Arch und Ubuntu(LTS). Aber wir reden immer noch über die Paketverwaltung. Die Aufgabenstellungen sind doch eher ähnlich.
Und naja, ich hab seit Ewigkeiten ein kleines Skript rumzuliegen, was mir diese „apt update && apt upgrade && apt autoremove && apt autoclean“ Befehle in einem Rutsch durchziegelt. Ist genau so ein Workaround, wie du ihn beschreibst. Aber alle Systeme haben ihre Macken… Und ich bin mir sehr sicher, würde bei apt so ein Feature eingeführt, was automatisch alle alten Pakete entfernt, würde das wieder einen gewaltigen Shitstorm auslösen! Siehe systemd, wayland etc pepe…
Naja, ein bisschen weniger auf die Leute schimpfen die das anders sehen könntest du schon, aber es stimmt leider. Irgend wo im Hintergrund braucht es doch immer einen hobby Admin.
Aber wenn ich so drüber nach denke. Das Phänomen ist ziemlich Betriebssystem übergreifend. Ich betreue Windows/Linux und Mac Systeme für Freunde und Bekannte. Ne richtige Statistik hab ich nicht, aber mir kommt es nicht vor als gäbe es da fundamentale unterschiede. Bei alles gibt es so Tücken.
Bei Windows macht garantiert früher oder später irgend ein update den Drucker kaputt. Das ist keine frage von ob sondern wann.
Bei Mac wird irgendwann ein update ein neues Sicherheitsfeature einführen, das erst mal alles lahm legt was vorher mal ging. Ich sag nur VirtualBox, kein AFP mehr …
Ja und bei Linux wirst du irgendwann ein Problem mit der dependency hell bekommen.
Es geht nicht um einen Fehler durch ein Update, sondern ein planbaren und vorhersehbaren Fehler, der jedes Ubuntu-System (Debian vermutlich auch) irgendwann einholen muss. Es ist nur die Frage wann, was letztlich von Faktoren die Partitionsgröße und Lebenszyklus des Systems abhängt. Zeig mir da mal das Äquivalent bei macOS oder Windows.
Es ist übrigens kein Linux-Problem! SUSE oder RHEL/Fedora cachen Pakete nicht ewig.
Kein Plan, was die Distributoren mit ihrer Debian-Basis machen, aber der Cache für heruntergeladene Pakete lässt sich in APT natürlich umfänglich konfigurieren (ob, wie lange und wie viel). Das darf man wohl als Grundfunktion einer jeden Paketverwaltung betrachten. Standard in Debian 11 ist im Moment überhaupt keine heruntergeladenen Pakete im Cache vorzuhalten. Weiterhin Standard in Debian 11 ist auch, dass man sich immer noch bis zum Hals in die Dokumentation einlesen muss, bis man weiß, welche 4 (?!) Optionen dafür wo geändert werden können.
Das macht deine Kritik nicht weniger gerechtfertigt. Kann einfach nicht sein, dass eine Paketverwaltung den Speicherplatz volllaufen lässt bis hin zur Unbenutzbarkeit des Systems.
Spannend. Da muss ich doch tatsächlich mal prüfen, ob das bei Ubuntu vielleicht inzwischen besser geworden ist und diese Verbesserung nur durch die Upgrades nicht auf das System gekommen sind. Wobei auch das wiederum kein gutes Zeichen wäre.
Aktueller Ubuntu-Bericht „volle Festplatte“
Hi, genau das ist mir mit Ubuntu (18.04), welches ich demächst auf die Version 22.04 (über 20.04) hieven will, auch passiert.
Ubuntu lief ein paar Tage (meine Root-Partition ist 50 GB groß.) ohne Neustarts – zwischenzeitlich gab es einige Updates. Ich wollte eine E-Mail verschicken und nichts ging mehr richtig; das PC herunterfahren ging aber. Dafür war es aus mit dem Ubuntu starten, System bleibt im Hochfahren stecken: Festplatte voll.
Lösung: Starten von Ubuntu im Recovery-Modus. Das Enfernen von alten, überflüssigen Pakten (ihr schriebt darüber) führte erst einmal zu einem im Normalmodus startfähigen Ubuntu.
Welch Wunder: Jetzt erst erschien die Systemnachricht viel zu spät, dass der Festplattenspeicherplatz unter der von mir eingestellten Grenze von 1 GB lag. Aber all das jetzt mit reduzierter Bildschirmauflösung. Nebenbemerkung: Die Idee, bei der Gelegenheit einen aktualisierten Graftreiber von der nvdia-Webseite (run-Datei) herunterzuladen und dann zu installieren erwies sich als sinnloser Zeitfresser (Bumerang). Das Installationsprogramm blieb bei 5% hängen. Längeres Zuwarten (12 Stunden) brachte keine Änderung. So kann man auch einen Arbeitstag verlieren. Während dessen nebenbei am PC mit zu geringer Auflösung zu arbeiten, war mit dann doch zu viel.
Die Fehlermeldung des zu geringen Restspeicherplatzes behob ich dann als ich den Großteil der Datei im Journalordner (Unterordner von var/log/journal) löschte. Das Journal war auf satte 4 GB angewachsen. Ein paar sehr große Anwendungen fielen dem auch noch zu Opfer, die ich deinstallierte.
Ich bin jetzt bei rund 5 GB freiem Speicherplatz. Wenn ich bei 10 GB angelangt bin (ich schaue mir die Partitionsbelegung an via sudo baobab), werde ich den Versuch wagen, upzugraden – mit der Aussicht danach mir aller Voraussicht nach einen neuen Drucker/Scanner kaufen zu müssen (Treiber veraltet…).
Die Snap- und flatpak-Seuche kennt ihr Alle. Das zum Thema Ökologie und Klimaerwärmung. Immer mehr Speicherplatzfresser erinnert mich hier irgendwie zusehends an Dinosaurier.
Was haben Ökologie und Klimaerwärmung hier verloren? Eine 200 GB Festplatte ist nicht ökolologischer als eine 500 GB Festplatte.
WIndowsupdates und temporäre Dateien müllen auch eine WIndowsplatte langsam aber sicher zu. Ist zwar schon besser geworden, aber eben noch nicht ganz ausgemerzt.
>Irgend wo im Hintergrund braucht es doch immer einen hobby Admin.
Schon der falsche Ansatz. Die Leute brauchen für ihr Android oder iPhone auch keinen Admin. Das ist das Ziel. Wenn für Linux immer noch ein Admin irgendwo gebraucht wird, dann ist das System noch nicht gut genug.
> Schon der falsche Ansatz.
??? echt, noch nie jemandem mit Handy Problemen geholfen? Account weg, App weg, bootet nicht mehr, Akku in 2 Stunden leer….. Hier ist halt oft die Lösung wegschmeißen und neu kaufen, aber nachhaltig ist das auch nicht.
> Es geht nicht um einen Fehler durch ein Update, sondern ein planbaren und vorhersehbaren Fehle
Das überrascht mich zu lesen? Du bist doch sonst so realistisch. Was spielst für ne rolle warum die Kiste kaputt ist. Updates gibt’s doch eh automatisch und auch besser so. Nur leider ist das nie ohne Nebenwirkung.
Aber wenn du was willst: Logfiles werden fast nie gelöscht. Irgendwann ist die platte voll. Dauert vielleicht 100Jahre, aber der Moment kann kommen.
Mir ist so etwas mit Xubuntu auch zwei Mal passiert:
1. Ein Kernel-Update brach ab, weil die Boot-Partition voll war (die Festplatte war verschlüsselt). Als frisch von Windows gewechselter User musste ich mich erst einmal darüber informieren, woran es liegt und wie man Abhilfe schafft. Linux Mint löst das Problem übrigens elegant, weil man hier in den Einstellungen die automatische Entfernung alter Kernel einschalten kann, deshalb läuft dort die Boot-Partition nie voll. Und man muss auch keine kryptischen Befehle im Terminal eingeben, um Platz zu schaffen.
2. Bei 20.04 hatte ich nach einem Point release plötzlich weder Wlan- noch Ethernet-Verbindung. Dummerweise kann man dann im Netz nicht nach der Ursache/Problemlösung suchen, man kommt ja nicht mehr rein. Ich habe dann, man höre und staune, erst wieder Windows installieren müssen, um überhaupt Netzzugang zu bekommen.
Xubuntu habe ich seitdem nicht mehr angerührt, aber eigentlich wären beide Fehler, wie ich im Nachhinein weiß, leicht zu vermeiden gewesen. Ich möchte von den Linux-Anhängern keinesfalls geteert und gefedert werden, aber bei Windows hatte ich solche Probleme nie (nur im Netz über sie gelesen, doch nie selbst gehabt). Im Gegensatz dazu tauchten bei diversen Distros (ich habe bislang Xubuntu, Lubuntu, Mint, LMDE, Debian ausprobiert, bei Manjaro scheiterte schon die Installation) ständig solche haarsträubenden Probleme auf, die einem Linux auf Dauer echt verleiden. Das ist schade, denn ohne solche Probleme würden bestimmt viel mehr User zu Linux wechseln.
Hallo
noch „schöner“ ist es mit RescueZilla auf eine „volle Platte“ ein Backup zu starten,
toll ist es dass ohne Kommentar die Software aufhört und man nur noch abschalten kann.
Scheint ein Grund-Linuxprobelm zu nicht zu schauen ob das Backup / Update auf die Zielplatte passt.
Kommt noch aus der Zeit: „Bei Linux weiß man was man tut“ :–)
RescueZilla ist sehr gut ich verwende es immer.
Gruß Gast
Spannend den Post und die Kommentare zu lesen. Ich bin auch der Ansicht Linux als Desktop hat zuviele solche Fehlerchen und behebt sie zu wenig in der Breite.
Wie sind denn die Mint Default Einstellungen zum Apt Cache? Bisher war ich der Meinung Mint versucht es wenigstens noch essentielles aus dee Ubuntu Basis zu verbesseren. Hatte nicht Mint die Treiber-Installer-GUI für NVidia/Intel & Co noch vor Ubuntu? Kann mich täuschen.
Generell muss ich Freunden und bekannten die gerne Linux ausprobieren wollen ehrlich sagen, Linux als Server ohne GUI ist genial (für mich) im Vergleich zu Windows Server, im Serverbereich hat man gefühlt 10x weniger Fehler mit Systemupdates etc. nur leider im Desktop Bereich ist es anders herum. Windows hat weniger Killer-Bugs die das Arbeiten eines Laien derart behindern oder verunmöglichen.
Was mir etwas fehlt sind Mindestqualitätsanforderungen. Es wird so oft die Verantwortung weitergereicht zu „Upstream“, weil die ja die Software entwicklen, und die Distribution nur unschuldig paketiert. Aber warum nimmt man dann die neue Paketversion auf, in der eine Funktion von gewisser Wichtigkeit nicht funktioniert? Upstream wird es ja fixen. Aber nur nicht in diesem Distro-Release.
Natürlich kann jeder (z.B. Upstream vs. Distributor) unterschiedliche Auffassung haben, ob eine Funktion essentiell ist, oder bei großen Umbauten vorübergehend mal kaputt sein darf. Aber als großer Distributor wie Canonical sollte man eventuell andere Kriterien anlegen und echte Release-Blocker-Funktionalität definieren, die man dann selbst repariert, oder das Release verschiebt, oder das kaputte Paket nicht aufnimmt.
Mir scheint diese Mindestfunktionalität ist bei Windows Explorer wesentlich umfangreicher als bei beliebigen Linux Dateimanagern (die ja der absolute Kern eines GUI Desktops sind).
So was passiert in den besten Familien: auch openSuSE hatte so doofe Fehler in den früheren Versionen mit btrfs (default für / bei suse) und snapper: weil das btrfs-balance-skript nicht regelmäßig lief oder weil zu viele Snapshots aufbewahrt wurden lief die Root-Partition (scheinbar) voll. Deswegen flog btrfs bei mir raus. Braucht man als Privatmensch nicht.
Sehr guter Artikel, das Problem trifft 100% zu. Der Normalo User – so wie ich – ist in dem beschriebenen Fall vollkommen aufgeschmissen und es interressiert ihn auch überhaupt nicht warum der Fehler aufgetreten ist und dass er selber dafür hätte sorgen können, das das nicht auftritt. Wenn er komisch drauf ist, würden er (mit einem anderen Computer) Stunden in Wikis und Foren verbringen, um das System wieder ans laufen zu kriegen. Wenn er tatsächlich normal ist, würde er versuchen seine Daten zu retten und so ein System nicht mehr anrühren.
Das sind tatsächlich solche Dinge, mit denen ein User überhaupt nicht in Berührung kommen darf.
Aber das ist ja nur die Spitze des Eisbergs. In meinen Augen wird sich viel zuviel auf „unter der Haube“ konzentriert, als auf das, womit ein normaler User tagtäglich zu tun hat.
Und damit meine ich nicht „Klicki-Schicki-Bunti“ wie bspw. bei Ubuntu, sondern funktionale Dinge.
Es fällt leider (und da muss ich im Prinzip die gesamte Linux-Entwickler-Schublade mit einschließen) vielen ITlern und IT-Affinen die Kompetenz, sich zu lösen und die Anforderungen eines gemeinen Nutzers zu verstehen.
Der muss weder wissen was eine IP-Adresse ist, noch eine Partition, noch ein Wayland oder X11…das muss der alles schlicht nicht wissen müssen.Punkt.
Aber unterm Strich entsteht bei mir sowieso der Eindruck, dass einige Linux-Distributionen zwar auf normale Nutzer abzielen…die aber in Wirklichkeit doch gar nicht haben wollen.
Bestes Beispiel:
Wenn ich bei Windows ein USB-Installationmedium haben möchte, dann lade ich das CreationTool von Microsoft, stecke einen USB-Stick ein, drücke 3x auf weiter…fertig.
Wie ist das bei Linux-Distributionen? Warum soll ein normaler und gemeiner User sich mit so Krempel wie Rufus, WoeUSB, Etcher und Co. rumschlagen und irgendwelche ISOs runterladen. Der gemeine User hat keine Ahnung was eine ISO überhaupt ist, verdammt.
Das heißt: es scheitert bereits an der Erstellung eines Installationsmediums, den gemeinen User abzuholen.
Ich reg mich schon wieder auf, selbst als Linux seit 2004….und ich schweife ab, sry^^
Aber genau solche Thematiken wie hier im Artikel sind doch mit der Beweis, wo es nicht stimmt und warum das auch so nix wird. Ein Beispiel von vielen.
Du scheinst openSUSE als überaus stabile Distri auch für Privatanwender zu empfehlen. Aber Belannten, Verwandten und Freunden installierst Du Kububtu LTS. Warum nicht openSUSE? Haben sich die Bekannten für Kubuntu entschieden und wenn ja, warum? Also kurzum: Was macht Kubuntu attraktiver?
MarKre
Ich nutze selber openSUSE Tumbleweed. Das ist eine Rolling Release-Variante und deshalb nicht für Leute zu empfehlen, die sich überhaupt nicht mit ihrem Betriebssystem beschäftigen wollen und Updates für die Pest halten. Bei openSUSE Leap bin ich seit der Zusammenführung mit SLE im letzten Frühjahr unschlüssig was ich davon halten soll und schaue mir daher erst mal den kompletten 15er Zyklus an.
Die Zusammenführung von SLE und openSUSE ist wohl auch aufgrund personeller Recourcen geschuldet. Zumindest habe ich das Gefühl, dass dies auch eine Rolle spielt. Eine große Firma hinter einer Distribution kann vermeintliche Sicherheit suggerieren: Planbare Releasezyklen, Weiterentwicklung, professioneller Support. Andererseits ist man aber auch der „Sprunghaftigkeit“ bei zukunftsträchtigen Entscheidungen durch die Firmenleitung ausgeliefert. Kompromisse zu finden liegt da an jedem selbst!
Bei Kubuntu ist’s ähnlich: Canonical hat sich in der Vergangenheit ähnlich grobe Schnitzer wie SUSU/openSUSE geleistet. Gerade die Eigenbrötlerei rund um Snap (das auch in Kubuntu werkelt) ist man unschlüssig, wie es weitergeht und vor allem, ob man das mitmachen will.
Vielleicht gibt’s ja doch in den tiefen Linux-Welten eine unterstützbare und stabile KDE-Distribution ohne Macken und Eigensinn…
Mir geht es nicht um die Zusammenführung an sich, sondern die technischen Schwierigkeiten, die dies z. B. vergangenes Jahr ausgelöst hat. Zudem ist noch unklar, inwieweit einzelne Versionen dieses Jahr aktualisiert werden oder ob man großflächig an den Versionen festhält.. Da fehlen noch die Erfahrungswerte und die hat man bei Ubuntu.
Ich möchte mal ein Windows System mit 20GB oder vielleicht 50GB Systempartition sehen. Ich weiß noch zu Windows 7 Zeiten, war mein Windows Ordner 50GB groß und die Updates ist man auch nicht los geworden. Die Platte war einfach hoffnungslos voll. Hatte man auch einfach verloren. Man brauchte Hacks oder eine Neuinstallation mit einer neuen Windows Version, wo man die Updates dann mit dem System verschmelzen kann. Downgrade impossible.