Lennart Poettering ist der Entwickler von Software wie Avahi-zeroconf, PulseAudio und nicht zuletzt systemd. Er arbeitet für Red Hat und macht sich des Öfteren öffentlich Gedanken darüber, wie wir künftig Distributionen zusammenstellen sollen. Bereits 2014 fasste ich seine Ideen aus dem Blogpost Revisiting How We Put Together Linux Systems in einem Artikel für die Zeitschrift LinuxUser zusammen.
Seitdem sind viele weitere Module in systemd eingeflossen. Poettering hat kürzlich in seinem Blog ein weiteres langes Essay unter dem Titel Fitting Everything Together veröffentlicht, der sich damit befasst, wie aus seiner Sicht Distributionen künftig zusammengestellt werden sollten. Er betont dabei ausdrücklich, dies seien seine Visionen und nicht die seines Arbeitgebers.
Die Ausgangslage von Poetterings Gedankenspielen bildet das traditionelle Distributionsmodell mit den etablierten Paketsystemen wie DEB und RPM. Ziel ist ein Desktop-System, weil damit die meisten Menschen täglich arbeiten und hier am meisten zu lernen sei. Das soll aber nicht heißen, dass die Erkenntnisse nicht auch auf Server, Container und Embedded Devices oder auf Systeme etwa im Automobilbereich übertragbar seien.
Die Ziele
Eine grundsätzliche Überlegung, wenn es um die Basis geht, ist, einen Image-basierten Ansatz dem gewohnten Paket-basierten Management vorzuziehen. Für Robustheit und Sicherheit ist es laut Poettering unerlässlich, mit reproduzierbaren, unveränderlichen Images zu arbeiten. Ziel ist »ein Maximum an bitgenauer Wiederverwendung und ein Minimum an lokalen Abweichungen«.
Dabei ist in Poetterings Gedankenwelt aber auch Platz für herkömmliche Paketsysteme, wie das auch Silverblue, Kinoite und andere fortschrittliche Distributionen handhaben. Er ist aber überzeugt, »sie sollten weniger ein Werkzeug zum Bereitstellen von Code sein, sondern eher ein Werkzeug zum Erstellen der bereitzustellenden Objekte«. Desktop-Systeme nur auf Image- und Container-Basis dürften es auch in meinen Augen schwer haben, denn ein Desktop, auf dem man nicht mal eben ein einzelnes Paket ohne anschließenden Reboot installieren kann, sind meines Erachtens nutzlos.
Einer der Vorteile von Images für die Kern-Distribution ist die Fähigkeit, tatsächlich zu überprüfen, dass sich die Dinge nicht geändert haben, wenn man das nicht möchte. Kehrseite ist, wenn man etwas ändern möchte, sollte es einfache Werkzeuge geben, die das ohne Neustart schaffen.
Vertrauenskette
Im grundsätzlichen Design ist für Poettering die Vertrauenskette vom Bootloader bis hin zu den Apps wichtig: »Dies bedeutet, dass der gesamte ausgeführte Code vor der Ausführung kryptografisch validiert werden muss. Alle Speicher müssen kryptografisch geschützt sein: öffentliche Daten müssen auf Integrität geprüft werden; private Daten müssen vertraulich bleiben.« Und dabei sieht er herkömmliche Distributionen derzeit scheitern.
Automatische Aktualisierung
Ein Punkt, den viele Linux-Nutzer ablehnen, sind automatische Aktualisierungen. Poettering ist dafür, das Betriebssystem ebenso wie Erweiterungen, Dienste und Apps einem automatisierten kontinuierlichen Update-Zyklus zu unterziehen. Dazu sieht er systemd-sysupdate als das geeignete Werkzeug an. Die Systeme müssten zudem robust gegen abgebrochenen OS-Operationen, Stromausfall und andere Unwägbarkeiten sein und zur Wiederinbetriebnahme keiner Benutzerinteraktion bedürfen. Außerdem muss jederzeit ein Factory Reset »in einen wohldefinierten, garantiert sicheren Zustand« möglich sein.
Abbilder sollten grundsätzlich live sein, per dd auf die Festplatte übertragen werden und »beim ersten Start instanziiert« werden anstatt davor. Die Systeme sollen zudem modular und »hackable« sein. Es sollte leicht sein, »ein Betriebssystem zu forken, ein Betriebssystem zu modifizieren und dennoch einen angemessenen kryptografischen Schutz zu erhalten«. Soweit die Ziele.
Der Entwurf
Das /usr/-Verzeichnis soll unveränderlich sein und alles enthalten »was erforderlich ist, um den minimalen Satz von Verzeichnissen und Dateien außerhalb von /usr/ einzurichten, damit das System funktioniert«. Dieses /usr/-Verzeichnis kann dann schreibgeschützt in das beschreibbare Root-Dateisystem eingehängt werden, das dann schließlich die lokale Konfiguration, den Status und die Benutzerdaten in /etc/, /var/und /home/wie gewohnt enthält. Hierzu ist Usrmerge unabdingbar, was aber die meisten Distributionen mittlerweile umgesetzt haben. Hinzu kommen Dienste wie systemd-sysusers und systemd-tmpfiles, die dafür sorgen, dass die Verzeichnisbäume außerhalb /usr/ beim Hochfahren automatisch nach Bedarf generiert werden, falls sie fehlen.
Aktualisierungen des Betriebssystems mit einem hermetischen /usr/-Verzeichnis sollen durch die Implementierung eines A/B-Aktualisierungsschemas atomar und robust vorgenommen werden können, während der Rest des Systems unberührt bleibt. Auch das Zurücksetzen auf die Werkseinstellungen profitiert davon: Nach Löschen des Root-Dateisystems und einem Neustart sorgt ein hermetisches /usr/-Verzeichnis für ein Neuaufsetzen des Systems.
Union-Mount-Dateisystem
Dieses Konzept verhindert allerdings das spontane Installieren von einzelnen Paketen. Hier schlägt Poettering deshalb einen Mittelweg vor, der einen unveränderlichen overlayfs-Mount nutzt, um etwa Binärdateien einzubinden. Dieses Konzept ist spätestens seit der Einführung von Live-Images durch Klaus Knoppper mit Knoppix populär. Um isolierte Systemdienste hinzuzufügen, denkt Poettering an Portable Services. Dabei handelt es sich um eine Auslieferungsmethode von systemd für Systemdienste, die zwei spezifische Eigenschaften des Container-Managements nutzt:
- Anwendungen werden gebündelt. Das bedeutet: mehrere Dienste, ihre Binärdateien und alle ihre Abhängigkeiten werden in ein Image gepackt und direkt von diesem ausgeführt.
- es gelten strengere Standardsicherheitsrichtlinien. So wird etwa Sandboxing von Anwendungen eingesetzt.
Ebenso wie bei den Betriebssystem-Images des Hauptsystems sowie den Systemerweiterungs-Images handelt es sich bei den Dienste-Images um GPT-Festplatten-Images mit einem unveränderlichen Dateisystem und zugehörigen Verity-Daten des Kernels. Für die Apps sieht Poettering Flatpak als das etablierte Format an, auch wenn er dessen Sicherheit bemängelt, da etwa Unveränderlichkeit im Konzept nicht vorgesehen ist.
Btrfs bevorzugt
Ansätze mit diesem Aufbau, die etwas mehr Flexibilität erfordern, könnten anstatt auf Bare Metal in Containern laufen, die mit systemd-nspawn aufgezogen werden. Was die Partitionen angeht, so sollte das von systemd-homed verwaltete /home laut Poettering auf jeden Fall btrfs verwenden, da hiermit Wachsen und Schrumpfen der Partitionen kein Problem sei. Der Vorteil von btrfs für das Root-FS in diesem Modell sei das Erstellen von Checksummen.
Bleibt noch die Frage, womit die Abbilder gebaut werden sollen. Hier kommt bei Poettering mkosi ins Spiel, ein Tool, von dem ich noch nie gehört habe. Laut GitHub ist es ein Wrapper um dnf --installroot, debootstrap, pacstrap und zypper.
Was wird sich davon durchsetzen?
Während sich beim herkömmlichen Ansatz Maintainer zusammen mit Upstream um die Pakete kümmern, die eine Distribution ausmachen und einzelne kaputte Teile reparieren, dreht sich in den Überlegungen von Poettering und anderen alles um Images und Container, die, wenn sie fehlerhaft sind, komplett entsorgt und neu erstellt werden.
Wer jetzt denkt, Fedora Silverblue oder Kinoite seien relativ nah an diesem Modell, der hat nicht ganz unrecht, aber Poettering geht viel weiter, was Robustheit, Verifizierbarkeit und Sicherheit angeht. Dort sieht er bei dem dort verwendeten OSTree gewisse Nachteile. Er erwartet auch nicht, dass sein Konzept von einer Mainstream-Distribution zu 100 % übernommen wird, würde sich aber über eine Zusammenarbeit mit Projekten, die an Teilen des Systems interessiert sind, freuen.

Der Elefant im Raum – zumindestens aus Ubuntu-Froschperspektive ist Snap und die Verschiebung von immer mehr Programmen in dieses Paketsystem. Zum Teil sind das auch recht zentrale wie z.B. lxd. Mit der Snapifizierung verfolgt Ubuntu ähnliche Ziele wie hier beschrieben – Änderung an /usr minimieren, autharke Pakete, reproduzierbare Installs, ungefragte Aktualisierungen etc. leider wieder als Geisterfahrer gegen die anderen Distributionen (vgl. Unity, Mir usw.)
So richtig warm werde ich aber auch nicht mit Snap – und das sind nicht nur die Unmengen von Loop Devices oder die langen Startzeiten.
Leider wird von den Vertretern der Image-Formate immer der ökologische Faktor vergessen. Images benötigen deutlich mehr Ressourcen als native Pakete, was höhere Kosten verursacht.
Prinzipiell richtig, jedoch so lange wie Bitcoin und Konsorten geschürft werden, fällt das wohl weniger ins Gewicht.
Naja, das ist ja Argument nach dem Muster “Solange Y sogar noch schlimmer ist macht X auch kaum was aus”, auch bekannt als whataboutism.
Ich weiß, und auch da ist was dran.
Die Miner laufen in Island mit Geothermie,in Paguay mit Wasserkraft und in der Ukraine mit derzeit nicht andersweitig genutztem Atomstrom- die PCs hier teilen sich den flattrigen Windmühlenstrom mit guter alter Braunkohle aus der Lausitz oder aus Polen… Aber wie gesagt – der Stromverbrauch wird es nicht sein. Ärgerlicher wäre die ggf. erforderliche Neuanschaffung von Hardware – einschließlich dem ganzen Elektronikschrott mit dem die ganzen Schwermetalle ihren Weg zurück nach Afrika antreten.
Nicht wenn man moderne Filesystems mit deduplication wie btrfs nutzt. Das schlägt Poettering auch vor.
An der Steckdose wird man kaum etwas davon merken – allerdings ist zu befürchten, daß sich die Hardwareanforderungen erhöhen. Wie sich das in der Praxis auswirkt wird sich zeigen. Aber wie es ausschaut, ist eins der Ziele, das System z.B. auch in einem (P)ROM laufen lassen zu können, was für Mobilgeräte und Embedded Systeme wichtig ist.
Die Mehrheit nutzt Windows auf ihrem Desktop-Rechner und damit werden noch deutlich mehr Ressourcen verschwendet.
Ich habe bei Pötterings Gundüberlegungen schwere Bedenken.
Mein Vertrauen gebührt Maintainern die nachvollziehbar und transparent Pakete schnüren und Gemeinschaften, die sich dabei gegenseitig kontrollieren, wie dies in freien Distribution auch sehr erfolgreich geschieht.
Bei Pöttering soll ich fertigen Images vertrauen. Davon wer diese Images baut und für welche Interessen dies geschieht, darüber lässt sich Pöttering nicht aus.
Pöttering verschiebt mit seiner Diskussion die Ebene auf der wir vertrauen sollen.
Bei ihm sollen wir einem Anbieter vertrauen der ein Image herstellt und sollen dann nur noch prüfen können ob das System auch weiterhin so arbeitet wie es der Anbieter vorgesehen hat.
Es mag auch einige plus Punkte bei den Überlegungen geben, aber für mich besteht Sicherheit und Nachvollziehbarkeit bei Software aus der gesamten Kette und nicht erst ab Auslieferung des Binärcodes.
Wenn man der Sicherheit und Nachvollziehbarkeit die Basis entzieht, dann sind aber auch die schönen Images nur noch eine täuschende Verpackung.
Warum vertraust du einem Paketmaintainer, aber keinem Image-Ersteller? Wo ist da der Unterschied?
Es kommt auf die Gemeinschaft/Distribution an und auf die öffentliche Nachvollziehbarkeit jeden einzelnen Schrittes. Wenn ein Image überprüfbar ist, dann traue ich auch hier.
Mir geht es in meiner Argumentation darum, dass Pöttering lediglich auf Aspekte von Sicherheit eingeht, die Manipulationen von außen betreffen.
Er übersieht dabei, dass die folgenschwersten Sicherheitsprobleme schon vor der Auslieferung von Software stattfinden können.
Er zielt auf eine Distribution ohne Paketsystem ab, hat aber kein Modell dafür, wie ohne Maintainment die Vertrauenskette für die Entstehung von Binaries sicherstellt werden.
Frage: Kannst du nach vollziehen wie bei Debian, Ubuntu oder Fedora Pakete in die Paketquellen gelangen? Wo siehst du hier die Vertrauenskette?
Was verleitet dich übrigens zu der Annahme, Images würden keine Maintainer benötigen? Wer soll die denn erstellen? KI?
Die images werden von den “Distomaintainern” gebaut.
Wenn man das Image als ein großes Paket betrachtet bleibt alles beim alten. (OK, ich bin Mathematiker und da führe ich gerne neue Probleme auf bereits gelöste zurück q.e.d. 🙂 )
Aber trotzdem: was ist hier sicherer – viele kleine Pakete mit Maintainern oder ein großes mit einem? Addieren sich die Fehlerwahrscheinlichkeiten oder multiplizieren sie sich?
Sicher addieren sie sich – aber es ist schwieriger, ein großes Paket fehlerfrei zu bekommen als ein kleines … Somit wird sich wohl nicht viel ändern.
“Mein Vertrauen gebührt Maintainern die nachvollziehbar und transparent Pakete schnüren und Gemeinschaften, die sich dabei gegenseitig kontrollieren, wie dies in freien Distribution auch sehr erfolgreich geschieht”
Die Debian-Maintainer und -Gemeinschaft war da beim “Debian OpenSSL-Bug” weniger erfolgreich?
Gegenüber Maintainern, die ich persönlich genauso wenig kenne wie den Softwarehersteller, habe ich zumindest noch weniger Vertrauen, da der Softwarehersteller für seine Software, “sein Baby”, normalerweise nur im besten Licht erstrahlen lassen will und sich entsprechend Mühe gibt.
Hmmm viele von den Dingen die da genannt werden, erinnern mich sehr stark an Nix bzw. NixOS. Finde es nach wie vor Schade, dass das aktuell noch sehr wenig betrachtet wird.
Bin mal gespannt wie viel von seinen Visionen dann Wirklichkeit wird, meist haben die Sachen die er sich so überlegt schon Hand und Fuß.
Interessanter Artikel, auch wenn ich das neue Konzept und die Gründe dahinter nicht ganz verstanden habe. Bin aber auch kein Entwickler.
Unklar war mir aber:
Bin vor 2 Jahren von Windows auf Linux umgestiegen. Bin davon ausgegangen, dass ich dort deutlich vertraulicher unterwegs bin, weil keine Telemetrie (die KDE-Telemetrie habe ich zumindest deaktiviert). Bin ich da im Trugschluss und ist da im Hintergrund doch etwas am laufen?
Es macht lt. der Formulierung den Eindruck, dass es fast alle Distros betrifft. Daher meine Interesse, wo und wieso die Vertraulichkeit privater Daten nicht garantiert ist.
PS: Datenvertraulichkeit hat natürlich immer etwas damit zu tun, wie viel man mit dem PC macht. Die Frage bezieht sich aber nur auf die reine OS-Ebene.
Zum besseren Verständnis kannst du in Poetterings Text das Kapitel ‘Design Goals’ lesen. Einfach gesagt: Sein Anspruch ist höher als der, den Linux anstrebt. Und er ist auch für den Desktop-Anwender nicht zwingend notwendig. Man muss dabei bedenken, dass solch hohe Maßnahmen zur Sicherheit immer auch mit einem gewissen Overhead erkauft werden.
Es geht ihm dabei nicht um Telemetrie oder derartige Dinge, sondern darum, sicherzustellen, dass das System nicht irgendwie manipuliert wurde bzw. jederzeit überprüfen zu können, dass das auch immer noch so ist.
Ich führe kurz einmal das aus, was die Vorkommentatoren schon genannt haben – der erste Teil des Zitats ist IMHO der wichtigere: “öffentliche Daten müssen auf Integrität geprüft werden”. Linux hat in der Hinsicht ein kleines Problem: Wenn Daten oder Programme auf der Festplatte verändert werden (z. B. das initramfs), bekommt Linux davon nichts mit und lädt dies beim nächsten Neustart. Secure Boot (ignorieren wir einfach mal die Probleme mit dem Microsoft Keyring, die tuen fast nichts zur Sache) soll das Problem lösen, sichert aber gerade einmal den Schritt bis zum Kernel, aber nicht das initramfs sowie das eigentlicheb Dateisystem, ab. Tausche einfach mal alles nach dem Kernel aus, hilft mir auch meine Festplattenverschlüsselung nichts mehr, da das Passwort ja in eine unsicheren Umgebung eingegeben wird. Andere Betriebssysteme haben dabei eine mehr-oder-weniger bessere Absicherung des Startvorganges.
Bevor jetzt der fatalistische Einwand kommt, dass ein Angreifer der physikalischen Zugang hat ja ohnehin einen Rechner unter seiner Kontrolle bringen kann: Ja, natürlich. Nur ist könnte der dafür notwendige Aufwand und die Kosten für einen Angreifer deutlich erhöht werden.
Poettering beschreibt dies auch in in The Strange State of Authenticated Boot and Disk Encryption on Generic Linux Distributions.
Telemetrie ist eine Sache die er dabei gar nicht betrachtet, sondern lediglich die Grundlagen auf denen ein in dieser Hinsicht sicheres Betriebssystem bauen lässt, insbesondere den Bootvorgang, das Dateisystem, und so weiter. Die Datensammlung durch den Hersteller gefährdet zwar auch die Sicherheit, aber auch eine andere Art und Weise – die allerdings davon unabhängig betrachtet werden muss und durch Poettering auch gar nicht betrachtet wird.
Da gibts sowieso eine komische Schieflage, aber vielleicht ist das auch nur in Deutschland so. Bei Sicherheit denken hier alle nur an Telemetrie und nie an die ganzen anderen Sachen, bei denen Linux aktuell ins Hintertreffen gerät. Dank Lennart Poettering rückt das wenigstens wieder etwas ins Scheinwerferlicht.
Also ich frage mich, warum diese Frage immer noch so vehement diskutiert wird? Systemd ist im Moment der De facto-Standard in den meisten Linux Distributionen. Es gibt derzeit nur eine aussichtsreiche Alternative zu systemd. Dieses init-System befindet sich auch in einigen alternativen Linux Distributionen im praktischen Einsatz und bewährt sich dort seit Jahren. Wenn man Verantwortung abseits des Desktops besitzt, weiß man, wie systemd die Administration standardisiert und vereinfacht hat.
Lennart Poettering
Lennart hat sicherlich einen speziellen Kommunikationsstil, dennoch ist seine Entwicklungsexpertise bei emotionsfreier Betrachtung unbestritten. Nicht ganz umsonst sitzt er im Red Hat Developer Team. Auch und gerade, wenn es bei systemd noch einiges an Optimierungspotenzial gibt.
Welches alternative init-System meinst du denn?
Es gäbe da noch OpenRC, s6-init und anscheinend ist systemd-done-right (Projekt von Alpine Linux und dem s6-Entwickler) geplant.
Einfacher Blick auf die Fakten. systemd, Avahi, PulseAudio (kdbus ist ja gescheitert). Wir verdanken ihm so viel und stattdessen immer nur Hass von diesen Alles-Hassern.
Systemd:
https://skarnet.org/software/systemd.html
Wie Ferdinand es schreibt, ein Essay von Lennart Poettering. Er setzt sich mit einen Thema auseinander. Was er schreibt ist sicherlich nicht grundsätzlich falsch. Ob das der richtige Weg ist wird die Zeit zeigen. Ich finde es gut wenn sich Gedanken gemacht werden über einen möglichen Weg. Das nimmt man als Diskussiongrundlage. Jetzt kann sich jeder einbringen und ggf, Hey Lennart, das sehe ich völlig anders. Wenn sich dadurch eine sachliche Diskussion ergibt, gerne auch mit Emotionen findet sich hoffentlich ein guter Weg. Ich sehe schon Potenzial für Verbesserungen, auch wenn ich als nur “Anwender” nicht so in den Tiefen von Linux stecke.
Bin jedenfalls gespannt was an Reaktionen aus den verschiednen Lagern kommt.
Genau so. Bei der praktischen Umsetzung finden sich bestimmt genug Stolperfallen und im konstruktiven Miteinander ist am Ende vieles anders als anfangs gedacht. Das ist total normal!
Im übrigen: Nettes Bild zum Artikel. Ist das übernommen oder selber gezaubert?
Ich bin grafisch völlig unbegabt, ich kann nur passende Bilder finden.
Danke für den Beitrag.
Ein interessanter Beitrag und visionär seine Ansätze des Hr. Lennarts. Ich kann das nicht beurteilen ob das gut oder schlecht ist, richtig oder falsch, aber Fortschritt hat mit Bewegung zu tun. Ich hoffe das geht in die richtige Richtung. Immerhin wird Lennart das ja nicht selber entscheiden. Daher mache ich mir auch keine Gedanken ob gut oder schlecht. Da habe ich vollstes Vertrauen in die Entwicklung. Danke für den schönen Artikel zum Wochenende.
Erkennst Du, dass hier ein erklärter Widerspruch zu finden ist? Oder wie kannst Du die Ansätze für visionär befinden, wenn Du im nächsten Satz feststellst, dass Du die Dimension des Artikels und der zugrundeliegenden Technologien überhaupt nicht beurteilen kannst?
Du kannst die Technologie verstehen und beurteilen?
Muss ich das um eine Meinung zu haben? Nein, muss ich nicht!
Ich bin kein Programmierer und habe den Artikel nicht ganz verstanden.
Trotzdem:
Der Personalcomputer an sich (wie er konzipiert wurde) ist ein modulares technisches Gerät zur individuellen Informationsverarbeitung. Trotz immer stärkerer Systemintegration sind seine Grundkomponenten austausch und erweiterbar.
Sein Betriebssystem sollte ebenso funktional, erweiterbar und auch punktuell ausbaufähig sein. Irgend etwas “Statisches” (…einen Image-basierten Ansatz..) wiederspricht dem.
Wie es nicht sein sollte, zeigen uns in verschärfter Form die technisch zugenagelten abhängig machenden (Cloud) Chromebooks!
Der Benutzer eines solchen Systems hat dort “nix zu melden” sondern nur zu reagieren, Tastatur/Maus-eingaben zu tätigen und natürlich dafür zu bezahlen.
Ähnlich wie bei jedem gottverdammten Apple-Rechner, Tablet oder Smartfon!
Danke, aber das will ich nicht!
Kurz: Ich habe den Artikel nicht verstanden, weiß das auch, möchte aber trotzdem meinen Senf hier abgegeben, der mangels Verständnis vollkommener Quark ist. Super Grundlage für ein Kommentar.
@Gecko
Ich versteh dein Problem nicht! Hier äußert sich jemand über das vorliegende Thema, und du tust, als hättest nur du das Recht und die Expertise, hier etwas zu schreiben. Ist ja unfassbar! Was für eine Arroganz!
Uwe scheint einfach nur das Konzept von den Containerten Anwendungen nicht ganz verstanden zu haben. Ich selbst hab da auch meine Schwierigkeiten, das Für und Wider zu verstehen. Fakt ist jedenfalls, daß das stark die Sicherheit erhöht, wenn zum Einen die Anwendungen nur bedingt miteinander reden können.Zum anderen läßt sich so gut prüfen, ob der Containerinhalt unverändert ist. Was ja zum Beispiel bei einer Atacke auf dein System eine Möglichkeit wäre, deine Software so zu verändern, daß damit der Angreifer reingelassen werden kann. Durch die containerbasierten Lösungen kann das wohl gut unterbunden werden. Aber wie gesagt, ich bin da auch wirklich kein Experte…
SysVinit<3
Kannst du das begründen?
als systemd-Nutzer kannst du nicht so schön über den pösen Herrn Poettering schimpfen. Insbesondere in Linux-Foren ist das Ablehnen von Produkten des besagten Herren ein Zeichen von Kompetenz. Neuankömmlinge werden dich aufgrund dessen Elitismus hochachten.
Also nicht so ganz ernst nehmen.
Für mich ist GNU/Linux Liebe.
Kennst du das überhaupt noch?
Mein AntiX verwendet es.
Nutze aber auch Debian Gnome mit systemd und wayland als Produktivsystem.
Pöttering ist der Grund, warum immer neue PC langsam sein werden.
Die Software bläht sich total auf. Bei Windows ist es noch schlimmer.
Seine Idee machen es einem nicht einfacher, sondern nur schwerer.
Wow. Ist es dir nicht peinlich einen Kommentar zu schreiben, wenn du offensichtlich den Artikel nicht begriffen hast?
@Ferdinand: Schöne Zusammenfassung, danke dafür. Ich bin sehr gespannt, was davon in Fedora zu sehen sein wird und wann das passiert.
Du bist wohl noch nicht so lange bei Linux mit bei.
Ich kann mich noch gut an die systemd-freie Zeit erinnern und ich habe den Vergleich zu Windows.
Ich bin nicht der einzige, der Poettering Idee mit Problemen mit Windows in Verbindung bringt.
Komm mal raus aus deiner kleinen Blase. Außer ein paar deutsche Dauernörgler sieht das niemand so. Siehe den überragenden Erfolg von Devuan und Konsorten. Aber immer kräftig “Wir sind das Volk” gegen die Einsamkeit brüllen.
Ich kann mich gut an eine Zeit vor systemd erinnern und vermisse die zig schlecht gepflegten Tools und zusammen gefrickelten Scripte keine Sekunde. Aber ich mach mir bei Veränderungen auch nicht sofort ins Hemd.
Lies moch mal mein Posting und überdenke deine Antwort. Du widersprichst dir ja selbst. *kopfschüttel*
Wo widerspreche ich mir?
Ich kenne die Zeit auch noch… Zum glück ist das vorbei
Es gibt doch immer noch Distributionen die ohne systemd auskommen – Void, antiX / runit, Gentoo, NItrux, Calculate / openrc, MXLinux, Slackware / sysV.
Man muss Portterings ansichten ja nicht teilen aber er sorgt halt immer für Diskussion.
Wie sollte es denn ohne Diskussion sonst funktionieren?
wäre das alles eine Aussage von einem Dev. von Debian gäbe es hier wohl nicht so viele Posts, das meinte ich!? sry wenn ich mich etwas ungeschickt ausgedrückt habe.
Diskussionen sind gut, gerade in solchen Sachen!
Diese Annahme ist Blödsinn.
Wenn es ungeschickt gewesen wäre, hätte ich nichts gesagt. Aber diese Annahme war provokant.
Flatpak is not the futurehttps://ludocode.com/blog/flatpak-is-not-the-future
https://theevilskeleton.gitlab.io/2022/05/16/response-to-flatpak-is-not-the-future.html