Canonical will den Linux-Desktop neu denken. Seit einigen Jahren arbeiten die Entwickler bereits an Ubuntu Core Desktop, einer Immutable-Distribution auf Snap-Basis. In einem ausführlichen Interview mit The Register auf dem kürzlich abgehaltenen Ubuntu Summit 25.10 sprach Jon Seager, Vice President Engineering bei Canonical, über die langfristige Strategie des Unternehmens: Ubuntu soll sich in den kommenden Jahren zu einem modularen, sichereren und unveränderlichen System entwickeln.
Mittel- bis langfristig wird das Standard-Ubuntu, das die Leute verwenden werden, ein Core Desktop sein.
Jon Seager, Vice President Engineering bei Canonical
Snap und sonst nichts
Unter Core Desktop versteht Canonical eine Desktop-Variante, die vollständig auf Snap-Paketen basiert. Jede Komponente vom Systemdienst bis zur Benutzeroberfläche läuft isoliert in einem Container. Ziel ist eine Plattform, die sich einfacher warten lässt, weniger Angriffsfläche für Sicherheitslücken bietet und für den Durchschnittsanwender einfach funktioniert. Seager betont dabei, dass der klassische Desktop mit APT und Deb-Paketen parallel weiter existieren werde. Dennoch liegt die strategische Richtung fest: Ubuntu soll sich vom frei kombinierbaren Baukasten hin zu einem definierten Produkt entwickeln.
Snapd als Herzstück
Das Herzstück dieser neuen Architektur ist snapd, der Daemon, der die Snap-Pakete verwaltet. Besonders wichtig sei derzeit die Entwicklung eines Permission Promptings, also eines Dialogs, über den Anwendungen künftig aktiv um Zugriffsrechte bitten müssen, ähnlich wie bei Android und bei Flatpak. Diese Funktion soll in Ubuntu 26.04 LTS eingeführt werden.
Ohne Flatpak
Ein heikler Punkt bleibt das Verhältnis zu Flatpak. Nach Problemen mit Ubuntu 25.10, bei dem neue Flatpaks vorübergehend nicht installierbar waren, räumt Seager offen ein, dass Flatpak bei Ubuntu keine Priorität besitzt. Zwar wolle man niemanden aktiv behindern, denn Ubuntu solle Flatpaks weiterhin ausführen können. Jedoch investiere Canonical keine Ressourcen in diese Technologie.
Stattdessen setze man konsequent allein auf Snaps und den hauseigenen Snap Store, in dem Canonical zentrale Qualitäts- und Sicherheitsmechanismen kontrolliere. Dieser Kurs dürfte die Fronten in der Linux-Community weiter verhärten: Während Snaps die breiter gestaffelte Nutzererfahrung versprechen, kritisieren viele die serverseitige Abhängigkeit von Canonicals Infrastruktur.
Schwieriges Gleichgewicht
Seager zeigt sich durchaus bewusst, dass dieser reine Snap-Ansatz nicht allen gefallen wird. Die Herausforderung bestehe darin, ein Gleichgewicht zu finden zwischen Wahlfreiheit und Funktionalität. Damit positioniert Canonical Ubuntu klar zwischen zwei Polen: einerseits die distributionsübergreifende Vielfalt, andererseits der Wunsch nach Konsistenz und Verlässlichkeit. Für Desktop-Anwender, die keine Lust auf Paketchaos und manuelle Konfiguration haben, könnte der Core Desktop durchaus ein Gewinn sein. Für Puristen dagegen ein weiterer Schritt in Richtung unerwünschter geschlossener Systeme.
Ein Stack von Server bis Desktop
Seager hebt hervor, dass Canonical als einer der wenigen Anbieter den gesamten Software-Stack aus eigener Hand liefern kann, der von Kubernetes-Clustern über LXD-Container bis zum Desktop reicht.
Wir sind wahrscheinlich der einzige Anbieter, der mit seinem Stack wirklich ein komplettes Rechenzentrum von oben bis unten abdecken kann.
Jon Seager
Als Basis der Entwicklung dient die minimalistische Variante Ubuntu Core, die bislang vorwiegend auf IoT-Geräten und Servern läuft. Der Desktop soll nun denselben Prinzipien folgen – mit dem Ziel, langfristig dieselbe Stabilität und Wartbarkeit zu erreichen.
Der Weg ist klar
Canonicals Weg ist klar erkennbar: weg vom frei konfigurierbaren Linux, hin zu einem wartungsarmen, vorhersagbaren Produkt. Das Versprechen lautet Stabilität und Sicherheit, der Preis ist weniger Flexibilität. Ubuntu steht damit am Beginn eines neuen Kapitels, das den Desktop neu definieren möchte. Ob die Community diesen Kurs mitträgt, wird sich zeigen. Sicher ist nur: Canonical hat sich entschieden, den Linux-Desktop nicht mehr allein als Werkzeug, sondern mehr als fertiges Produkt zu denken.
Wer sich generell über Immutable-Distributionen informieren möchte, findet im Programm der TUX-Tage am kommenden Samstag einen Talk über die Frage, ob solche Systeme die Zukunft für den Linux-Desktop sind.

Wenn ich darüber nachdenke, finde ich den Part den Cannonical in der Linux-Welt spielt, doch recht nützlich.
Erinnert es uns doch immer wieder daran, warum Linux so toll ist.
Macht es doch jedem, der es bereits vergessen hat, den Unterschied proprietärer zu freier Software wieder bewußt.
In der Argumentation um die neuen Ansätze werden viel zu viele Dinge mit einander verglichen die nichts miteinander zu tun haben. Auch sollte man besser zwischen Interessen unterscheiden.
Für Red Hat, Suse und Canonical mag es mit flatpak und snap durchaus Vorteile beim Kundensupport geben, das hat aber nur wenig mit Sicherheit, Funktionalität und der Benutzerfreundlichkeit zu tun. Geradezu als Mär würde ich die Behauptung werten, dass das bisherige Maintainment damit hinfällig wird. Auch tragen RR Distributionen viel dazu bei den gesamten upstream konsistent zu halten. Letzten Endes vertraue ich einer gewachsenen Community wesentlich mehr, als den kommerziellen Interessen von Profit orientierten Unternehmen.
Wenn die Transparenz und das zwei Augen Prinzip bei diesen neuen Paketformaten leidet, dann erhöht dies auch nicht die Sicherheit nur weil jede einzelne Anwendung in einen Container gesteckt wird. Ein Bug im Linux Kernel und eine Sicherheitslücke im Browser lässt sich so nicht verhindern und hätte m.M.n. dann sogar bessere Chancen lange unentdeckt zu bleiben.
Ich sehe es als einen großen Gewinn für die Linux-Welt an, wenn Ubuntu sich mit seinem snap-shop selbst von der Community ausschließt und ein zweites Android auf dem Markt bringt.
Das Konzept von Canonical mag den Firmen Support vereinfachen, bringt aber für den normalen Linuxuser nichts. Weder die Sicherheit noch die Benutzerfreundlichkeit wird dadurch gestärkt. Lediglich wird dadurch die Fernwartung durch atomare Updates ermöglicht.
Ganz allgemein neigen Systeme immer dann zu korrumpieren und unsicher zu werden, wenn sie von außen nicht mehr einsehbar sind. Mit snap weiß nur noch Canonical, was im Binärcode enthalten ist. Ein Browser als Snap Paket kommt mir nicht auf den Rechner und dabei ist es mir egal ob das Basissystem immutabel ist oder nicht.
Das einzige was propitär ist, ist der Backend-Server (Shop), Authentifizierung & Review-System und Canonicals Systeme zur Paketprüfung. Alles andere ist offen, steht sogar unter GPL3. Also snap, snapd, Snap-Pakete. Diese Pakete können auch ohne Store installiert werden. Dir ist vielleicht schon aufgefallen das snap, snapd auf JEDER Distribution angeboten wird oder?
Coca-Cola ist auch offen sobald die Flasche geöffnet ist. Auch Android besteht bis auf den Kernel und ein paar Anwendungen zum größten Teil aus offenen code.
Der Punkt ist, dass ich wissen will, was in der Coca-Cola Flasche drin ist, bevor ich sie trinke. Jetzt kommst du und erzählst mir, das wäre kein Problem, weil ich Wasser und Zuckersirup auch selbst mischen könnte.
Wie weiß ich bei einen snap Paket von Canonical, dass nur das enthalten ist, was ich haben möchte?
Bei Debian gibt es Sicherheit, weil jeder einzelne (Verarbeitungs-)Schritt transparent und nachvollziehbar dokumentiert wird und es eine Community ist, die alle Ingredienzien abwägt und miteinander diskutiert.
Beim snap Paket von Canonical habe ich letztlich nur einen Firmennamen, dem ich blind vertrauen soll.
Wir wissen alle, dass kommerzielle Produkte oft die schönere Verpackung haben und sie auch oft sehr praktisch in der Anwendung sind. Man sollte aber nicht den Inhalt mit Verpackung verwechseln.
flatpak und snap werden sich mit der Zeit weiter durchsetzen und es gibt einige Vorteile dabei für Anbieter die ein kommerzielles Produkt verkaufen wollen.
Als Privatanwender und Anhänger für freie Software bleibt mir dabei eigentlich nur übrig, darauf hinzuweisen, dass das bisherige Maintainment unersetzlich bleibt, gar nicht so dumm ist, wie jetzt überall behauptet wird und letztlich auch für mehr Sicherheit sorgt, als es diese neuen Formate jemals könnten.
Der Fehler liegt m.M.n. darin, dass man diese Formate nicht auf das bisherige Maintainment aufbaut, sondern einen Kurzschluss vom Entwickler direkt zum Verbraucher erzeugten will, wobei die Kontrolle letztlich dann nur noch von einigen Konzernen ausgeübt wird.
Du kannst doch reinschauen was drinne ist? Ein Snap-Paket ist nichts anderes als ein SquashFS-Archiv. Du kannst es jederzeit öffnen, inspizieren und entpacken, ohne etwas zu installieren. Der Inhalt kann auch reproduziert werden. Wenn Canonical oder ein Entwickler also etwas „einschleusen“ würde, ließe sich das leicht entdecken.
Ich habe zu dem Punkt mal eine allwissende KI befragt:
“Canonical als verantwortliche Firma für den Snap Store hat theoretisch die Möglichkeit, Code in Snap-Pakete einzuschleusen, der unentdeckt bleibt. Der Grund dafür liegt in der Funktionsweise des Snap Stores: Jeder Publisher kann ein Snap erstellen und hochladen, und obwohl es automatische und manuelle Überprüfungen auf Schadcode gibt, ist es laut Aussagen von Mark Shuttleworth und Erfahrungen aus der Praxis nicht möglich, jeden Codezeile im Detail zu prüfen.
Es gab bereits Fälle, in denen Apps mit verstecktem Crypto-Mining-Code im Snap Store entdeckt wurden, was zeigt, dass das System nicht vollkommen sicher vor schädlichem Code ist. Das Vertrauen beruht letztlich auf der Herkunft der Software und der Reputation der Herausgeber. Außerdem ist die Quelle des Snap Stores proprietär, was den Einblick und die Kontrolle der Community einschränkt.
Zusammenfassend:
Canonical hat technisch die Möglichkeit, Snap-Pakete mit unentdecktem Zusatzcode zu veröffentlichen.
Die Überprüfung erfolgt automatisiert und manuell, ist aber bei der Menge und Komplexität von Software begrenzt.
Es liegt stark an der Vertrauenswürdigkeit der Publisher und der zentralen Kontrolle durch Canonical.
Fälle von verstecktem Missbrauch im Snap Store sind dokumentiert und zeigen diese potenzielle Schwäche.
Der proprietäre und zentrale Charakter des Snap Stores verringert die Transparenz und erhöht das Risiko solcher Einschleusungen.”
Mein Resümee ist:
Letztlich bleibt es die Frage ob man Canonical oder der Community vertrauen möchte. Und es ist doch völlig klar, dass man binären Code nur aus verlässlichen Quellen nutzen sollte.
Ich nutze Linux LMDE 7 und Debian KDE. Beide Systeme sind das, wofür FOSS steht finde ich. Überall wo eine Firma dahinter steht bei einer Distribution, sieht das anders aus. Diese Firmen wollen verkaufen und Gewinn machen. Ubuntu, Suse, Redheat (Fedora) etc. stellen achso freundlich kostenlose Distros bereit und lassen die User das testen, damit die Firmen anschließend die Verbesserungen in der Verkaufsversion einpflegen. Diese Strategie scheinen wohl die meisten nicht zu bemerken?
Ubuntu wird das Ding mit Snap durchziehen, deswegen war ich von beginn an auf LMDE.
Ich befürworte weiterhin die Grundregeln der Foss Gemeinde. jeder sollte sein System frei konfigurieren können.
Diese unveränderlichen Distros mögen bei Firmen eine Rolle spielen, ja gut, abder der private User will doch auch sein System nach seinen Wünschen gestalten.
Grüße aus Osthessen
Hoffe as Linuxmint Team wird umschwenken auf Debain Basis.
Dass diese Firmen das nicht nur zum Spaß finanzieren ist klar, aber warum sollte man das grundsätzlich verwerflich finden? Und wo wäre Linux heute ohne die Vollzeit-Entwickler, die dadurch finanziert werden?
Linuxmint gibt es bereits auf Debian-Basis, es heißt LMDE. Mehr Auswahl zu haben ist doch nicht schlecht, man kann sich eben sich zwischen der Ubuntu-Basis und Debien-Basis entscheiden. Und du solltest dankbar sein, dass es Ubuntu/Canonical gibt, da diese zu einem Großteil der Debian-Entwicklung beitragen. Der GNOME-Desktop unter GNOME und das APT-Paketsystem wird fast ausschließlich von Canonical-Entwicklern gepflegt.
Und wenn du es noch so oft wiederholst, es wird dadurch nicht wahrer. Deine Behauptung, dass die Debian-Entwicklung heute größtenteils von Ubuntu dominiert wird, ist Wunschdenken, stimmt aber mit der Realität nicht überein. Was stimmt, ist, dass viele Debian-Entwickler auch Ubuntu-Entwickler sind und umgekehrt.
Anhand deines Beispiels bezüglich APT: Der derzeitige Hauptentwickler Julian Andres Klode wurde im November 2007 Mitglied bei Ubuntu und ist seit Oktober 2008 offizieller Debian-Entwickler. Und das wird man nicht automatisch, wenn man bei Ubuntu entwickelt. Um DD zu werden, muss man einen aufwendigen Prozess durchlaufen, der für die meisten Anwärter rund 6 Monate dauert. Ein weiterer langjähriger Entwickler von APT ist David Kalnischkies. Er arbeitet seit 2009 an APT ist seit Juni 2016 offizieller Debian-Entwickler. Eine offizielle Verbindung zu Canonical gibt es nicht.
Richtig gute Entscheidung! Wir kommen mehr und mehr dahin, dass Linux für einen Normalbenutzer so benutzbar wird, er man sich das vorstellt. Nämlich wartungsarm! Wenn das auch noch hilft, dass Linux in puncto state of the Art Sicherheit zu MS und Apple aufschließen kann, wäre das sehr wünschenswert!
Im Bereich Sicherheit zu MS aufschließen?
Benutzerfreundlichkeit erhöhen?
Nenne mal die Distribution, die du da meinst. Meine Linux Distributionen laufen nach einem Update immer, im Gegensatz zu Windows und die Benutzerfreundlichkeit ist auf einem viel höheren Level.
Entweder war das von dir Sarkasmus pur oder du bist hier komplett falsch.
Ich bin hier falsch, weil ich eine andere Meinung habe?
Vielleicht hast du recht und linuxnews sollte wirklich langsam aus meinem feedme fliegen.
“Normalbenutzer” … ich bin “Normalbenutzer” und arbeite seit 2002 mit Debian (>Siduction, >Devuan+Debian). In dieser Zeit hatte ich nie ein Bedürfnis nach so einem “Core Desktop”. Ich habe das als “Normalbenutzer” nicht benötigt.
Hallo tredup,
da hast Du tuxnix-Beitrag nicht richtig gelesen oder verstanden.
In punto Sicherheit bringt solch ein System keine (zusätzliche) Sicherheit – im Gegenteil:
Weil der Code nicht mehr vollständig offen liegt, damit durch die Community nicht mehr prüfbar, macht die Evolution hier einen gewaltigen Rückschritt.
Das hat mit der Grundidee eines Linux kaum mehr etwas gemein.
Sehe nur ich das so oder schafft sich Ubuntu selbst ab?
Wenn ich schon wieder Snap lese… Mein Gott!
Ubuntu war mal ein richtiger Vorreiter und hat viel zum heutigen Stand von Linux beigetragen und ich konnte es damals nur jedem empfehlen. Aber was dort seit Jahren abgeht…
Sollen die auf ihrem Snap hocken bleiben und langsam in der Versenkung verschwinden. So einen Ressourcenfresser braucht niemand. Linux stand bisher eigentlich immer für sehr ressourcenschonend.
Was meckere ich eigentlich, bin eh auf Arch. Ich brauche immer neueste Software und nicht so altes Zeug wie unter Ubuntu/Debian 😉
Wenn dann Arch auch irgendwann anfängt zu “spinnen”, dann geht es back to Gentoo.
Du bist nicht alleine, ich teile Deine Sichtweise.
Nicht immer Ubuntu und Debian in einem Atemzug nennen. Bis auf das Paketformat .deb hat Ubuntu nichts mehr mit Debian zu tun. Und ein Vorreiter war das auch damals nicht unbedingt. Die haben sich munter bei Debian bedient und ihr eigenes Süppchen gekocht… und wenn ich an dieses unsägliche Verbiegen von sudo denke, wirds mir schlecht…
Debian wird heute zu einem großen Teil von Ubuntu-Entwicklern entwickelt.
Das halte ich für gefährliches Halbwissen 🙂
Ich habe das Gefühl, dass du hier einfach fünf Jahre alte Kamellen wiederholst, die du irgendwann mal im Internet gelesen hast und die schon längst überholt sind. Die Perfomance von Snaps ist identisch mit richtigen Paketen, da beides nativ auf dem System läuft. Richtig ist, dass Snaps mehr Speicher benötigen und etwas mehr Startzeit benötigen, das liegt eben in der Natur des Systems. Sobald das Snap gestartet, ist es aber genauso schnell. Und bei dem Ubuntu Core Desktop fällt dieser Nachteil von Snap eben weg, da die Snap-Bibliotheken bereits bei Systemstart geladen werden. Es gibt dort eben auch keine Duplikate mehr zwischen nativen DEB-Bibliotheken und Snap-Bibliotheken, da alles nativ auf Snap läuft, der Nachteil des höheren Speicherverbrauchs fällt damit auf dem Ubuntu Core Desktop ebenso weg.
Und das Arch Linux leichtgewichtig sei, ist ebenfalls ein Mythos. Die DEB-Pakete sind viel feingliedriger im Gegensatz zu den dicken Arch-Paketen unterteilt. Bei DEB-Paketen kann man ganz genau fein detailliert auswählen, welche Teile der Software installiert, bei Arch muss man bei vielen Programmen immer den ganzen Softwarebatzen installieren.
“Es gibt dort eben auch keine Duplikate mehr zwischen nativen DEB-Bibliotheken und Snap-Bibliotheken”
Wie soll das funktionieren?
Wenn Anwendungen unabhängig von der Umgebung lauffähig sein sollen, dann müssen sie auch ihre eigenen libs mitbringen.
Am Ende ist Ubuntus Weg das Ende für viele Forks, die immer noch auf Ubuntu basieren aber den Canonical Mist draußen gelassen haben.
Grade für Linux Mint, wird der LMDE Weg der einzige Weg sein um überhaupt weiter existieren zu können.
Ich kann Canonical´s Weg nachvollziehen, aber am Ende wird es ein Betriebssystem ohne Fenster, nur mit dem selben Mist……….
Mint könnte auch bei Siduction Anleihe nehmen und zusätzlich zu LMDE eine Debian basierte Rolling Ausgabe anbieten um noch beliebter zu werden. Der Ubuntu Basis lebe wohl zu sagen wird für Mint jedenfalls kein Nachteil sein.
Da bin ich dabei………..LMDE ist so stabil und läuft einfach.
Ich bin da etwas skeptisch. Einmal, warum um Himmels willen muss ein Anbieter wie Ubuntu zwingend ein eigenes Paket-Management wie SNAP so durchdrücken? Weiter, warum gibt es da offenbar wenig bis kein Platz für Alternativen? Drittens, die gesamte Story um Imutables scheint auch nicht ausgereift.
Ralf Harsel hat auf gnulinux.ch ja letzthin Silverblue recht einfach Schrott gefahren (rm -Rf /*). Mit einem eigenen Test konnte ich dies nachfollziehen. Abgesehen davon war Silverblue derart langsam beim Hochfahren, das wollt ich jetzt ganz sicher nicht Linux-Neulingen in die Hand geben, es wäre schlechte Werbung.
Linux hatte einst ein grosses Plus gegenüber Windows, es war ab- wie aufwärtskompatibel. Aktuell sind wir ja leider soweit, dass selbst Upgrades im Prinzip nicht mehr sicher laufen (Neuinstallation ist schneller). Ich habe gerade gestern mit einem Bekannten darüber gesprochen, der von Windows10 auf Linux umsteigen wollte.
Er ging in einen Linux-Kurz. Dort wurden irgendwelchen Daten vom alten System auf eine externe Platte gesichert, die (alte) Festplatte gelöscht und Mint installiert. Für mehr reichte die Zeit nicht, mein Bekannter ist überfordert, a) weil er keine Mails mehr lesen/senden kann (Outlook), b) weil er seine Daten nicht mehr auf der Festplatte findet und c) weil er bei einem auf der Festplatte installierten Linux sich unsicher fühlt.
Ich habe ihm dann mein AVMultimedia empfohlen. Das wäre ab USB-Stick gelaufen und er hätte die Windows-Platte einbinden können, ohne dass die alte Windows10-Installation im Eimer ist. Wichtig bei einem Umstieg wäre auch, dass es bis zu jenem Punkt, wo de/die User/in restlos mit einem Linux klarkommt, es einen Weg zurück gibt.
Wenn ich alleine hier auf LinuxNews lese, dass an dem Core-Desktop seit Jahren gearbeitet wird, und alles neu und besser werden soll, dann ist es ganz sicher nicht das, was Einsteiger/Umsteiger/innen benötigen. Sie benötigen eine einfache schlanke Lösung, sie sind froh, wenn das OS Privatsphäre bietet (da bin ich bei Ubuntu mittlerweile sehr skeptisch) und sie benötigen eine Zwischenphase, wo, das alte System noch zur Verfügung steht. Nicht alles ist am Amfang bei einem Umsteig klar (z.B. wie ich meine alten Mails noch lesen kann).
Mehr Mut zu Bescheidenheit. Linux müsste nicht besser als Windows sein, aber es müsste einfach laufen und in der Anwendung “tubelisicher” sein. So finde ich z.B. eine Anleitung, wie ich unter Linux Outlook-Mails (Client) abholen kann. Dafür sind aber DEB-Pakete notwendig. Wenn diese aber “imutable” in diesem neuen Ubuntu unterbunden werden, dann hilft dies dem Enduser nicht.
Linux war früher bekannt dafür, dass es viele Möglichkeiten gibt, um ein Ziel zu erreichen. Es war die Zeit, als das, was mal lief, über lange Zeit auch lief. Heute wollen alle alles immer wieder neu zusammenbasteln, mit dem Resultat, das vieles Bewährte nicht mehr läuft. Ich wünschte mir z.B. DEB-Pakete die mühelos zwischen Ubuntu/Mint/Debian/Devuan et al laufen würde. Das ist heute faktisch nicht mehr gegeben – und das ist schade.
Die einzigen Profiteure sind die Closed-Source-Player, diese lachen sich über soviel Fragmentierung unter Linux den Bauch voll. Das müsste nicht sein, indem das, was mal läuft, auch so belassen wird. Dieser fast schon “Wahn” ins Dauerändern an Strukturen frisst sehr viel Energie und auch Goodwill. Wie gesagt, müsste nicht sein. In diesem Sinne mehr Mut zu Langsamkeit und Bewährtem.
Das gute an Linux ist doch die Freiheit. Jeder hat die Freiheit sein eigenes Paketsystem zu nehmen. Und ob es sich durchsetzen wird, entscheiden dann die Nutzer. An der Wahlfreiheit selbst ist aber nichts schlecht. Rein theoretisch ist es sogar möglich, flatpak in ein Snap zu packen. Damit hätte man dann auf dem Ubuntu Core Desktop mehr Software.
Ganz wertneutral will der Markt genau so etwas.
Andere Projekte am Markt haben ja schon produktiv einsetzbare Systeme wie Fedora mit Silverblue oder SUSE mit MicroOS. Technisch wahnsinnig beeindruckend, und ich denke Canonical sieht da einfach die Lücke bei der Einfachheit und Benutzbarkeit.
Ob ich das gut oder schlecht finde folgt dann daraus, ob man durch den Fokus auf Snaps eingeschränkt wird. Weil technisch kann man alles haben, klassischer Paketmanager + Flatpak + Snap etc. , wenn man den ganzen Immutable Hokuspokus etwa mit BTRFS auf Dateisystemebene angeht.
Aber einen super einfachen und stabilen Desktop, deploybar im großen Stil in Firmen: Das finde ich trotz allem super. Technisch kann das Windows auch in 10 Jahren noch nicht.
Sorry, aber Sliverblue ist technisch betrachtet eine Katastrophe, siehe den Artikel von Ralf Harsel auf gnulinux.ch
Der Artikel liegt inhaltlich ziemlich daneben, weil er ein fundamentales Missverständnis darüber zeigt, was „immutable“ bei Systemen wie Fedora Silverblue tatsächlich bedeutet.
Der Autor verwechselt zwei Ebenen:
Unveränderbar auf Image-Ebene ≠ Schreibgeschützt auf Laufzeit-Ebene
Silverblue ist kein „read-only“-Filesystem wie auf einem Embedded-Gerät. Du kannst als Root (bewusst!) alles löschen, wenn du willst – das System hindert dich nicht aktiv daran, dich selbst zu sabotieren.
Es schützt nur die Konsistenz des Systemzustands über Neustarts hinweg.
„Für Einsteiger“ ist kein technisches, sondern ein administratives Argument
Immutable Distros sind interessant, weil:
Updates atomar und rückrollbar sind (kein kaputtes halbfertiges Update mehr).
Die Trennung zwischen System und Apps klarer ist.
Weniger „Konfigurationsdrift“ entsteht.
→ Das ist für Wartbarkeit super – aber nicht zwingend „anfängerfreundlich“ im Sinne von „kann man nicht kaputt machen“.
„Nicht kaputt machen“ ≠ „nicht löschen dürfen“
Selbst Windows oder macOS lassen dich das System zerstören, wenn du willst.
Immutable-Designs sollen Verlässlichkeit und Reproduzierbarkeit sichern, nicht Nutzer-Fehler verhindern.
Wenn dieser Kurs am Ende hilft, Linux auf dem Desktop endlich aus der Nische zu holen, wäre das ein Gewinn für alle Distributionen.
Schön wäre es, aber dazu wird es nicht kommen. Erstens weil Ubuntu gar nicht mehr gewillt ist, kompatibel zum Rest zu sein und zweitens weil das imutables-Konzept derart viele Ressourcen frisst, dass es auf alten Rechner im Schrott-Tempo dümpelt. Leute, die z.B. aktuell von Windows10 umsteigen, benötigen ein schlankes schnelles System. Wenn sie eh einen neuen Rechner kaufen müssen, ist dort Windows11 installiert. Den ganzen Zirkus zweimal zu machen, das werden sie nicht.