Werkzeuge

Ersetzen proprietärer Software, ein Erfahrungsbericht

Im Jahr 2022 musste bei mir einiges an proprietärer Software gehen. Wie und was ersetzt wurde, möchte ich in diesem Artikel aufzeigen.

Mein Arbeitsplatz

Ähnlich wie Ferdinand verdiene ich mein Geld mit IT. Derzeit bin ich für drei Gesellschaften tätig und verwalte dort von Layer 1 bis Layer 8 alles, was irgendwie mit IT, Vertragsmanagement, FiBu oder Controlling zu tun hat. Bedingt durch das Tätigkeitsfeld ist es überhaupt nicht einfach auf Open Source zu setzen, WebEx, Microsoft Office und so manches CRM gehören einfach dazu.

Mein Daily-Driver ist ein MacBook Pro 14″ mit M1 Max Prozessor sowie 32GB RAM und einer 4TB SSD. Wenn ich im Homeoffice bin ist es an ein Thunderbolt Dock angeschlossen das drei WQHD Monitore befeuert. Diverse softwareseitige Bastellösungen mussten her um mit einem Apfel in einer Windows-Domäne sowie DATEV-Umgebung kompatibel zu sein. Ein M1 musste es wegen der guten Akkulaufzeit werden, ein Arbeitstag von 10 Stunden stellt kein Problem dar. Mehr gibt es zu dem Gerät nicht zu sagen, jeder der MacBooks kennt, weiß worauf er sich einlässt.

Passwort-Manager

Wegen Abomodellen, Speicherung bei US-Anbietern und ständigen Datenlecks kommt etwas “cloudiges” für Passwörter nicht in Frage. Da bleibt heutzutage nicht mehr viel übrig, da alles “verzwangsclouded” wird. Enpass wäre einer der wenigen die lokalen WLAN Sync können, aber da gehts in Richtung Abo – noch dazu ist es Closed Source.

Letztendlich wurde es good old KeePassXC mit Sync durch die eigene Cloud. Ein Feature was ich dort schon immer vermisst habe sind verschiedene Einträge wie WLAN’s, Softwarelizenzen, Zahlkarten etc. Nicht alles ist immer eine URL+User+Passwort. Ein Bug Report dazu wird nun endlich zur Version 2.8.0 bearbeitet! Hier bin ich glücklich und werde ich auch bleiben.

Videokonferenzen

Ab einer gewissen Unternehmensgröße kann man seinen Lieferanten die Lösung vorsetzen. Davon bin ich kein Freund und pflege lieber ein freundschaftliches Verhältnis zu allen. In diesem Punkt habe ich allerdings davon Gebrauch gemacht und meinen Dickschädel durchgesetzt. Es war zu Beginn des Lockdowns ein Desaster: Der eine kann nur Teams, schickt man ihm eine WebEx Einladung dreht sein Admin durch, weil er angerufen wird, da es nicht startet (gut so! AppLocker sei dank!). Die Deutsche Telekom hat intern wie Extern nur WebEx und haben ihre Schmerzen mit Teams. Ein Softwarelieferant nutzt einen öffentlichen Jitsi usw. Es herrscht generell Wildwuchs da draußen.

Alle Lieferanten sowie die potentiellen, Nextcloud Talk-en nun mit mir. Bei manchen ging das echt einfach, Größen wie die Telekom tun sich damit etwas schwer. Aber einen Großkunden stößt man ja mit sowas nicht vor den Kopf, sondern macht einfach mit. Also ist der ViKo-Bereich ebenfalls erfolgreich ge-open-sourced.

CRM/ERP/FiBu

Keine Chance, vergesst es. Hört auf zu suchen, spart euch die Zeit. Es gibt gute Ansätze wie z.B. InvoiceNinja. Doch dieses, als auch Eigenentwicklungen, sind nicht GoBD Konform. Kann man machen, weder meine Geschäftsführer:innen noch ich haben Lust darauf, dass uns das Finanzamt “die Bude auseinandernimmt”. Selbes für FiBu, DATEV ist leider unangefochten. Ungern gebe ich es zu, aber deren Rechnungswesen sowie Unternehmen online ist einfach super (aus Anwendersicht). Fraglich ob Open Source das so liefern kann wie es eine DATEV kann. Haftungsfragen sind da auch noch ein Thema. Rechnet das Programm irgendetwas falsch zusammen und der Kunde klagt dagegen wird jeder Endanwender aussagen “Ich hab das mit Tool X gemacht, das benutzen wir immer”. Wird Tool X dann genauer angeschaut… Über den Rest möchte ich garnicht erst nachdenken. So hat man immer noch die Möglichkeit den Softwarehersteller in die Haftung zu nehmen, er hat seine Software schließlich zertifizieren lassen und so verkauft.

Was man dem Finanzamt vielleicht in dem Zusammenhang auch mal sagen könnte: Ist eine CRM/ERP/FiBu-Software on Premise, habe ich Zugriff auf die Datenbank. Bei den Meisten sind die Spalten nicht mal verschlüsselt. Ich könnte also bei DATEV Werte ändern. Beispiel DATEV und “pseudo-kopierschutz”, sie liefern einen eigenen, angepassten Microsoft SQL Server aus und ein eigenes Verwaltungstool DATEV SQL Manager. Andocken mit einem SQL Management Studio unmöglich, da das Passwort für den “sa” Benutzer nur auf Antrag mit Verzicht auf jegliche Gewährleistung mitgeteilt wird. Dieser Antrag ist mittlerweile in den Hilfeseiten nicht mehr auffindbar.

Den findigen Admin hält das natürlich nicht auf:

Beispielhaft die Lohnartentabelle aus LODAS, write access 😉 Huhu DATEV 👋🏻

Betriebssysteme

“Hätte ich keine Endanwender, hätte ich nur Linux und keine Probleme” – ein Satz der mir von einem Kollegen auch nach mehreren Jahren noch gut im Gedächtnis geblieben ist. Recht hat er! Allerdings kann man einen Endanwender nicht vor ein Terminal mit SSH setzen. Diese Menschen brauchen Windows bzw. eine bekannte GUI, alles andere produziert der IT einen unglaublichen Mehraufwand und somit Kosten. Bei uns gibt es zwei Ausnahmen: Die Chefin und meine Wenigkeit haben Apfel-Rechner. Funktioniert auch super dank Standards wie Exchange AS, SMB und LDAPS. Diese Geräte sind bewusst nicht Mitglied der Domäne oder eines MDM’s.

Der Rest nutzt Terminal Server, die Thin Clients vor Ort sind Linux-basiert, ein Stück Luxus, den ich mir gönne. Ein Icon doppelklicken und Zugangsdaten eingeben, klappt auch unter einer Linux GUI für alle Anwender ganz gut. Ebenfalls spart man sich eine kostenpflichtige Windows-Lizenz pro Arbeitsplatz. Dafür darf man, wesentlich günstigere, RDS CALs kaufen.

Servermanagement

Es stand mal Baramundi im Raum, habe mich dann aber dagegen entschieden, Ansible kann das genauso gut. Da gab es nichts umzustellen, es war von Beginn an “open”. Wer unter Windows hauptsächlich PowerShell-CMDlets nutzt, muss sich in Kombination mit Ansible nicht groß umgewöhnen. Man kann seine bereits vorhandenen Skripte über Ansible ausführen lassen. Mittlerweile laufen sogar Exchange-CUs in der DAG vollständig automatisiert. An dieser Stelle direkt eine Warnung: Testet jedes Update in einer Testumgebung! Trotz der mittlerweile problemfreien manuellen Ausführung auf Server Core ’22 mit Exchange 2019, hängt der Automat manchmal und benötigt ein manuelles Eingreifen. Da ich dieses Phänomen bisher nur unter Windows gesehen habe, vermute ich das auch als Schuldigen und nicht Ansible. Auf Linux laufen die Aktionen problemfrei.

Microsoft Office

Das leidige Thema, um das man nicht herumkommt, auch nicht dieser Artikel. Meine User würden es nicht benötigen, LibreOffice deckt die Office-Kenntnisse vom Featureset voll ab. Da gibt es aber auch noch Kunden. Manch einer schickt einen sich selbst ausrechnenden PEP, bei dem sogar eingefleischten Excel-Usern schlecht wird, wenn sie die hunderten Formeln sehen. Das schafft LibreOffice irgendwann nicht mehr.

Hin und wieder kommt es auch vor, dass man etwas an Kunden schicken muss, das nicht als PDF verschickt werden kann, da etwas bearbeitet werden soll. Wie sieht das denn bitte aus wenn da ein .odt ankommt, das beim Öffnen mit Office 5 Fehler anzeigt, die Schrift verstellt und das Layout zerschossen ist. Sieht nicht gut beim Kunden aus – Office muss leider bleiben.

Allgemeines und Praxisbeispiele

Sobald etwas Neues ansteht, ist die erste Frage, die sich mir stellt: “Geht das auch Open?”. Genau so sollte es in mehr Firmen laufen. Was teilweise an Geld für schlechte Software oder Fehlentscheidungen verbrannt wird, ist unglaublich. Selbst wenn eine OS-Software meinen Anforderungen nicht entspricht, habe ich “nur” Personalkosten und Infrastrukturkosten verloren und nicht gleich noch Geld für die Lizenzen hinterher. Es gibt solche schönen Lösungen, die Open und somit kostenfrei sind. Klar gibt es da keinen richtigen Support, aber jeder, der einen Hotlineroboter bedienen kann, sollte in der Lage sein, ein GitHub/Gitlab Issue beim Projekt zu eröffnen. Ein Beispiel aus der Praxis:

Wir brauchen eines Tages eine Art Wiki, Prozessbeschreibungen, etwas Dokumentation und Wissen sollte darin abgelegt werden. Wieso sollte ich hier ein kostenpflichtiges Produkt wie QWiki anschaffen, wenn ein BookStack den gleichen Job tut? Dort hat sich viel getan, es fand Anklang in Firmen, was zur Folge hatte, dass nun LDAPS, SSO und AD-Group-Matching eingebaut wurden. Super Sache!

Ein weiteres Praxisbeispiel: Eine Dokumentation der IT-Infrastruktur wäre nicht verkehrt. Es gibt da ja hunderte Tools wie z.B. ITGlue, Docusnap, i-doIT und wie sie nicht alle heißen.

Es wurde schließlich ein Gespann aus 4 Systemen: Zammad, i-doIT Open, check_mk und Material for MKDocs.

Das Ganze zu beschreiben würde definitiv den Rahmen sprengen, dennoch möchte ich es kurz anreißen, wie schön “Open” zusammenarbeitet:

Die Assets sind in i-doIT angelegt und finden so ihren Weg in check_mk, von wo aus sie überwacht werden. Steht nun z. B. ein Exchange Update an, erstelle ich ein Ticket in Zammad (auch als Change Management System missbraucht), das mit beiden Systemen verbunden ist. Dem Ticket wird direkt das Asset zugeordnet und eine Ausführungszeit definiert. Das Ausführen über Ansible sowie das Eintragen des neuen Patchlevels in i-doIT ist derzeit noch Handarbeit. Wer hier einen Tipp hat, um auch das zu automatisieren, gerne ab damit in die Kommentare!

Ein solches System lebt natürlich, wie jedes andere auch, von einer exzellenten Pflege. Nachdem dies nun schon fast ein Jahr so gut zusammenarbeitet, erschließt sich mir der Sinn für ein hochpreisiges Tool wie PTRG, Docusnap usw. nicht. Das wird den Kunden meiner Erfahrung nach von den Systemhäusern aufgedrückt, weil es einfach läuft und man keine Lust hat etwas zu pflegen oder nichts anderes kennt. Ich fände es nicht so toll, wenn mir ständig etwas zum Inventarisieren im Netzwerk rumscannt oder eine extra Software auf den Clients installiert werden muss.

Fazit 2022

Durch die beständige Weiterentwicklung wird es immer einfacher auf Open Source zu setzten, ohne etwas zu vermissen. Man muss sich darauf einlassen und an der ein oder anderen Stelle neu laufen lernen. Gerade im User-fernen Bereich Administration und Backend lassen sich hier tolle Sachen bauen.

Nach wie vor vorsichtig wäre ich mit allem, womit Endanwender Kontakt haben. Manche reagieren extrem empfindlich auf Änderungen, manch einem anderen geht es nicht schnell genug. Hier sollte man seine Mitarbeiter kennen, eventuell Key-User definieren, die Hilfestellung geben können und in einem an die Unternehmung angepassten Geschwindigkeit ausrollen. Vor vollendete Tatsachen wird niemand gerne gestellt, geht auf die Leute zu: “Was hältst du von einem Wiki? Du musst nicht immer Kollegen fragen, gib einfach dein Schlagwort ein und lies dazu. Hier schau dir mal die Demo an”. Das Feedback war “ja will ich”. Nach zwei Tagen lief die Sache in Produktion und wurde ganz fleißig mit Inhalt befüllt. So einfach kann es eben auch gehen, ohne zig Meetings zum Thema, Kostengenehmigungsverfahren u. v. m.

Es bleibt von Unternehmen zu Unternehmen verschieden, ob und wie schnell solche Open-Source Lösungen ausgerollt werden können. Nach 14 Monaten intensivem Ausmisten von Altlasten, was ich jedem raten würde, bevor man neue Baustellen aufreißt, sind unsere Infrastruktur und internen Prozesse so flexibel, dass man das mal in ein bis zwei Tagen ausrollen kann. Leider ist das nicht die Regel. Wann machen sich Admins endlich das Leben einfacher? Keine Ausreden wie “geht nicht weil XY“, einfach mal machen!

Teilt den Beitrag, falls ihr mögt

21 Kommentare

  1. Ich muss zugeben, so Vorgaben wie dieses GoBD würde mich ja schon mal interessieren. Ich meine, die Vorgaben dazu müssten ja schon öffentlich einsehbar sein. Auch in verständlich.

    Und ich glaube auch, dass wenn die Qualität des OpenSource Systems hoch genug ist (z.B. formale Verifikation der JVM und der Programme darauf, Verschlüsselung auf jedem Layer) könnte man durchaus auch OpenSource hinreichend konform machen und trotzdem die Anwendungsentwickler machen lassen, solange sie erfolgreich durch die Pipeline kommen (z.b. wenn es nicht formal verifizierbar ist, failed es einfach).

    Das will nur leider kein Entwickler machen und keiner zahlen. Schade. Wäre ein Gewinn für alle.

    0
  2. Schoener Artikel, danke.

    Ja es bewegt sich seit Jahren sehr viel in dem Bereich.
    Jetzt auch im oeffentl. Sektor.

    Da habe ich einige Kunden sogar in Oesterreich und der Schweiz.

    Allerdings arbeiten die sehr viel mit onpremise, docker, oder vm.
    Die wenigsten gehen in die cloud.
    Laesst sich mittlerweile auch sehr gut an einem winAD anbinden etc.
    Soft-Hardwareinventuren, softwareausrollen aufs Netzwerkclients u.a. funktioniert schon gut.

    Es handelt sich eben um spezielle Bereiche wie: Ticketsystem an das Inventarisierung, Wissendatenbank, ERP, Kanban etc. angebunden sind.

    0
  3. Vieles habe ich auch davon versucht. Mein Chef hat viel selbstgehosted ausprobiert, doch war nicht mit vielen zufrieden.
    Aktuell ist es nur Zammad. Was ich noch machen will ist Zabbix und i-doit. Könntest du Mal ein bisschen mehr über i-doit erzählen und wie ihr es nutzt? Arbeitest du mit Ansible auch an den Windows Maschinen? Nutzt du ein RMM?

    0
    1. Was möchtest du denn genau wissen? i-doIT hat gute Anleitungen wie man erfolgreich seine Infrastruktur inventarisieren kann. Ich nutze die vier im Grunde so:

      MKDocs: Das was man früher klassisch in Word Files gelagert hat und die Schriftliche/Fließtextdokumentation ist. Noch dazu ist es eine Anleitungsdatenbank für Kleinigkeiten

      i-doIT: Die Open, nur das AddOn für die API installiert um eine App zu nutzen. Dort sind wir logisch vorgegangen, ein Beispiel:

      • Da steht ein Server im Eck
      • Server hat einen Hersteller -> Anlegen
      • Server hat ein Modell eines Herstellers -> Anlegen
      • Server hat eine SN -> Anlegen
      • Server gehört -> Anlegen
      • Server hat einen Standort
      • Deutschland -> Anlegen
      • Bundesland -> Anlegen
      • Stadt -> Anlegen
      • Strasse -> Anlegen
      • Gebäude -> Anlegen
      • Ebene -> Anlegen
      • Büro -> Anlegen
      • Server hat ein Host-OS -> Anlegen
      • Host-OS hat einen Key -> Anlegen
      • Host-OS hat eine Lizenz -> Anlegen
      • Server hat eine IP -> Anlegen
      • IP hat ein Subnet -> Anlegen
      • Subnet ist Büro/Gebäude zugeordnet
      • usw.

      Wir haben mit den dümmsten Basics wie Standorten und Büros angefangen und danach erst die “echten” Assets eingepflegt. Erwarte das nicht in 6 Monaten als lauffähig. Das braucht Zeit und mehrere Prozesse für Lifecycle-Management, Homeoffice (generell bewegliche Assets) usw. Da gibt es kein Schema F was ich jemandem Raten kann, das ist zu stark vom Unternehmen und den Freiheiten der IT abhängig.

      Ansible darf durchaus an die Windowskisten. Muss es. Ein RMM als solches haben wir nicht, das Gespann aus GPO’s und Ansible reicht. Warum sollte ich da noch ein SCCM reinsetzen und zwei “Konfiguratoren” pflegen, warten und auch noch bezahlen. Ansible kann auch Windows, wenn es etwas nicht kann dann kann es das im Playbook mitgegebene Powershell-Skript.

      Kleiner Hinweis: Als ich das letzte mal geschaut habe konnte i-doIT kein Zabbix, nur check_mk. Falls du Doppelpflege vermeiden willst nutze check_mk. Irgendwann verwaltet man sich zu Tode, die Stunde Assets anlegen, verbringe ich lieber auf der Couch im Büro 🙂

      Edith: Es kommt natürlich auch darauf an wie Stark ein IT Team ist. Nicht nur die Zahl der Köpfe sondern auch wie die Skills so sind. Für mich als Einzelkämpfer in drei Unternehmen war relativ schnell klar das ich einen Multiplikator für meine Arbeit brauche, es wurde Ansible. Kein Bock 40 Windows-VM’s händisch zu updaten. Falls du einen Beratungstermin brauchst, melde dich übers Kontaktformular

      2
    2. Naja open-source lebt ja vom: entweder selbst anpassen oder ueber den service sich etwas passendes zuschneiden zu lassen.
      Installieren und alles wunderschoen ist in den aller seltensten Faellen so.
      Schau Dir einfach mal KIX17 an oder KIX18, da ist ne Menge drin.
      Ne I-doIT Schnittstelle ist da kein Problem.
      Die gibts auch als onpremise

      0
  4. Herzlichen Dank für diesen interessanten Artikel!

    Einen Aspekt würde ich noch gerne ergänzen: den unbeschränkten Zugriff auf die eigenen Daten. Ich arbeite an der Schnittstelle von wissenschaftlicher Forschung und der IT und konnte hier beobachten, dass v.a. in den Geisteswissenschaften Daten häufig aus purer Unwissenheit proprietärer Software anvertraut werden und man sich an ein System und dessen Beschränkungen fesselt. Proprietäre Software ist dann nur zu einem bestimmten Grad an die individuellen Anforderungen anpassbar. Das führt dazu, dass die Daten mit aller Gewalt in ein unpassendes Modell gepresst und am Ende nur suboptimal abgebildet werden. Was noch viel schlimmer ist: In vielen Fällen hat man überhaupt keinen Zugriff auf die Daten, die die Grundlage der eigenen Forschung darstellen, weil sie in irgendwelchen Datenbanken versauern, auf die man aus „Sicherheitsgründen“ – so die Hersteller – keinen Zugriff hat.

    Neben dem wissenschaftlichen Datenmanagement begegnet man diesem Locked-in-Syndrom auch in anderen Bereichen, beispielsweise bei Bibliothekssystemen: Hat man sich hier für einen Anbieter entschieden (so viele gibt es auf diesem Markt nicht), ist es beinahe unmöglich, mit seinen Daten zu einem anderen Anbieter oder gar zu quelloffener Software zu wechseln. Der Hersteller hat einen quasi in Geiselhaft genommen: Will man seinen Bibliotheksbestand exportieren, fehlt die Hälfte, wenn man hier allgemein kompatible Formate (z.B. MARC21-XML) wählt. Die gesamte Bibliothek, also alle Werktitel mit Exemplaren und Signaturen, wird nur im proprietären Format exportiert. Hat man hier keine entsprechenden Kenntnisse, um die Informationen per Skript aus dem proprietären Format in ein allgemeines zu überführen, zahlt man brav jährlich die (alles andere als günstigen) Lizenzen und ist dem Hersteller vollkommen ausgeliefert. Dass diese proprietären Verwaltungsprogramme oftmals alles andere als ideal sind und freie Softwarelösungen, beispielsweise das großartige Projekt „Koha“, mehr Features und vor allem einen angenehmeren Arbeitsworkflow bieten, bleibt einem verschlossen. Vielleicht ist diese Unwissenheit letztendlich aber auch besser, da man ja sowieso einem Hersteller ausgeliefert ist. 😉

    4
  5. Danke für die tiefen Einblicke in eine Welt, die mir im Alltag eher verborgen bleibt. Sehr interessant.
    Vieles von dem was du schilderst, kann ich aus meinem Alltag als Anwender bestätigen. Ich muss auf der Arbeit leider auch mit einem Win Rechner und den damit verknüpften Anwendungen aushalten.
    Das fängt leider schon an den Schulen an. Bei meinem Sohn nutzen sie z.B. LibreOffice und diverse andere Software Lösungen die auf offenen Lösungen aufsetzen. Bei meiner Tochter an der Schule propagieren sie MS Office und lassen LibreOffice notgedrungen zu. Ich habe hier zu Hause echt Pionierarbeit zu leisten und das nur, weil es in der Schule versaut wird.
    Anders herum, wird z.B. in unserer Firma (Konzern mit ca. 64.000 Mitarbeitern) auch Lösungen wie OpenProject eingesetzt.
    Wir nutzen weiterhin z.B. für Simulationen Mainframe Systeme mit RH.
    Wen es nach unserer lokalen IT und teils auch globaler IT ginge, dann würden offene Lösungen öfters eingesetzt werden. Aber leider gibt es eben noch den Kunden.

    1
    1. Ich haue mal noch einen raus: In unserer Firma, zumindest lokal weiß ich das, werden Speichersysteme entsorgt, weil der Hersteller keinen Support mehr leistet und damit Zertifizierungen nicht mehr vorhanden sind. Die HW ist dabei tadellos iO. Da wurden sogar noch vor kurzem Erweiterungen gekauft. Wir sprechen über Beträge im Wert von um die 200.000€.
      Da werden Tonnenweise iPhones mechanisch zerstört, weil die Geräte sich nicht vernünftig und gemäß diversen Anforderungen, löschen lassen.
      So viel zum Thema proprietäre Systeme. Davon gibt es leider zu viele Beispiele und das tut jedem vernünftigem IT-ler in der Seele weh.

      1
      1. Von verbarrikadierten Storagesystemen kann ich auch ein Lied singen. SAN Hersteller sind hier ganz vorne mit dabei “billige” Platten zu kaufen, neue Firmware draufzuschreiben und für den 6-fachen Preis zu verkaufen.

        Wer hätte es gedacht, nur die mit spezieller FW funktionieren am Ende auch, obwohl die HW exakt die selbe ist.

        Warum man iPhones zerstört erschließt sich mir nicht. Hat da nicht das BSI vor kurzem was Zertifiziert? Nicht mal in den Banken haben wir die Dinger zerstört da bei einem Restore via DFU-Modus der Decryptionkey und der gesamte Speicherbereich gelöscht wird.

        0
        1. Lt. lokaler IT konnten die Daten auf dem Sicherheitschip nicht 100% gemäß geltender Anforderungen, gelöscht werden. Die iPhones selber mussten wegen nicht mehr Kompatibilität zu aktuellem OS Upgrade weichen. Mehr kann ich leider dazu auch nicht sagen. Finde das allerdings traurig was da getrieben wurde. Ausgemusterte Rechner werden allgemeinnützigen Organisationen, Schulen, Hilfsbedürftigen, etc. zugeführt. Das ist für mich eine gute Sache und so sollte das auch sein.

          1
  6. Sehr interessant.
    Und schön zu sehen, was mit OSS möglich ist.

    Es zeigt sich aber auch, warum es eben häufig keine OSS-Lösung wird.
    Die Systemhäuser “beglücken” einen eben einfach mit was und dann heißt es, friss oder stirb – zumal da auch nicht immer die hellsten Leuchten sitzen.
    Ein Beispiel aus der Apotheke von vor gerade mal 2,5 Jahren: Auf dem Server, der gleichzeitig auch ein Arbeitsplatz für die kaufmännischen Angestellten ist 🤦, lief ein Internet Explorer – nicht mal auf dem letzten Patchlevel.
    Einer unserer Großhändler hat ein Web-Portal für Retouren, Rechnungen, spezielle Bestellungen etc., das 2020 – man glaubt es kaum – NICHT mehr an den Internet Explorer angepasst wurde, sondern sich halt an Standards hält.
    Die Frage vom Support, als ich das Problem schilderte: Warum programmieren die denn ihre Seite auch so, dass die auf dem IE nicht läuft?
    Aber aufgrund von Richtlinien durfte dann auch kein anderer Browser installiert werden – danke.
    Da hatte im Vorhinein eben niemand Lust, sich Gedanken zu machen, sondern es wurde halt was genommen, was da war und dann war das so.

    In Bezug auf das OS bin ich der Meinung, dass man Nutzern schon “zumuten” kann, Linux zu nutzen. Denn es dient dem Nutzer ja nur als Starter für Programme und Dateiablage. Darin unterscheidet es sich nicht besonders von Windows – und vermehrt haben die Leute ja auch Applegedöns – aber z.B. stark von Android und iOS.
    Und einige kennen ja vielleicht ältere Windowsversionen, aber Windows 11 z.B. sieht ja doch wieder sehr anders aus.
    Ich muss ja auch z.B. mit dem Kassensystem zurechtkommen, das mein Arbeitgeber halt gerade hat – andererseits sehe ich im Normalfall nicht, welches OS darunter werkelt.

    MS-Office ist tatsächlich ein leidiges Thema, insbesondere weil Excel so missbraucht wird. Allerdings würde ich mich nicht drauf verlassen, dass diese Horror-PEPs auch auf jedem Excel gleich aussehen.
    Gilt genauso für Dokumente, die nicht als PDF verschickt werden können. Zu Uni-Zeiten habe ich für Teamarbeiten, z.B. Versuchsprotokolle und Vorträge, entweder an der Uni einen Rechner mit Office benutzt oder über Remote Desktop von zuhause eben einen solchen benutzt.
    Andere hatten Office aber in anderen Versionen. Das zusammenbauen der einzelnen Protokollteile hat dann regelmäßig zu Problemen geführt, weil eben auch die Worddokumente oder Exceltabellen mit Versuchsdaten NICHT auf allen MS-Officen gleich aussahen – an PowerPoint will ich gar nicht mehr denken.
    Halte ich daher für ein Scheinargument.
    Und LO kann ja Dokumente nicht nur als .odt abspeichern, sondern eben auch als .doc, .docx.

    Das MSO-Dilemma wird sich aber immer weiter fortsetzen, weil eben immer darauf rücksicht genommen wird.
    Gut, man ist ja auch auf Kunden angewiesen und dann macht man das halt.

    1

Kommentar hinterlassen