Und welchem Anbieter einer Linuxdistribution bzw. welchem Entwicklerteam vertraust du genug, um ihm die persönlichen Daten ALLER Menschen der BRD an zu vertrauen? (
https://de.wikipedia.org/wiki/Linux-Distribution)
Was garantiert dir, dass dieses System "sicher" ist?
Bist du gewillt zu Gunsten des Unterhalts, der für das notwendige IT-Teams auf Investitionen in deiner Umgebung zu verzichten?
Welcher Linux-Distribution traust du zu, für >10 Jahre als solide Software-Basis für staatliche und kommunale Einrichtungen zu dienen?
>Achtung: große Wikipedia-Grafik<
Das Behörden-Linux, das in München verwendet wird IST bereits ein Zusammenschluss der Landeshauptstadt und des Freistaates.
Wine wurde bereits ausprobiert, hat sich aber für den Behördendienst (der ja zwangsweise hochverfügbar sein muss) als viel zu instabil erwiesen. Ein einziges Beispiel einer Software, die unter einer (welcher?) Linux-Distribution stabil läuft, ist leider keine Grundlage für eine tiefgreifende Systemumstellung. Als Gegenbeispiel: Auto-CAD läuft nicht unter Linux (keine mir bekannte Distribution lässt das zu).
Um das System langfristig betreiben zu können sind nach Angaben eines beteiligten Programmierers geschätzt ca. weitere 2-300 zusätzliche Planstellen für hochqualifizierte Programmierer und etwa 100 weitere Systemverwalter nötig. Bei einer Ausweitung auf ganz Bayern steigert sich das voraussichtlich nochmal um gut das Doppelte. Eine Ausweitung auf den Bund ebenfalls.
Was das an Zusatzkosten erzeugt kannst du dir selber ausrechnen.
Dabei gilt jedoch weiterhin: Niemand kann eine Garantie für die Sicherheit des Systems geben, da ständig Angriffe auf das Behördennetz versucht werden und es nur eine Frage der Zeit ist, bis eine neue Sicherheitslücke gefunden wird. Zudem kann auch der Sourcecode des Basis-Linux nie komplett durchleuchtet werden (da wäre es billiger, direkt ein eigenes Betriebssystem zu erstellen).
Das Problem bei einer "Insel-Lösung" ist immer, dass lediglich Angriffe erkannt werden können, die auf den "überwachten Kanälen" stattfinden. Hat die Software eine sehr breite User-Basis ist die Wahrscheinlichkeit höher, dass ein unerwünschtes Programm, das diese "Kanäle" umgeht zufällig gefunden wird. Auch die Entwicklung eines entsprechenden Patches gestaltet sich dann einfacher.
Das Problem ist hier, dass es schlicht unmöglich ist, jedes verarbeitete Bit zu kontrollieren. Es wird also immer wieder findige Angreifer geben, die ein Schlupfloch finden. Angriffe in der IT laufen ja nicht wie im Film kurz und gut sichtbar ab, sondern ziehen sich teils Jahre, von der Infektion des ersten Rechners, bis zur Entdeckung. Dabei werden Daten oft in winzigen Paketen versandt, die praktisch nicht aufspürbar oder erkennbar sind. Als Beispiel: Kein Privat-User wird merken, ob beim E-Mail-Versand einige hundert Byte zusätzlich übertragen werden, die nicht zur Nachricht gehören und ggf. sogar in diese eingebettet sind. Werden nun täglich millionenfach E-Mails versandt und empfangen (wie bei Behördennetzen üblich), summiert sich die Gesamtübertragung recht schnell zu einem gigantischen Datenleck.
Inzwischen gibt es auf den Proxy-Servern der bayerischen Behörden sehr gute Erkennungs-Algorithmen gegen solche "Piggyback-Pakete", aber ich denke das Beispiel zeigt, wo der Unterschied zum Privatuser liegt.
Dazu kommt, dass kürzlich erst eine Sicherheitslücke im Microcode von Prozessoren entdeckt und ausgenutzt wurde. Darauf hat nicht einmal das Betriebssystem Einfluss.
Wo zieht man die Grenze?