Die Frage nach ständig brandneuen Systemen

Systeme, deren Leistungsfähigkeit sich stets am Puls der technischen Machbarkeit befindet, sind für viele Firmen eine Notwendigkeit. Schlicht, weil nur die jeweils leistungsfähigste IT das maximal Mögliche liefern kann. Doch gerade beim Thema Hardware – allerdings teilweise ebenso beim Thema Software – hat eine maximale Aktualität oftmals unterwünschte Nebenwirkungen in Form einer erhöhten Fehleranfälligkeit. Unter Gamern gibt es die goldene Regel „Never play on Patch-Day“; spiele niemals an Tagen, an denen Updates implementiert werden. Ein Grund dafür: Häufig werden solche Patches veröffentlicht, obwohl sie noch nicht gänzlich ausgereift sind. Entsprechend kann es im Spiel zu verschiedensten Problemen kommen.

Die dahinterstehende Denk- und Handlungsweise lässt sich problemlos auf das gesamte IT-Feld übertragen, denn:
 

  • Hard- und Software werden mit jeder Leistungserhöhung komplexer und somit bereits aus statistischen Gründen fehleranfälliger.
  • In vielen IT-Unternehmen wird aus finanziellen Gründen nicht so sorgfältig auf ausentwickelte Produkte/Updates geachtet, wie es geboten wäre. Dadurch steigt die Fehleranfälligkeit weiter.
  • Treten bei einem brandneuen Produkt Fehler auf, so müssen Unternehmen erst einmal davon Kenntnis bekommen, müssen sie Daten über das Ausmaß sammeln. Bereits das kann Tage dauern, in denen die brandneue IT nicht vollumfänglich zur Verfügung steht. Weitere Zeit verstreicht, um den Fehler zu beheben.
  • Speziell bei Hardware machen zudem die heutigen Produktionsmethoden Schwierigkeiten. Bis Ersatz gefertigt ist, können sogar Monate vergehen.
     

Zwar gibt es in der Tat für viele Unternehmen keine Alternative zu stets neuer IT. Allerdings sollten gerade deshalb sowohl Hard- als auch (gänzlich neue, nicht bloß geupdatete) Software wenigstens einige Wochen auf dem Markt sein, bevor sie ins Unternehmen geholt werden. In dem Fall sind wenigstens typische Startschwierigkeiten bereits bekannt und häufig sogar schon behoben.

IT-Spezialist Jörg Schamberg vom Vergleichsportal Verivox fasst es folgendermaßen zusammen:

Quotation mark
Die Nutzung neuer IT, sei es Hard- oder Software, hat für Unternehmen als Early Adopter Licht- und Schattenseiten. Der geplante Wettbewerbsvorteil in Form von mehr Leistung der IT-Systeme oder neuen Software-Features kann sich als fatale Fehlentscheidung erweisen. Es fehlen Erfahrungswerte in Hinblick auf die Zuverlässigkeit der neuen IT-Komponenten. Neu ist nicht gleichbedeutend mit ausfallsicher. Erst einige Wochen nach dem Marktstart liegen in der Regel ausreichend Informationen zur Stabilität von Hardware in der Praxis vor. Entdeckte Fehler sind dann oft schon behoben.

Nebenbei hat diese Vorgehensweise noch einen Vorteil: Häufig sind die Preise bis dahin bereits etwas gesunken. Das Unternehmen bekommt also eine insgesamt bessere, immer noch neue IT, jedoch zu günstigeren Konditionen.

 

Das Thema Internet und Cloud-Computing

Das Prinzip XaaS oder „Anything as a Service” ist heute in der IT weit verbreitet. Meist basiert es auf Cloud-Diensten, auf die über das Internet zugegriffen wird.

Der Vorteil: Maximale Leistungsfähigkeit ohne eigene Anschaffungskosten – und nebenbei professionelle Betreuung, die ebenfalls extern abläuft. Das hat fraglos Vorteile für die digitale Resilienz. Schlicht, weil hinter den Anbietern Profis stehen, die nichts anderes tun, als dauerhafte Funktionsfähigkeit zu gewährleisten.

Die Schwierigkeit liegt jedoch in der Distanz zu diesen Dienstleistern. Wohl schon jeder Leser dürfte zeitweilig ohne Internetverbindung gewesen sein, weil irgendwo auf der Welt beispielsweise ein Baggerfahrer einen Fehler machte, ein PKW einen Unfall baute oder ein Blitz einschlug.

Geschieht derartiges, fällt also die Internetverbindung des eigenen Unternehmens oder des Cloud-Anbieters aus, dann verkehren sich die Stärken Cloud-basierter Resilienz ins Gegenteil. Dagegen sollten Firmen mehrere Dinge tun:
 

  1. Es gibt idealerweise zwei dauerhafte Internetanbindungen. Konkret bei unterschiedlichen Providern und im allerbesten Fall sogar auf zwei unterschiedliche physische Arten angebunden; etwa eine Hauptverbindung via Glasfaser mit einer Notfallverbindung über Kupferleitungen.
  2. (Sollte dies nicht möglich sein, so ist es unbedingt ratsam, zumindest auf eine Mobilfunk-basierte Notversorgung zu setzen. Nötig ist dazu ein Tarif mit sehr hohem Datenvolumen in Verbindung mit SIM-fähigen WLAN-Routern).
  3. Es sollte stets inhouse auf Servern lokale und ständig aktuelle Kopien der wichtigsten Datensätze, Programme etc. geben. Konkret das, was im Normalbetrieb über die Cloud-Dienste abgewickelt wird.
     

Auf XaaS verzichten sollten Firmen keineswegs. Dafür bietet diese Herangehensweise, wie erwähnt, zu viele eigene Stärken bezüglich Ausfallsicherheit. Die gesamte Handlungsfähigkeit allein auf diese Technik aufzubauen wäre indes gefährlich. Mindestens eine niedrigschwellig nutzbare Rückfallebene sollte deshalb immer vorhanden sein.
 

Passende IT versus lediglich preisgünstige IT

Ein wichtiger Faktor, der bei fast allen technischen Anwendungen darüber bestimmt, wie hoch ihre Ausfallwahrscheinlichkeit ist, ist das Zusammenspiel von Qualität und dem tatsächlichen Leistungsbereich der Nutzung – verglichen mit dem Auslegungs-Leistungsbereich.

Ein nicht hinreichend dimensionierter PC-Lüfter beispielsweise muss häufiger laufen, höhere Drehzahlen entwickeln. Er arbeitet also dauernd an seinem Leistungsmaximum. Schon ein High-End-Lüfter würde dadurch stark belastet. Wurde das Bauteil jedoch ausschließlich mit einem Fokus auf den Preis erworben, dann steigt das Schadenspotenzial durch das anspruchsvolle Nutzungsprofil enorm an.

Hierbei handelt es sich fraglos um ein ausschließliches Hardware-Problem. Da zeitgenössische Unternehmens-IT jedoch aus so vielen Hardware-Bausteinen besteht, gibt es zahlreiche Optionen, um durch die Wahl nicht ganz passender Systeme viele Gefahrpotenziale zu verursachen. Die Lösung dagegen:
 

  1. Grundsätzlich auf professionelle IT setzen, nicht die Consumer Class.
  2. Auf Qualität setzen, nicht auf den geringstmöglichen Preis.
  3. Alle Systeme für die realistisch zu erwartenden Anforderungsprofile auslegen, idealerweise mit Leistungsreserven; also etwas überdimensioniert.
     

All das bedingt überdies, sich nicht zu stark auf den Rat von Verkäufern. Eine unternehmerische IT sollte durch (neutrale) Profis konzeptioniert und idealerweise ausgesucht und aufgebaut werden. Gerade in kleinen Firmen, Startups etc., wo es keine eigenen IT-Experten gibt, ist dies sehr gut angelegtes Geld, das Ausfälle mit oft mehrfach höheren Kosten effektiv verhindern kann.
 

Ausfallsicherheit durch Ersatzteilbevorratung

Eine vollends auf die tatsächlichen Ansprüche hin konzipierte IT ist zwar ein wichtiger Schlüssel, um Ausfallwahrscheinlichkeiten zu minimieren. Gänzlich ausschließen lassen diese sich jedoch niemals.

Hier kommt nun bei betrieblicher IT ein wesentlicher Faktor hinzu: Was die Bedeutungsschwere von Ausfällen anbelangt, so gibt es nur recht geringe Abstufungen zwischen den einzelnen IT-Komponenten. Wenn etwa das Netzteil am Rechner des CEO ausfällt, dann ist dieser nicht weniger „arbeitsunfähig“ als würde beispielsweise eine Festplatte im Firmenserver ausfallen. Diese Denkweise gilt tatsächlich für alles zwischen HDMI-Bildschirmkabel und ganzen Server-Racks.

Nun stellt zwar jedes aktuell nicht verwendete Bauteil totes Kapital dar, ist also aus streng betriebswirtschaftlicher Sicht suboptimal. Angesichts der enormen Schwierigkeiten, die der Ausfall von teilweise Cent-Artikeln verursachen kann, sollten Unternehmen jedoch keinesfalls bei der Bevorratung von Ersatzteilen sparen. Dies beginnt bei Ein- und Ausgabegeräten zwischen Maus und Bildschirm. Es erstreckt sich über Bausteine wie Router, Netzteile und Anschlusskabel und es sollte bei Festplatten und ganzen Notebooks noch nicht enden.

Tipp: Werden Festplatten und ganze Computer bevorratet, sollten diese idealerweise bereits fertig aufgesetzt und mit den wichtigsten Softwares bestückt eingelagert werden

Jedes bevorratete Teil kann die Schwere eines Ausfalls deutlich vermindern. Schlicht, weil es nur nötig ist, in ein Inhouse-Regal zu greifen, anstatt womöglich lange Versorgungsketten zu bemühen. Naturgemäß muss nicht jeder einzelne IT-Baustein des Hauses als Ersatzteil bevorratet werden. Wenn jedoch wenigstens diejenigen Stücke mit größter Ausfallwahrscheinlichkeit und/oder schwerstem Impakt doppelt vorhanden sind, kann die Resilienz nur profitieren.
 

Please accept marketing-cookies to watch this video.

Die oft vernachlässigte IT-Wartung

Was die IT-Pflege anbelangt, so gibt es in vielen Häusern eine beträchtliche Schieflage. Während Server und ihre Subsysteme oft penibel betreut werden, erfahren die Endgeräte häufig keine weitere Pflege jenseits von Software-Updates.

Zwar mag beispielsweise ein Notebook tatsächlich nicht so viel Wartung benötigen wie ein Server-Rack. Wird jedoch etwa das regelmäßige Entstauben des Geräteinneren konsequent vernachlässigt, so kann selbst das wenig pflegeaufwändige Notebook durchaus irgendwann Schaden nehmen; in diesem Fall durch Überhitzung.

Heißt: Sämtliche IT sollte regelmäßig professionell gewartet werden. Nicht nur auf systemischer Ebene, sondern Hardware-seitig. Ein äußerst wichtiger Schlüssel hierzu ist wenigstens eine sachkundige Person im Unternehmen – egal, wie klein das Team sein mag. Denn eine solche Person steht jederzeit zur Verfügung und kann dadurch niedrigschwellig agieren.

Nicht zuletzt kennt ein solcher Profi sämtliche Feinheiten der bei seinem Arbeitgeber genutzten IT, wohingegen diese für externe Dienstleister typischerweise nur ein Kundensystem unter vielen ist.
 

Vorbereitung ist alles: Disaster Recovery und Business Continuity

Gerade noch lief ein Computer einwandfrei. Urplötzlich jedoch reagiert er nicht mehr, dann wird der Bildschirm schwarz. Ein Neustartversuch endet in einer Fehlermeldung. Ein ganz typisches Problem, das tagtäglich in Unternehmen vorkommt. Allerdings gibt es längst nicht in jedem Unternehmen detaillierte Pläne, was in einem solchen Fall zu tun ist.

Das bringt uns zu zwei wichtigen Themen, die unbedingt umfassend angesprochen werden sollten – denn nur dann lässt sich wirklich von einer resilienten IT sprechen:
 

  • Business Continuity: Hierunter werden sämtliche organisatorischen Prozesse zusammengefasst, die im Fall von verschiedensten IT-bezogenen Szenarien zumindest einen Notbetrieb gewährleisten. Etwa: Welche kommunikativen Schritte sind im Fall eines Totalausfalls der Unternehmens-Website zu gehen? Oder: Welche Politik verfolgt das Unternehmen im Fall von Hacker-Angriffen oder umfassenden „Shitstorms“ – und wer ist in welchem Fall der Verantwortliche?
  • Disaster Recovery: Sie ergänzt die organisatorische Business Continuity um einen technisch-physikalischen Ansatz. Etwa: Welche Datenbanken müssen nach einem Schaden zuerst wiederhergestellt werden? Welche Systeme müssen im Fall der Fälle primär repariert werden?
     

Im Klartext also detaillierte Pläne für idealerweise sämtliche wahrscheinlichen und unwahrscheinlichen digitalen Notfallszenarien, aus denen minutiös hervorgeht, wer in welchem Fall wie zu handeln hat.

Aufgrund der Komplexität und enormen Bedeutung für die Fortführung der Geschäftsprozesse sollte beides sollte ebenfalls, wenigstens für die grundsätzliche Planung, unter Hinzuziehung externer Profis durchgeführt werden.

Das alles mag zwar aufwendig sein und Geld verschlingen. Wenn allerdings ein solcher Notfall eintritt – und das wird er – kann derjenige Unternehmer lächeln, der vorgesorgt hat.