ProTechNet

ProTechNet

Menü

Notfall

Vorsorge ist der erste Schritt sich auf einen Notfall vorzubereiten

  1. Hauptdokument
  2. Hauptdokument MS Office / OpenOffice / ERP / 3CX
  3. Audit Office / ERP / 3CX
  4. Buissnes Impact Analyse
  5. Leitlinie Office / ERP / 3CX
  6. Notfallhandbuch
  7. Notfallvorsorgekonzept Office
  8. Risikoanalyse
  9. Schulung und Sensibilisierung
  10. Strategieentwicklung
  11. √úbung und Test Office / ERP / 3CX
  12. Leitfaden Office / ERP / 3CX

Microsoft Ausfall 25 Januar 2023

Microsoft hat Informationen zu den Ursachen f√ľr den Ausfall seiner cloud-basierten Dienste ver√∂ffentlicht. Wegen eines Ausfalls im Bereich der Azure Cloud von Microsoft konnte am Mittwochmorgen, den 25. Januar. Zwischen 08:05 Uhr und 13:43 Uhr unserer Zeit stellten Kunden am Mittwoch Konnektivit√§tsprobleme fest, die sich in hohen Latenzen, Paketverlusten und Timeouts beim Zugriff auf Azure-Cloud-Ressourcen niederschlugen. Eine Vielzahl von Nutzenden nicht auf Applikationen und Dienste zugreifen, die √ľber diese Plattform gehostet werden. Darunter unter anderem das weit verbreitete Kollaborationswerkzeug Teams, aber auch andere Microsoft 365 Anwendungen wie Outlook, Word, Excel funktionierten in deren Cloud-basierenden Varianten nicht.

Ein Grund mehr aus der Claud zu bleiben.

cloud
cloud

Einmal Cloud und wieder zur√ľck!

Die Faszination hält an, auch von einer Umkehrung des Trends kann nicht die Rede sein, aber ein wachsendes Selbstbewusstsein der Kunden, manch negative Erfahrung dort und neue Technik hier, aber auch der Trend zu IT- und Datenhoheit, stoppen die Reise recht vieler Unternehmen mit einem One-Way-Ticket. 

Nachdem Analysten den vermeintlichen Tugenden der¬†Cloud-Migration Jahr f√ľr Jahr bis zum √úberdruss das Loblied sangen, stellen viele Organisationen nach und nach fest, dass ihnen mit dem eigenen¬†Rechenzentrum¬†doch gar nicht so schlecht gedient war. Zum einen hatten sie hier die Kosten unter Kontrolle ‚Äď anders als in der Cloud. Zum anderen war die Performance besser ‚Äď und nebenbei fast unfehlbar, verglichen mit der Cloud. Was ihr bei der Cloud also bekommt, sind nicht die CPU Ressourcen, sondern priorisierte Prozesse, dazu noch versteckte Kosten wie etwa Laufzeit, Segmentierung und Routing um mal ein paar zu nennen.

Das eigene Rechenzentrum ist skalierbar und l√§sst sich unterschiedlichem Rechenbedarf in einer von Services gepr√§gten Inhouse-Umgebung anpassen. Die Datenverarbeitung im lokalen Netz hat zwei Vorteile: Alle Daten bleiben in einem kontrollierbaren Raum und die IT-Ressourcen werden optimal eingesetzt und wir m√ľssen uns nicht fragen, wer die Datenhoheit hat.

Aufgrund der COVID-19-Pandemie, welchen Crash bringt uns die Zukunft? Wirtschaftskrieg, sogar ein Handelsembargo? Besch√§digte Seekabel aus anderen L√§ndern? Abgest√ľrzte Satelliten? Auf jeden Fall t√§ten Europa und europ√§ische Unternehmen gut daran, sich auf Alternativen zu konzentrieren, um ihre Abh√§ngigkeit von US-Konzernen zu verringern, wie sagte Trump:¬† America First!

Ist die Cloud eine bessere Alternative?

Im März 2021 ist eines von vier Rechenzentren des großen Cloudanbieters OVH in Straßburg abgebrannt. Dabei wurden vier Serverhallen komplett zerstört. Einige Kunden des Unternehmens hatten keine Backup-Dienste gebucht und auch keine Recovery-Pläne erarbeitet. Diese Unternehmen haben durch den Brand viele Daten verloren und riesige Kosten und Verluste zu verzeichnen.

Die Betreiber von Rechenzentren haben weiterhin mit Stromausfallproblemen zu k√§mpfen. Bei den √∂ffentlich gemeldeten Ausf√§llen kommt es immer h√§ufiger zu l√§ngeren Ausfallzeiten. Was auch mit der Komplexit√§t der Netzwerke zu tun hat, Vodafone und Telekom z.¬†B. damit w√§re der Vorteil bei einer internen L√∂sung zu finden, gerade bei Firmen, die √ľber mehrere Standorte verteilt sind, spricht es daf√ľr Standortserver einzurichten. Abteilungen k√∂nnen weiter arbeiten und sind nicht voneinander abh√§ngig. Das Backup erfolgt in der Zentrale, raucht ein Abteilungsserver ab, setzt der Mitarbeiter den Ersatzserver auf, f√§hrt r√ľber und tauscht mal eben aus und schon kann die Abteilung weiter arbeiten.

Die unbegrenzte Sichtbarkeit der eigenen IT On-premise schuf zudem auch noch Planungssicherheit. Und in Sachen Cybersicherheit hat das eigene Rechenzentrum ohnehin schon seit jeher die Nase vorn. Die Cloud-Anbieter sind Auftragsverarbeiter, die ihre Dienste gegen Geld anbietet. Er erh√§lt aber nicht nur dein Geld und deine Dokumente, sondern auch deine Nutzerdaten, Diagnosedaten, Trackingdaten etc. - und da f√§ngt das datenschutzrechtliche Problem an, denn du hast kaum eine Kontrolle dar√ľber, was der Dienstleister mit deinen Daten macht, daran √§ndert sich auch nicht viel, wenn du mit dem Dienstleister (wie vorgeschrieben und doch nur selten umgesetzt) einen Vertrag √ľber die Auftragsdatenverarbeitung abschlie√üt.

Im EU-Raum oder in Deutschland mag die Speicherung von Dokumenten auf fremden Servern rechtlich noch relativ gesichert sein, aber was, wenn der Anbieter seinen Service im US-amerikanischen Raum (und nicht nur dort) anbietet, wo man sich um Datenschutz nicht so sehr viele Grenzen setzt?¬†Also geht es jetzt doch aus den Wolken zur√ľck in die eigenen vier W√§nde!

Ich habe mir das auch ein halbes Jahr bei einer der großen Firmen anschauen können und habe mich wieder auf das Altbewährte besonnen.

Ich bin aber nicht abgeneigt geben √ľber Innovationen wie Docker, Grafana oder Proxmox sowie Warenwirtschaftssystem Systeme ERP von HYREKA es gibt immer noch kleine Unternehmen, die einen Service anbieten, die Microsoft und Co nicht leisten k√∂nnen.

Hinzu kommen die Kosten f√ľr Schulungen in den Cloud-Anwendungen, Zeit und Arbeitskraft, die dort erst einmal investiert werden k√∂nnten, auch gleich in die laufende IT flie√üen. Hier sollten Alternativen zu Office 365 gesucht werden wie Group Office und sich somit noch eine Menge Geld sparen l√§sst.

Cloud Ansätze

Muss ich eine Cloud haben oder reicht doch ein Network Attached Storage?

Die Cloud ist Dreh- und Angelpunkt der IT geworden. Reflexartig verschieben IT-Verantwortliche mittlerweile Daten aller Art dorthin. Aber die Cloud kann nicht alles; Network Attached Storage  hat immer noch viele Vorteile.

Wie teuer ist Cloud und was bekomme ich? Also: Es gibt in der Regel keine Vorabinvestitionen f√ľr die Nutzung einer¬†Public Cloud, was gut ist, aber die Betriebskosten wachsen mit den Speicheranforderungen. Ein NAS-Ger√§t hingegen kostet viel bei der Anschaffung, die laufenden Kosten dagegen sind im Vergleich zum¬†Cloud Storage gering. Docker und VM k√∂nnen diese auch und die CPU resource ist hier wesentlich h√∂her als in der Cloud.

5 Euro pro¬†Terabyte¬†(TB) und Monat zu Buche. Die Speicher zeichnen sich bekanntlich dadurch aus, dass die Zugriffe langsam erfolgen ‚Äď was schon mal ein Hindernis f√ľr so manches Unternehmen darstellen kann. Ben√∂tigt man schnellere Zugriffe, steigt der Preis schnell auf √ľber 25 Euro pro TB und Monat an. 12 Monate mal 5¬†‚ā¨ sind 60 ‚ā¨ pro Jahr und bei einer SSD¬†25¬†‚ā¨ mal 12 Monate sind 300¬†‚ā¨ pro Jahr.

Im Vergleich dazu bekommen KMU‚Äôs und Privatanwender Synology DS419 Slim eine typische NAS-Appliance inklusive Chassis und vier ¬†5TB-Laufwerken (Gesamtkapazit√§t also 20 TB) zu einem Preis von knapp √ľber 950¬†‚ā¨ Euro. Im Endeffekt fallen also 45 Euro pro TB an. Da es sich um eine einmalige Zahlung handelt, dauert es nur wenige Monate, bis das NAS g√ľnstiger als die Cloud wird ‚Äď vorausgesetzt, die volle Kapazit√§t wird genutzt. Okay, Strom, K√ľhlung, Wartung und andere laufende Kosten fallen auch noch an, aber im Prinzip wird klar: NAS kann langfristig g√ľnstiger kommen als die Cloud.

Flexibilität vs. Kontrolle

Wie gesehen, kann NAS g√ľnstiger kommen, macht aber unfrei und weniger flexibel ‚Äď ein NAS-System haben Anwender schlie√ülich f√ľr lange Zeit am Hals, die Angebote der Public Cloud k√∂nnen mehr oder weniger schnell gewechselt werden. Internetanschluss hat jedes Haus, mehr oder weniger schnell. Aber wenn es zum Ausfall kommt geht nichts mehr.

NAS-basierte Ans√§tze bieten daf√ľr in der Regel eine gr√∂√üere Kontrolle als¬†Cloud-Archive, einfach, weil sie¬†lokal im hauseigenen Serverraum oder Rechenzentrum stehen. Publik-Cloud-basiertes Storage offeriert jedoch in der Regel ebenfalls eine akzeptable Zugriffsflexibilit√§t sowie ein hohes Ma√ü an Kontrolle, auch wenn keiner wei√ü, wo auf der Welt die Daten liegen, das entbindet aber nicht diese Daten auch zu sichern, auch √ľber eine Verschl√ľsselung muss nachgedacht werden.


Hochverf√ľgbarkeit

Hochverf√ľgbarkeit¬†(englisch¬†high availability,¬†HA) bezeichnet die F√§higkeit eines Systems, trotz Ausfalls einer seiner Komponenten mit einer hohen Wahrscheinlichkeit (oft 99,99¬†% oder besser) den Betrieb zu gew√§hrleisten. Das Gegebensein von¬†Robustheit gegen Benutzungsfehler(vormals als ‚ÄěFehlertoleranz‚Äú bezeichnet) gilt als Grundvoraussetzung f√ľr die Bereitstellung bzw. Verwirklichung von ‚ÄěHochverf√ľgbarkeit‚Äú. Die essenziellen Funktionen eines Systems, das dem¬†Kriterium¬†der ‚ÄěHochverf√ľgbarkeit‚Äú gen√ľgen soll, d√ľrfen nur innerhalb festgelegter Zeiten oder allenfalls minimal zur Hauptbetriebszeit unterbrochen werden.

Voraussetzungen f√ľr hohe Verf√ľgbarkeiten

Generell streben HA-Systeme danach, sogenannte Single-Point-of-Failure-Risiken (SPOF) zu eliminieren (ein SPOF ist eine einzelne Komponente, deren Versagen zum Ausfall des gesamten Systems f√ľhrt).

Ein Hersteller eines hochverf√ľgbaren Systems muss dieses mit folgenden Merkmalen ausstatten:¬†Redundanz kritischer Systemkomponenten fehlertolerantes¬†und¬†robustes¬†Verhalten des Gesamtsystems

Typische Beispiele f√ľr Komponenten, die zum Erreichen einer erh√∂hten Fehlertoleranz eingesetzt werden, sind¬†unterbrechungsfreie Stromversorgungen¬†(USV; engl.¬†uninterruptible power supply,¬†UPS), mehrfache Netzteile,¬†ECC-Speicher oder der Einsatz von¬†RAID-Systemen. Weiter kommen Techniken zur Serverspiegelung oder auch redundante¬†Cluster¬†zum Einsatz.

Je h√∂her die geforderte Verf√ľgbarkeit ist, desto mehr Aufwand muss der Betreiber investieren in:

schnell erreichbares Fachpersonal, Ersatzteilverf√ľgbarkeit, vorbeugende Wartung, qualifiziertes Fehlermeldung und schnelles Kommunikationssystem

Hoch spezialisierte Systeme mit h√∂chsten Verf√ľgbarkeiten sind beispielsweise

die¬†Continuum Serien¬†von¬†Stratusdie¬†Integrity NonStop Serien¬†bei¬†HP, die aus der √úbernahme von¬†Tandem¬†(1997) sowie der¬†Digital Equipment Corporation¬†(1998) √ľber¬†Compaqhervorgegangen sindgenerell Gro√ürechner, z.¬†B. jene dem System z-Serie¬†der Firma¬†IBMFernsprechvermittlungsstellen.

Verf√ľgbarkeit¬†

F√ľr ein System, das 24 Stunden am Tag, an 365 Jahrestagen (24 √ó 365) zur Verf√ľgung steht (8760 Stunden), bedeutet dies: siehe Bild


Hier steht keine Restzeit mehr zur Verf√ľgung. Die Wartung muss daher in der erlaubten Ausfallzeit erfolgen.

Zur Optimierung der Verf√ľgbarkeit kann man unter anderem den¬†Verf√ľgbarkeitsverbund¬†einsetzen.

Systeme, die mit einer hohen Verf√ľgbarkeit (99,99¬†% oder besser) laufen m√ľssen, bezeichnet man als¬†hochverf√ľgbare Systeme.

Kennzahlen der Verf√ľgbarkeit sind

maximale Dauer eines einzelnen Ausfalls¬†(Verf√ľgbarkeit: Ausfallzeit im Jahresdurchschnitt, auch Verf√ľgbarkeitsklasse), Zuverl√§ssigkeit (F√§higkeit, √ľber einen gegebenen Zeitraum hinweg unter bestimmten Bedingungen korrekt zu arbeiten), Fehlersicherer Betrieb¬†(Robustheit gegen Fehlbedienung, Sabotage und h√∂here Gewalt), System- und Datenintegrit√§t, Wartbarkeit (verallgemeinernd: Benutzbarkeit √ľberhaupt), Reaktionszeit (wie lange dauert es, bis das System eine spezielle Aktion ausgef√ľhrt hat),Mean Time to Repair¬†(MTTR, mittlere Dauer der Wiederherstellung nach einem Ausfall),Mean Time between Failure¬†(MTBF, mittlere Betriebszeit zwischen zwei auftretenden Fehlern ohne Reparaturzeit),Mean Time to Failure¬†(MTTF, siehe MTBF, wird jedoch bei Systemen/Komponenten verwendet, die nicht repariert, sondern ausgetauscht werden).

Besteht ein System aus mehreren aufeinander aufbauenden Teilsystemen, ergibt sich die gesamte Netto-Verf√ľgbarkeit aus der Multiplikation der Verf√ľgbarkeitswerte der einzelnen Teilsysteme (Stochastisch unabh√§ngige Ereignisse).¬†
Beispiel:
Eine Anwendung in einem Datacenter hat eine Verf√ľgbarkeit von 99,5¬†% und die zugrundeliegende Leitung eine Verf√ľgbarkeit von 98,5¬†% dann ergibt sich eine Gesamtverf√ľgbarkeit von 98.

Quelle Wikipedia

Notfall, was muss beachtet werden!

IT Ausfallanalyse und warum m√ľssen wir den Ausfall analysieren?¬† Gesch√§ftst√§tigkeit im Unternehmen k√∂nnen, auch wenn nur teilweise Bereiche ausfallen, den t√§glichen Ablauf stark in Mitleidenschaft gezogen werden, die sich in Ausfallzeiten berechnen lassen. Der Notfallplan l√§sst R√ľckschl√ľsse ziehen, wie teurer es der Firma wird. Ob eine Stunde, einen Tag, eine Woche in Mitleidenschaft ziehen kann und mit wie viel Aufwand sich diese Kosten h√§tten minimiert lie√üen. Unter anderem eine Abteilung, die den Versand, Garantie und Reparaturen macht, setzt sich aus 1 Abteilungsleiter, 4 Packer, 3 Elektroniker, 2 Sachbearbeiterinnen zusammen. Der Switch in der Abteilung ist nun ausgefallen, nichts geht mehr f√ľr 2 Tage, bis der neue Switch vor Ort ist, dann berechnet sich die Kosten wie folgt, Stundenlohn mal Zeit mal Personen plus die nicht ausgelieferte Ware macht ~ 3200¬†‚ā¨ an Personalkosten, f√ľr das Geld kann ich mir auch einen Switch in die Ecke legen bzw. die IT hat in ihrer Laborumgebung genau den gleichen Typ wie im Unternehmen √ľberall eingesetzt wird.

Was muss wann wie gemacht werden, wenn es zu einem Ausfall kommt, diese Frage und das Durchspielen der möglichen Ausfälle sind ein erster Schritt diese Sicherheitsanalyse zu erstellen.

Erst zu handeln, wenn es passiert ist, lassen die Kosten in die Höhe schnellen.

√úberst√ľrztes Handeln vermeiden, zust√§ndiges Personal aktivieren, dokumentieren, Daten wieder herstellen, testen auf Funktionen und System wieder aktiv und produktiv in Bereitschaft zu versetzen sollte nicht erst gemacht werden, wenn es wirklich eintrifft.

Die IT sollte viel mehr auch sich die Zeit nehmen den Ernstfall in der Praxis zu testen. Wann sollen wir das denn machen? 

Wann haben wir Betriebsferien oder √ľber welche Feiertage sind unsere Kollegen nicht da, ist hier die einzig richtige Frage.

Zu Beginn sollten wir schauen, wo Bedarf, Pflege und mögliche Verbesserung zweckmäßig sind.

Vorgehensweise

Zu Beginn sollten wir schauen, wo Bedarf, Pflege und m√∂gliche Verbesserung¬†zweckm√§√üig sind. Bedarf ermitteln, Anforderungen festlegen, Bedienungsanleitung schreiben, Ablaufplan erstellen, Testlauf durchf√ľhren, Ergebnisse des Testlaufs auswerten und Verbesserungen einpflegen

Somit bist Du schon mal vorbereitet, wenn etwas passiert.


Befallener VMWare Host 

Ein System wurde befallen, aber ihr m√ľsst unbedingt noch mal an die Daten kommen, ohne das andere Systeme davon befallen werden k√∂nnen.

Das befallene System in eine DMZ ohne Netzwerk Adapter verschieben, die Geräte könnt ihr in der Hardwarekonfiguration der VM entfernen.

In der normalen Umgebung installiert ihr eine neu VM mit allen Aktualisierungen und Virenschutzprogramm.

Herunterfahren und anschließend in die DMZ verschieben, nun die Festplatten des befallenen Systems an die eben verschobene VM einhängen und starten.

Jetzt können die Festplatten mit dem Virenscanner durchforstet werden.

Nach dem alle Viren entfernt wurden, die VM herunterfahren und die eben zugef√ľhrten Festplatten wieder aush√§ngen, aber nicht l√∂schen!

Jetzt k√∂nnt ihr das befallene System wieder starten, da keine Netzwerkkarten vorhanden, k√∂nnt ihr nur Daten √ľber einen Export in eine separaten VM Festplatte durchf√ľhren.

Diese anschließend wieder in den Virenscanner einhängen und scannen.

Daten können inzwischen importiert werden, so habt ihr den erneuten Befall eurer System vorgebeugt.

Garantieren kann man aber nicht daf√ľr, dieses sollte euch mal wesentliche Schritte erl√§utern, um das Risiko so gering wie m√∂glich zu halten.

Volker Eigen
Cookie-Einstellungen
Diese Website verwendet Cookies, um dir ein besseres Surferlebnis zu bieten.
Du kannst sie alle akzeptieren oder die Arten von Cookies auswählen, die du gerne zulässt.
Datenschutzeinstellungen
Wähle aus, welche Cookies du zulassen möchtest, während du auf dieser Website surfst. Bitte beachte, dass einige Cookies nicht deaktiviert werden können, da die Website ohne sie nicht funktionieren würde.
Notwendig
Um Spam zu verhindern, verwendet diese Website Google Recaptcha in deinen Kontaktformularen.

Diese Website kann auch Cookies für E-Commerce- und Zahlungssysteme verwenden, die für das ordnungsgemäße Funktionieren der Website unerlässlich sind.
Google-Dienste
Diese Website verwendet Cookies von Google, um auf Daten wie die von dir besuchten Seiten und deine IP-Adresse zuzugreifen. Zu den Google-Diensten auf dieser Website können gehören:

- Google Analytics
- Google Ads-Conversion-Tracking
- Google Maps
- Google Schriftarten
Datengesteuert
Diese Website kann AddThis verwenden:
- AddThis ist ein soziales Widget, das Benutzerverhalten sammelt und mit Dritten teilt.