Cloud-Computing: Sicherheitsrisiken in der Cloud

Die Architektur Ihrer Cloud Computing-Infrastruktur kann einen direkten Einfluss auf ihre Ausfallsicherheit haben.

Dan Marinescu

Angepasst von "Cloud Computing: Theorie und Praxis"(Elsevier Science & Technik-Bücher)

Öffentliche und private Clouds können böswillige Angriffe und Infrastruktur Fehler wie Stromausfällen betroffen. Solche Ereignisse können Internet Domain Namenserver, Zugriff auf Wolken verhindern oder direkt beeinträchtigen Wolke Operationen.

Beispielsweise ein Angriff bei Akamai Technologies am 15. Juni 2004, verursacht einen Domain-Namen-Ausfall und einen großen Blackout, die Google Inc., Yahoo! betroffen Inc. und vielen anderen Seiten. Im Mai 2009 wurde Google das Ziel eines Angriffs von Ernst Denial-of-Service (DoS), die Sie Dienste wie Google News und Google Mail für mehrere Tage dauerte.

Blitz verursacht eine längere Ausfallzeiten bei Amazon.com Inc. am Juni 29 und 30 2012. Die Amazon Web Services (AWS) Cloud, in der östlichen Region der Vereinigten Staaten, bestehend aus 10 Rechenzentren über vier Availability Zones, wurde zunächst durch Dienstprogramm Stromschwankungen, wahrscheinlich verursacht durch ein Gewitter getrübt. 29. Juni 2012, Sturm an der Ostküste notierte Virginia basierende Amazon Einrichtungen und Unternehmen, die mit Systemen ausschließlich in dieser Region betroffen. Instagram, einen Foto-sharing-Dienst war eines der Opfer dieser Ausfall.

Wiederherstellung von diesen Ereignissen hat lange gedauert, und eine Reihe von Problemen ausgesetzt. Z. B. eines der 10 Zentren versäumt, wechseln Sie zur backup-Generatoren vor anstrengend die Macht, die durch unterbrechungsfreie Stromversorgung versorgt werden könnte, liefern (USV). AWS verwendet "Steuern Flugzeuge" kann der Benutzer-Schalter auf Ressourcen in einer anderen Region, und auch diese Softwarekomponente ist fehlgeschlagen.

Der Bootvorgang war fehlerhaft und verlängert die Dauer Elastic Compute Cloud (EC2) und Elastic Block Store (EBS)-Dienste neu starten. Ein weiteres kritisches Problem war ein Bug in Elastic Load Balancing (ELB), dient zum Weiterleiten von Datenverkehr an Servern mit Kapazitätsangebot. Ein ähnlicher Bug betroffen den Wiederherstellungsprozess von Relational Database Service (RDS). Dieses Ereignis brachte Licht "versteckte" Probleme, die nur unter besonderen Umständen auftreten.

Teile der Wolke

Eine Cloud-Anwendung-Anbieter, eine Cloud-Storage-Anbieter und einem Netzwerkanbieter können unterschiedliche Richtlinien implementieren. Die unvorhersehbaren Interaktionen zwischen Load-balancing und anderen reaktiven Mechanismen könnten zu dynamischen Instabilitäten führen. Die unbeabsichtigte Kopplung unabhängige Controller, die die Belastung, die Leistungsaufnahme und die Elemente der Infrastruktur verwalten könnte zu unerwünschten Feedback und Instabilität ähnlich denen erfahren durch die Policy-basierte routing im Internet Border Gateway Protocol (BGP).

Beispielsweise könnte der Load-Balancer Application Provider mit den Power Optimizer von der Infrastrukturanbieter interagieren. Einige von diesen Kupplungen kann nur unter extremen Bedingungen manifestieren und möglicherweise sehr schwer zu erkennen, unter normalen Betriebsbedingungen. Sie könnte katastrophale Folgen haben, wenn das System versucht, nach einem harten Fehler, wie im Falle des Ausfalls AWS 2012 wiederhergestellt.

-Ressourcen in Rechenzentren befindet sich in verschiedenen geografischen Gebieten ist eines der Mittel verwendet, um die Wahrscheinlichkeit von katastrophalen Fehlern zu senken. Diese geografische Verteilung der Ressourcen kann zusätzliche positive Nebeneffekte haben. Es kann Kommunikationskosten Verkehr und Energie reduzieren, indem die Einplanung der Berechnungen zu Seiten, wo die elektrische Energie billiger ist. Es kann auch mit einer intelligenten und effizienten Load-balancing-Strategie Leistungsverbesserung.

Bei der Festlegung einer Cloud-Infrastruktur, musst du sorgfältig balancieren System Ziele wie die Maximierung des Durchsatzes, Ressourcenauslastung und finanzielle Vorteile mit Benutzeranforderungen wie niedrige Kosten und Reaktionszeit und höchste Verfügbarkeit. Der Preis für jedes System-Optimierung ist erhöhte Systemkomplexität. Zum Beispiel die Wartezeit der Kommunikation über ein wide Area Network (WAN) ist deutlich größer als diejenige über ein Local Area Network (LAN) und erfordert die Entwicklung neuer Algorithmen zur globalen Entscheidungsfindung.

Wolke-Herausforderungen

Cloud computing, erbt einige der Herausforderungen von parallelen und verteilten Rechnens. Es blickt auch viele Herausforderungen für sich. Die besonderen Herausforderungen für die drei Wolke-Delivery-Modelle unterscheiden, aber in allen Fällen die Schwierigkeiten entstehen durch die Natur des Utility computing, die basiert auf Ressourcen gemeinsam nutzen und Ressourcen-Virtualisierung und erfordert ein anderes Vertrauensmodell als das allgegenwärtige benutzerzentrierte Modell, das den Standard für eine lange Zeit gewesen ist.

Die größte Herausforderung ist die Sicherheit. Das Vertrauen der großen Nutzerzahl gewinnen ist entscheidend für die Zukunft von Cloud computing. Es ist unrealistisch zu erwarten, dass eine public Cloud eine geeignete Umgebung für alle Anwendungen zur Verfügung stellt. Hochsensible Anwendungen in Bezug auf kritische Infrastruktur-Management, Gesundheits-Anwendungen und andere am ehesten durch private Wolken gehostet werden.

Viele Anwendungen in Echtzeit werden wahrscheinlich immer noch auf private Wolken beschränkt werden. Einige Anwendungen möglicherweise am besten mit einer Hybrid-Cloud-Setup bedient werden. Solche Anwendungen konnte halten vertrauliche Daten auf eine private Cloud und public Cloud für einige der Verarbeitung verwenden.

Die Software as a Service (SaaS) Modell steht vor ähnliche Herausforderungen als andere online-Dienste benötigt, um private Informationen, wie z. B. schützen finanzielle oder Gesundheitsversorgung. In diesem Fall interagiert ein Benutzer mit Cloud-Services über eine klar definierte Schnittstelle. Im Prinzip ist es daher weniger eine Herausforderung für den Dienstleister, einige der Angriff Kanäle zu schließen.

Dennoch sind solche Dienste anfällig für DoS-Angriffe und böswilligen Insidern. Daten im Speicher ist am verwundbarsten angreifen, also besondere Aufmerksamkeit zum Schutz von Storage-Servern zu widmen. Die Kontinuität des Dienstes Falls Speicher vom Systemfehler sicherzustellen Datenreplikation erhöht Anfälligkeit. Datenverschlüsselung kann Daten im Speicher schützen, aber schließlich müssen Daten zur Verarbeitung entschlüsselt werden. Dann ist es ausgesetzt, um anzugreifen.

Die Infrastruktur as a Service (IaaS) Modell ist bei weitem die größte Herausforderung, gegen Angriffe zu verteidigen. Tatsächlich hat ein IaaS-Benutzer viel mehr Freiheit als die anderen zwei Wolke-Lieferung-Modelle. Eine zusätzliche Quelle der Sorge ist, dass erhebliche Cloud-Ressourcen verwendet werden könnte, um Angriffe auf das Netzwerk und die IT-Infrastruktur zu initiieren.

Virtualisierung ist ein kritisches Design-Option für dieses Modell, aber es macht das System zu neuen Informationsquellen Angriff. Die trusted Computing base (TCB) einer virtuellen Umgebung umfasst nicht nur die Hardware und den Hypervisor, sondern auch die Verwaltung OS. Sie sparen im gesamte Bundesland einer virtuellen Maschine (VM) in eine Datei um Migration und Recovery, beide sehr wünschenswert Vorgänge zu ermöglichen.

Diese Möglichkeit stellt noch die Strategien, die Server, die Zugehörigkeit zu einer Organisation zu einem wünschenswert und stabilen Zustand zu bringen. In der Tat kann eine infizierte VM inaktiv sein, wenn die Systeme bereinigt werden. Dann kann es später aufwachen und andere Systeme infizieren. Dies ist ein weiteres Beispiel für die Tiefe Verflechtung wünschenswert und unerwünschte Wirkungen von grundlegenden Cloud computing-Technologien.

Die nächste große Herausforderung bezieht sich auf Ressourcenmanagement auf einer Wolke. Systematische (statt Ad Hoc) Ressource-Management-Strategie erfordert das Vorhandensein von Controller beauftragt, um verschiedene Klassen von Richtlinien zu implementieren: Zutrittskontrolle, Kapazitätszuweisung, laden balancing, Energieoptimierung und, last But not least die Bereitstellung von Quality of Service (QoS) garantiert.

Um diese Richtlinien zu implementieren, brauchen die Controller genaue Informationen über den globalen Zustand des Systems. Ermitteln des Status eines komplexen Systems mit 106 Servern oder mehr, verteilt über ein großes geografisches Gebiet ist nicht möglich. In der Tat, die externe laden, sowie den Zustand der einzelnen Ressourcen, Änderungen sehr schnell. So müssen die Controller mit unvollständigen oder ungefähre Kenntnis des Systemstatus funktionieren können.

Es scheint durchaus denkbar, dass solch eine komplexes System kann nur Funktion auf Selbstverwaltung Grundsätzen beruht. Aber der Selbstverwaltung und Selbstorganisation die Messlatte für die Durchführung der Protokollierung und Überwachung der Verfahren entscheidend für die Sicherheit und das Vertrauen in einen Anbieter von Cloud computing-Services.

Unter Selbstverwaltung wird es nahezu unmöglich, die Ursachen zu identifizieren, die eine bestimmte Aktion, die in einer Sicherheitsverletzung geführt getroffen wurde.

Die letzte große Herausforderung, die ich ansprechen werde bezieht sich auf Interoperabilität und Standardisierung. Vendor Lock-in — die Tatsache, dass ein Benutzer mit einer bestimmten Wolke verbunden ist-Dienstleister — ist ein wichtiges Anliegen für Cloud-Benutzer. Standardisierung würde Interoperabilität zu unterstützen und somit lindern einige der Befürchtungen, dass ein kritischen Service für eine große Organisation für längere Zeit nicht verfügbar sein kann.

Über Standards zu einem Zeitpunkt, als eine Technologie immer noch weiterentwickelt wird, ist eine Herausforderung, und es kann kontraproduktiv sein, da es die Innovation behindern. Es ist wichtig zu erkennen, die Komplexität der Probleme im Zusammenhang mit cloud-computing und um zu verstehen, das breite Spektrum von technischen und sozialen Problemen cloud computing wirft. Die Bemühungen um IT-Aktivitäten auf öffentliche und private Clouds migrieren wird eine nachhaltige Wirkung haben.

Dan C. Marinescu

Dan C. Marinescu war Professor für Informatik an der Purdue University von 1984 bis 2001. Danach trat er in die Fakultät für Informatik an der University of Central Florida. Er hatte Besuch Anstellung an der IBM T. inne. J. Watson Research Center, dem Institute of Information Sciences in Peking, die skalierbare Systems Division von Intel Corp., Deutsche Telekom AG und INRIA Rocquancourt in Frankreich. Seine Forschung Interessen Abdeckung parallele und verteilte Systeme, Cloud computing, wissenschaftliche Informatik, Quantum computing und Quantentheorie Informationen.

Für weitere Informationen zu dieser und anderen Titeln von Elsevier, check-out Elsevier Science & Technik-Bücher.

Verwandte Inhalte