ROI MAXIMIEREN VON RECHENZENTRUM-VIRTUALISIERUNG U. -KONSOLIDIERUNG
Technischer Anwendungsbericht
| Technischer Anwendungsbericht |

MAXIMIERUNG DER ROI VON RECHEN-
ZENTRUM-VIRTUALISIERUNG UND
-KONSOLIDIERUNG DURCH
ENDBENUTZERLEISTUNGS-
MANAGEMENT

MAXIMIERUNG DER ROI VON DER VIRTUALISIERUNG UND KONSOLIDIERUNG VON RECHENZENTREN BIS ZUM VERBRAUCHER-LEISTUNGSMANAGEMENT

Der Geschäftsfall für die Rechenzentrumkonsolidierung ist unwiderstehlich, da Netzwerke, Anwendungen und Dienstleistungen komplexer werden, Benutzer in zunehmendem Maße mobil werden und Unternehmen ihre Kosten ohne Gefährdung der Leistung verringern müssen. Zum Umsetzen der Vorteile müssen sich Organisationen jedoch bei der Verwaltung der konsolidierten Architektur genau an entsprechende Leistungsmesswerte halten. Herkömmliche Tools für das Leistungsmanagement erfordern mehrfache Plattformen wobei es ihnen an dem notwendigem Anwendungsbereich, der Perspektive und dem Timing zum Verwalten einer konsolidierten Umgebung mangelt. Zusätzliche Komplexitäten entstehen, wenn die Anwendungen virtualisiert werden, wodurch es schwierig wird, Leistung aus der Endbenutzerperspektive zu messen.

Wirkungsvolles, anhaltendes Management des konsolidierten Rechenzentrums ist der Schlüssel zum Optimieren der Investitionsrentabilität für die Projekte. Organisationen benötigen eine Lösung, die ein Verwalten der Leistung aus der Perspektive aller Beteiligten – Geschäftsbereiche, IT und Endbenutzer – ermöglicht, um zu gewährleisten, dass das Konsolidierungsprojekt den gewünschten ROI erreicht.

Die treibenden Kräfte für die Konsolidierung von Rechenzentren

Rechenzentren verwandeln sich zusehends von einer traditionellen verteilten Infrastruktur in eine konsolidierte, Service-orientierte Struktur. Die betriebswirtschaftlichen Argumente sprechen für sich. Netzwerkinfrastruktur, Applikationen und Services werden immer komplexer, bei zunehmender Mobilität und wachsenden Anforderungen der Benutzer. Diese erwarten eine Netzwerkleistung, die ihre Produktivität bei jeder Aufgabe und an jedem Standort steigert.

Gleichzeitig zwingt das schwierige Wirtschaftsklima die Organisationen dazu, Kapital und Betriebskosten zu senken, ohne dass dies negative Auswirkungen auf die Qualität hat. Ingenieure müssen das Maximum aus jedem Switch, Router, Server und Hypervisor herausholen. Die Konsolidierung ihrer Rechenzentren ermöglicht Organisationen die Implementierung fortschrittlicherer Protokolle und Verwaltungsstrategien zur Optimierung der Bandbreitenauslastung und der Leistung von Netzwerk und Applikationen. Sie bietet auch die Gelegenheit, die Virtualisierung von Applikationen umzusetzen – zur Trennung der Applikationen von physischen Servern –, was weitere Vorteile bietet.

Weitere Vorteile der Konsolidierung von Rechenzentren:
  • Verbesserte Sicherheit durch Reduzierung der Anzahl der zu verwaltenden Standorte und Geräte und die Schaffung der Grundlagen für fortschrittlichere Strategien zur Risikominderung
  • Verbesserte Konformität durch Förderung von Automatisierung und Anregen zur Implementierung eines umfassenden Prüfungsansatzes
  • Geringere Anforderungen an Hardware und Software, an Einrichtungen und den Transport sowie weniger Stromverbrauch zur Reduzierung von Kapital, Betriebskosten und CO2-Bilanz der Organisation
Zur Erreichung dieser Ziele werden Server virtualisiert und 40 Gigabit-Verkabelungsstrecken zur Unterstützung der Konsolidierung von Applikationen mit hohem Bandbreitebedarf installiert, welche die Kosten für Netzwerkschnittstellen in die Höhe treiben und höhere Anforderungen an die Infrastruktur der Verkabelung stellen.

Konsolidierungsplanung zur optimalen Nutzung der Vorteile

Trotz der möglichen Vorteile einer Konsolidierung von Rechenzentren benötigen die Organisationen eine angemessene Planung und Bewertung darüber, ob die mögliche Investitionsrentabilität (ROI) auch erreicht wird. Änderungen müssen nahtlos vorgenommen werden, mit minimaler Ausfallzeit für produktive Business-Applikationen, und das entstandene konsolidierte Rechenzentrum muss mehr Leistung erbringen, um die zur Implementierung des Projekts benötigte Zeit und das verwendete Kapital zu rechtfertigen.

Die Kosten von Ausfallzeiten
Durchschnittliche Kosten durch Ausfallzeiten eines Rechenzentrums pro Minute 5.600 USD
Durchschnittlich gemeldete Ausfallzeit 90 Minuten
Durchschnittliche Kosten pro Ausfall 505.000 USD
Kosten bei einem Komplettausfall des Rechenzentrums mit einer durchschn. Wiederherstellungszeit von 134 Minuten Ca. 680.000 USD
Für einen Teilausfall des Rechenzentrums, im Durchschnitt 59  Minuten, Kosten von etwa 258.000 USD

Quelle: Ponemon Institute 20111.

Um alle Vorteile einer Konsolidierung zu erreichen und zur Vermeidung von teurer Ausfallzeit müssen die Organisationen einem klaren Prozess folgen:

  • Erlangen eines tiefen Verständnisses von ihrem bestehenden Netzwerk, Ihren Applikationen, Services und Ihrer Leistung gemessen an Richtwerten
  • Festlegen der Messwerte für die gewünschte Leistung des konsolidierten Rechenzentrums
  • Planen des Übergangs
  • Implementieren des Übergangs auf die neue Betriebsumgebung mit minimaler Ausfallzeit
  • Überwachen und Verwalten der aktualisierten Architektur, um sicherzustellen, dass sie die notwendigen Messwerte erreicht

Gemäß einer Umfrage von Forrester Research benötigen Konsolidierungsprojekte typischerweise 18-24 Monate Zeit bis zur Fertigstellung2. In diesem Zeitraum müssen Organisationen die Ressourcen und finanziellen Mittel zur Ausrüstung der Angestellten mit Hardware und Software aufwenden, um die derzeitige Betriebsumgebung zu evaluieren, die Migration zu planen, die neue Architektur online bereitzustellen und die Leistung zu verwalten.

Eindeutige Benchmark-Tests sind dabei entscheidend. Ohne Messwerte für die Leistung vor und nach der Konsolidierung können Organisationen den ROI nicht messen. Diese müssen die Auswirkungen auf alle Projektbeteiligte auswerten – Leiter von Geschäftsbereichen, IT und Arbeitspersonal, Firmenverwaltung und Endbenutzer. Bei einer Virtualisierung von Applikationen wird das Messen der Leistung aus Sicht des Endbenutzers schwieriger.

Welche sind also die Schlüsselbereiche für Benchmark-Tests? Forrester führte eine Umfrage bei 147 US-Unternehmen durch, die entweder ein Projekt zur Konsolidierung von Rechenzentren abgeschlossen haben oder derzeit aktiv implementieren. Auf die Frage nach den fünf wichtigsten Werten für das Messen des Erfolgs antworteten 52 % mit Betriebskosten, gefolgt von den Gesamtbetriebskosten (44 %), der prozentualen Budget-Einsparung (38 %), der Applikationsleistung ggü. den Infrastrukturkosten (35 %) und der Leistung pro CPU-Kern (34%).

Für das Erreichen und den Nachweis des erreichten ROI bei einem Konsolidierungsprojekt müssen sich Organisationen mit drei Bereichen befassen: der Berichterstattung, der Leistungsverwaltung und dem Personal. Für den Rest dieses Dokuments konzentrieren wir uns auf zwei davon, die eng miteinander verbunden sind – die Berichterstattung und die Leistungsverwaltung.

Herausforderungen bei der Implementierung

1. Berichterstellung
Bei der Konsolidierung von Rechenzentren werden Ressourcen, die vorher über das gesamte Unternehmen verteilt waren, in einen gemeinsamen Pool aufgenommen. Als Ergebnis müssen Geschäftsbereiche, die vorher die eigenen Netzwerke, Applikationen und Services verwaltet und betrieben haben, jetzt die Kontrolle an ein zentrales Team abgeben.

Die Geschäftsbereiche werden damit zu internen Kunden des konsolidierten Rechenzentrums. Für die Fortsetzung des Supports muss ihnen zugesichert werden, dass die kritischen Applikationen gleiche oder bessere Leistung erbringen als zu Zeiten der eigenen Kontrolle durch den Geschäftsbereich. Die Folge ist der Abschluss von internen Service Level Agreements zwischen dem Rechenzentrum und den Geschäftsbereichen. Messwerte wie Applikationsverfügbarkeit und Endbenutzer-Reaktionszeit für Transaktionen zwischen Desktop und Rechenzentrum sollten zum Erbringen des notwendigen Nachweises regelmäßig zusammengefasst, verfolgt und berichtet werden, um die Leiter der Geschäftsbereiche zufriedenzustellen.

Darum haben Geschäftsbereiche Interesse an der Netzwerkleistung:

  • Führt die Leistung des POS-Systems dazu, Kunden zu behalten oder zu verlieren? Vierzig Prozent der Kunden werden eine Webseite nach ein oder zwei schlechten Erfahrungen nicht mehr besuchen.
  • In einem Handelsbüro in New York, London oder Hongkong kann eine 1 ms Latenz an Netzwerkverzögerung einen Unterschied von 1 Million Dollar bei jeder Transaktion ausmachen.
Messwerte für den Service Level sind ebenfalls zur Verwendung und Verrechnung notwendig. Leiter von Geschäftsbereichen möchten natürlich nur für die Ressourcen zahlen, die sie auch tatsächlich nutzen, anstatt andere Geschäftsbereiche zu subventionieren, indem sie einen gleichmäßigen Anteil der Kosten des Rechenzentrums übernehmen. Die Berichterstattung sollte deshalb eine Auswertung der Verwendung und den zugehörigen Ausgleich für alle vom Geschäftsbereich genutzten Netzwerke, Applikationen und Services beinhalten.

2. Leistungsmanagement
Obwohl die Konsolidierung von Rechenzentren und die oft damit verbundene Virtualisierung der Applikationen die Unternehmensstruktur modernisiert, sorgen sie für eine komplexere Verwaltung. Sowie mehr Services virtualisiert werden, wird es zunehmend schwieriger, auf einen Blick die Verwendung der Applikation vom Rechenzentrum zum Desktop zu sehen, da ein einzelner physischer Server mehrere Rechner betreiben kann. Da alle Datenbankserver, Applikationsserver, E-Mail-Server, Druckserver und Dateiserver dieselbe Hardware teilen, wird das Nachverfolgen der Leistung von Netzwerk, Applikation und Service erheblich schwieriger.

Die Wahl der richtigen Verwaltungstools ist eine weitere Herausforderung. Die meisten älteren Leistungsverwaltungstools zeigen die beste Leistung in einem Silo, da sie sich auf eine spezifische Applikation, einen bestimmten Service oder geographischen bzw. logischen Teil des Netzwerks fokussieren. Diese Methode ist vielleicht in einer verteilten Architektur geeignet, obwohl Probleme zwischen einem NMS ohne umfassende Informationen und komplexen Tools zur Datenpaketerfassung auftreten können. Sie verursacht aber Probleme in einem konsolidierten Rechenzentrum, bei dem die Zahl der Silos durch das Hinzufügen von Leistungsverwaltungstools für die Applikationsvirtualisierung, die noch nicht mit älteren Leistungsverwaltungstools integriert wurden, wächst.

In dieser Situation müssen sich Netzwerkingenieure auf eine Palette verschiedener Tools verlassen, jedes mit eigenen Fähigkeiten und eigener Benutzeroberfläche. Sie müssen ihre gemeinsame Erfahrung und ihr Wissen anwenden, um manuell Informationen in Bezug zu bringen, Probleme zu identifizieren, zu isolieren und aufzulösen.

Im günstigsten Fall wird die Leistungsverwaltung ähnlich wie in einer dezentralisierten Umgebung ausgeführt und dabei aus den zusammengestellten Informationen und dem Personal Nutzen gezogen. Im schlimmsten Fall ist das Resultat eine gegenseitige Schuldzuweisung zwischen den Geschäftsbereichen und den IT-Teams und reduziert die Effektivität der Behebung einer Anomalie, was Probleme sowohl für Endbenutzer als auch für die Verwaltung schafft.

Um diese Probleme anzugehen und das volle Potential einer Konsolidierung auszuschöpfen, müssen Organisationen einen besseren Weg zur Verwaltung von Leistung und Berichterstattung finden.

Konsolidierung der Leistungsverwaltung

Eine Lösung zur konsolidierten Leistungsverwaltung liefert an alle Beteiligten Informationen über alle Aspekte des Netzwerks. Dies unterstützt eine effiziente Problemlösung ohne Schuldzuweisung und liefert die Daten zur Berechnung der Berichterstattung und Messwerte für die Verwaltung, wie z. B. SLA-Leistung, Verwendung und Verrechnung.

Jedoch ist für den Prozess der Konsolidierung die Leistungsverwaltung der schwierigste Schritt. Ältere Leistungsverwaltungstools wurden für eine dezentralisierte Umgebung entwickelt und können die Komplexität einer konsolidierten und virtualisierten Architektur nicht bewältigen. Tools, wie zur Überwachung der Applikationsdatenflüsse, Ansicht der Transaktionen, Paketanalyse, Stream-to-Disk-Archivierung (S2D) und zum SNMP-Polling, benötigen mehrere Plattformen und schwächen so möglicherweise die Vorteile einer Konsolidierung ab.

Unternehmen benötigen eine End-to-End-Lösung mit der entsprechenden Skalierbarkeit, Breite und Tiefe, um die Informationen erhalten, integrieren, darstellen und sicherstellen zu können, die eine tatsächliche Wiedergabe der Leistung der Netzwerke, Applikationen und Services des Geschäftsbereichs, der IT und am wichtigsten aus der Sicht des Endbenutzers ermöglichen. Um effektiv zu sein, müssen drei wesentliche Bereiche stimmen: Umfang, Perspektive und Timing.

Anwendungsbereich
Es gibt zwei Kategorien von herkömmlichen Leistungsverwaltungstools. Einige davon benutzen einen Ansatz auf höherer Ebene und sammeln und bewerten Daten nur oberflächlich. Sie erzeugen Dashboards, die mit der Geschäftsleitung zur Verfolgung der gesamten Leistung geteilt werden können, bieten in bestimmten Bereichen aber keine Transparenz oder sind keine Hilfe beim Lösen von Problemen. Die Alternativen benutzen einen viel engeren, tiefergehenden Ansatz mit Fokussierung auf ein bestimmtes Segment des Netzwerks. Sie erfassen Pakete, untersuchen bestimmte Transaktionen und liefern detaillierte Echtzeitanalysen.

Für den Idealfall benötigen IT-Teams eine Kombination aus beiden Ansätzen. Ablauf-, Transaktions- und SNMP-Daten ermöglichen ihnen die Kontrolle der Gesamterfahrung, während die Paketanalyse und S2D-Fähigkeiten bei der Fehlersuche und Konformität helfen. Sie benötigen die Breite und Tiefe der Analyse, aber ohne den manuellen Aufwand und die Zeit, die mit Einzelkomponenten verbunden werden.

Perspektive
Ältere Leistungsverwaltungstools haben Einschränkungen sowohl bezüglich der bereitgestellten Informationen als auch im Hinblick auf deren Art der Darstellung.

Beobachtungspunkte bei Netzwerk und Applikation helfen beim Identifizieren und Auflösen der Grundursache von Problemen, sind aber nicht immer ausreichend, speziell in einem konsolidierten Rechenzentrum, in dem Leiter von Geschäftsbereichen auf Service Level basierende Messwerte benötigen.

Wenn interne oder externe Kundenberichte nicht akzeptierbare, langsame Reaktionszeiten von Applikationen melden, ist es für den Netzwerkingenieur am besten, das Netzwerk aus der Kundenperspektive zu betrachten, um die Situation zu bestätigen und das Problem zu diagnostizieren. Dies ist nur dann möglich, wenn die Leistungsverwaltungslösung in der Analyse über die oben genannte Breite und Tiefe verfügt.

Timing
Im Optimalfall wird beim Auftreten von Leistungsproblemen die Grundursache schnell erkannt und die Situation schnell bereinigt. Durch die Komplexität in einem konsolidierten Rechenzentrum wird dies jedoch schwieriger, speziell dann, wenn die Leistung über einen längeren Zeitraum hinweg abfällt oder Probleme zeitweilig auftreten.

Der Netzwerkingenieur muss granulare Informationen zur Leistung aus allen Datenquellen im gesamten Netzwerk über einen längeren Zeitraum erfassen und die Informationen aus Sicht des Endbenutzers präsentieren. Dies ermöglicht es dem Betriebs- und IT-Personal, Analysen in Echtzeit auszuführen und im Zeitablauf zu bestimmten Punkten zurückzugehen, um Umgebungen mit zeitweilig auftretenden Problemberichten zu evaluieren und in Beziehung zu setzen. Es unterstützt auch die Entwicklung von kurz-, mittel- und langfristigen Leistungsreferenzwerten und ermöglicht die Identifizierung und Bearbeitung von Abweichungen zum frühest möglichen Zeitpunkt.

Eine End-to-End Lösung zur Leistungsverwaltung sollte alle drei Aspekte behandeln. Diese Lösung muss alle Daten mit einer Granularität von bis zu einer Millisekunde sammeln, zusammenfassen, korrelieren und mitteln, u. a. auch den Datenfluss und SNMP-Daten sowie Informationen, die von anderen Geräten erfasst wurden. Diese Daten sollten auf einem durch den Einzelbenutzer konfigurierbares Dashboard angezeigt werden. Dies ermöglicht das Messen der Leistung, das Identifizieren und schnelle Auflösen von Problemen und liefert die für die Unterstützung einer Netzwerkoptimierung notwendige Transparenz. Das IT-Team kann durch Implementieren einer vernünftigen Lösung zur Leistungsverwaltung vor der Konsolidierung von Rechenzentren sicherstellen, dass eine Mindestleistung verfügbar ist und die Leistung im Idealfall nach Abschluss des Konsolidierungsprojekts verbessert ist.

Virtualisierung erhöht die Komplexität der Leistungsverwaltung

Die zusätzliche Abstraktionsschicht, die eine Virtualisierung von Applikationen mit sich bringt, macht die Leistungsverwaltung schwieriger, da normalerweise weniger physische Anhaltspunkte als bei herkömmlichen Umgebungen verfügbar sind, in denen Server und Applikationen eng gekoppelt sind.

Die Migration zu einer virtuellen Netzwerkinfrastruktur erfordert die Übernahme neuer Methoden zur Überwachung und Konfiguration durch den Netzwerkingenieur, da weniger Support für physische Switches und Router notwendig ist. Es gibt auch eine fortdauernde Debatte darüber, ob sich die Sicherheit durch die Virtualisierung eines Systems verbessert oder verschlechtert. Wenn ein System innerhalb der virtuellen Umgebung gefährdet ist, wird dies allen anderen Zugang geben? Zusätzlich hat die Zunahme des physischen Verkehrs zu einer Hardware-Plattform eine größere Auswirkung auf die Infrastruktur-Verkabelung. Diese Infrastruktur sollte vor der Freigabe virtualisierter Services getestet und vollständig zertifiziert werden.

Transparenz und Sicherheit innerhalb der virtuellen Umgebung sind von enormer Wichtigkeit. Vor, während und nach der Migration ist die Nutzung von SNMP, Net Flow und virtuellen Taps zum Überwachen des Zustands, der Anbindung, und der Verwendung dieser jetzt virtuellen Systeme entscheidend. In einigen Plattformen können Server automatisch zu leistungsfähigeren Hardware-Ressourcen verschoben und migriert werden. Aus diesen Gründen sollten der Serverbestand und -standort eingehend überwacht werden.

Durch den Einsatz eines virtuellen Taps oder Ports zur Datenverkehrsspiegelung sollte der Applikationsdatenverkehr auf Server-Reaktionszeit und unzulässiges Verhalten überwacht und analysiert werden. Wegen der Tatsache, dass die Virtualisierung im Vergleich zu anderen Systemen innerhalb der IT-Organisation noch ziemlich neu ist, wird sie häufig zuerst beschuldigt, wenn ein Problem auftritt. Aus diesem Grund sollten Überwachungstools verfügbar sein, die in der Lage sind, rund um die Uhr und schnell ein Problem mit dem physischen Netzwerk oder der virtuellen Umgebung zu isolieren.

Es bestehen spezielle Herausforderungen in der Verwaltung der Benutzererfahrung beim Zugriff auf Applikationen, die in einer virtualisierten Citrix-Umgebung liegen. Aus Gründen der zusätzlichen Komplexität dieser Umgebung muss die gesamte Transaktion vom Benutzer über mehrere Ebenen der Applikationsstruktur überwacht, referenziert und verwaltet werden. Das Verständnis dafür setzt voraus, dass man versteht, wie Citrix die Applikationsarchitektur verändert.

Sobald ein Benutzer eine VDI-Sitzung (virtuelle Desktop-Infrastruktur) startet, verbindet er sich mit dem Citrix XenDesktop/XenApp-Server bzw. den -Servern, auf denen virtuelle Sitzungen mit konfiguriertem Zugriff auf spezielle Services gehostet werden, die durch den Administrator definiert und konfiguriert sind. Die entsprechenden Rechte stützen sich oft auf Interaktionen nach außen mittels Active Directory, einer getrennten Transaktion, bei der der Citrix-Zugriffs-Gateway (durch den Web-Server für erweiterte Zugriffskontrolle) nun der Client in einer separaten Anfrage ist. Von dort aus erlangt der Benutzer Zugriff auf eine Sitzung mit seiner Citrix-Lösung. Diese Sitzung zeigt größtenteils „Bildschirmkratzer“ beziehungsweise die Emulationsschicht des Datenverkehrs.

Innerhalb der Nutzdaten gibt dies einen zusätzlichen Einblick in den Umgang mit deren virtuellen Desktops. Die Interaktionen erzeugen in den folgenden Applikationsstufen zusätzliche Transaktionen mit dem Citrix-Server und wirken als Client für eine eher standardmäßige n-stufige Applikationsinteraktion innerhalb der aufgebauten Service-Architektur.

Nach Übergabe der Benutzertransaktionen können Korrelationen von End-to-End-Transaktionen aufgrund der Proxy-Natur der Applikationsarchitektur schwierig sein. Informationen, die den Benutzer oder Benutzeraktionen anzeigen, sind im ICA-Datenverkehr zu den Citrix XenApp-Servern enthalten, jedoch verschachtelt innerhalb der Nutzdaten. Sobald Citrix für Backend-Applikationsinfrastrukturen Sitzungen generiert, ist der einzige richtige Weg zur Korrelation über die Zeit und die Applikationen, auf die zugegriffen wurde.

Das bedeutet, wenn der Benutzer dem Helpdesk einen Netzwerkabsturz meldet, ist dies möglicherweise auf Verzögerungen einer durch Citrix gehosteten Applikation zurückzuführen. Der Zeitaufwand für einen Ingenieur kann zum Herausfinden der tatsächlichen Ursache bis zu einer Stunde betragen. Der einzige Weg, um zu verstehen, was die Erfahrung des Endanwenders beeinträchtigt, ist die Implementierung einer Leistungsüberwachung für diese Applikationen aus der Sicht des Netzwerks. In einer konsolidierten Umgebung ist dies der Transport am Backend zwischen dem Endbenutzer und dem Rechenzentrum.

Lösungen wie VMware bieten Tools zum Überwachen der virtualisierten Umgebung und Server, jedoch nicht der Erfahrung des Endanwenders und des Netzwerks. Im Gegensatz dazu hat NETSCOUT Lösungen entwickelt, die vom Endbenutzer zum Rechenzentrum messen und dem Benutzer das Verständnis darüber ermöglichen, was im Netzwerk aus der Perspektive eines Endbenutzers vorgeht. Dadurch werden Probleme schneller identifiziert und aufgelöst.

Diese Lösungen können Transparenz hinsichtlich der vordergründigen Leistung in Form einer Zusammenfassung pro Standort mit Vergleichen pro Benutzer schaffen sowie Einblick in die Interaktionen des Benutzers innerhalb einer Sitzung und pro veröffentlichte Messwerte zur Applikationsleistung bieten. Dies wird dann mit den Transaktionen in Bezug gesetzt, die von der Citrix-Umgebung für standardmäßige n-stufige Applikationsarchitekturen generiert werden. Beides spart Zeit bei der Fehlersuche und hilft dem Netzwerkingenieur, bei der Verwaltung der Leistung einer solchen Applikationsbereitstellung proaktiv zu werden.

Verweise;
1Understanding the Cost of Data Center Downtime - Emerson Network Power & Ponemon Institute

2Cost analysis and measurement help ensure consolidation success - Forrester Research, January 2009.

 
 
Powered By OneLink