White Paper Rechenzentrum-Konsolidierung | NETSCOUT

White Paper Sicherstellen, dass die Rechenzentrum-Konsolidierung ein Erfolg wird

Der Geschäftsfall für eine Rechenzentrum-Konsolidierung ist nicht nur für große, multinationale Konzerne überzeugend. Auch kleine und mittelgroße Firmen sind zu ausgezeichneten Anwärtern für Rechenzentrum-Konsolidierungen geworden Einige Faktoren sind für das schwankende Interesse an einer Konsolidierung verantwortlich. Netzwerk-Infrastrukturen, Anwendungen und Services haben weiterhin eine wachsende Kapazität. Benutzer werden zunehmend mobil und fordernd; sie erwarten ein Leistungsniveau, das ihre Produktivität, unabhängig von der Aufgabe und wo das Erledigen dieser stattfinden soll, erhöht. Und das Weltwirtschaftsklima fordert, dass Unternehmen Methoden bestimmen, um ihr Kapital und ihre Betriebskosten zu senken, ohne dabei die Qualität zu opfern.

    INHALT
  • Kurzfassung
  • Warum eine Rechenzentrum-Konsolidierung verfolgen?
  • Zu überwindende Hürden.
  • Grundlegende Tools der Anwendungsleistungsverwaltung
  • TruView™, eine wahrhaft einheitliche Plattform
  • Überwachung von Infrastrukturdaten.
  • Erzielen und messen des Erfolges der Rechenzentrum-Konsolidierung.

Kurzfassung

Während die Aussichten und Vorteile der Rechenzentrum-Konsolidierung ansprechend sind, können Unternehmen es sich nicht leisten kopfüber in die Bemühungen zu tauchen. Zahlreiche Herausforderungen, die das Konsolidierungsprojekt entgleisen lassen können bevor es am Zielort ankommt, warten auf sie. Außerdem müssen sich Unternehmen der Konsolidierung mit einer strategischen, langfristigen Perspektive nähern. Andernfalls werden die kurzfristigen Gewinne, wenig mehr als Katzengold sein. Das Nehmen einer weit reichenden Veranschaulichung benötigt den Erhalt eines eingehenden Verständnisses der Leistung des aktuellen Netzwerkes, der Anwendung und des Services; Planung für und Durchführung des Überganges zu einer neuen Betriebsumgebung; und die aktualisierte Architektur konkurrenzfähig überwachen und erreichen, um sie sicherzustellen erzielt fortwährend den Benchmark und die Metrik, die für Erfolg Jetzt und zukünftig notwendig sind.

Wirkungsvolles, anhaltendes Management des zusammengefassten Rechenzentrums ist der Schlüssel zum Freischalten und Optimieren der Investitionsrentabilität für die Bemühungen. Leider ist es auch der schwierigste Prozessschritt, da veraltete Leistungsmanagement-Tools, wie die Überwachung des Anwendungsflusses, Transakionsansichten, Paketanalyse, SNMP-Polling und das Archivieren von Stream To Disc (S2D), mehrere Plattformen benötigen und die Konsolidierungs-Vorteile abschwächen. Was Unternehmen brauchen, ist eine Lösung mit der Skalierbarkeit, der Breite und Tiefe, um Informationen zu erhalten, integrieren, behalten und vorzulegen, die die Leistung der Netzwerke, Anwendungen und Services, die im zusammengefassten Rechenzentrum ausgeführt werden, wahrhaft reflektiert - aus der Perspektive von Betrieben, IT und Endbenutzern.

Gebühr

Der nachgelassene Präsenz, die Rechenzentrum-Konsolidierungen begleitet, bringt Unternehmen in eine Position, ihre Kosten, in Bezug auf Kapitalausgaben und Betriebsaufwendungen, zu verringern. Auf der Kapitalseite der Gleichung, bedeutet eine zusammengefasste Umgebung ein kleineres Netzwerk und eine kleinere Anwendungsinfrastruktur. Infolgedessen benötigen Unternehmen weniger Hardware, einschließlich Server, Switches, Router und anderen Ausrüstungen. Eine Serverreduzierung bedeutet weniger benötigte Softwareanwendungen, wodurch Unternehmen ihre Kapitalbudgets weiter kürzen können.

Mit der Verbreitung auf Cloud basierender Saas-Optionen, bietet eine Rechenzentrum-Konsolidierung eine Reihe von Gelegenheiten, Betriebskosten zu senken. Remote Einrichtungen können entweder abgeschafft oder zu einem Bruchteil ihrer ursprünglichen Größe gesenkt werden, wodurch Einsparungen in den Mietkosten hervorgerufen werden. Zudem können Verbindungen zu diesen Einrichtungen herabgesetzt werden, was Transportkosten senkt und die Voraussetzungen für einen verbesserten Überblick über Verhältnisse der Serviceanbieter und Leistungen schafft. Die zusammengefasste Infrastruktur verbraucht weniger Energie und ist leichter abzukühlen, was Stromrechnungen verringert und den Weg für "grüne" Initiativen, die schnell Tritt fassen, ebnet. Am wesentlichsten ist vielleicht, das Konsolidierungen die Last auf IT und dem Betriebspersonal erleichtern. Mit weniger Aktivität an remoten Standorten, nehmen die Anforderungen vom Management und der Kommunikationen hier drastisch ab. Infolgedessen haben IT und das Betriebspersonal das Potenzial, Probleme mit weniger Kosten, schneller zu lokalisieren und lösen, wodurch diese Ressourcen wichtigeren Aufgaben, die unternehmenskritischer sind, nachgehen können.

Optimierung

Während Netzwerke, Anwendungen und Services komplexer werden, erwarten Benutzer einheitliche Kommunikationen führen zu können, ohne die Funktionalität oder Leistung zu beeinträchtigen. Eine verbreitete, veraltete Infrastruktur kann dieser Belastung kaum widerstehen. Mit gelegentlichen Unternehmensfusionen oder -akquirierungen, die Unternehmen erweitern und Ungleichheiten der Netzwerk und Anwendungen erhöhen wird die Situation unhaltbar.


Abbildung 1: Eine Rechenzentrum-Konsolidierung ist nicht nur notwendig um die Infrastruktur zu vereinfachen, sondern auch um sie zu optimieren, damit die Servicequalität aufrechterhalten und letztendlich verbessert werden kann.

Konsolidierungen fördern einige Optimierungswege. Einer bereits erwähnte Transport. Mit einer zentralisierten Annäherung gibt es weniger zu überwachen, ist die Architektur weniger kompliziert und leichter zu steuern, und sind Verkehrsverläufe und -volumen sichtbarer und eindeutiger definiert. Diese Umgebung bietet die Option, verbesserte Protokolle und Managementstrategien einzuführen, die den Bandbreitengebrauch und die -leistung der übergreifenden Netzwerke und seiner Anwendungen, maximieren.

Rechenzentrum-Konsolidierung ist eng mit der Anwendungsvirtualisierung verbunden. Das Ziel der Anwendungsvirtualisierung ist, Anwendungen von den Servern zu trennen. Anstatt, auf einem physischen Server, mit dem sie verbunden ist, zu laufen, arbeitet eine Anwendung auf einem virtuellen Server, der sich überall im Unternehmen befinden kann, wie z.B. in einem zusammengefassten Rechenzentrum. Infolgedessen werden weniger physische Server benötigt, weil jedes mehrere Anwendungen verwaltet, von denen jede so durchgeführt wird, als ob der Server ihr fest zugeordnet ist. Bei der richtigen Planung und Wartung, ist die Übernahme geteilter Services für den Benutzer der Anwendungen nicht sichtbar, bietet aber dennoch eine kontrollierbarere Servicequalität. Die Vorteile der Anwendungsvirtualisierung sind so überzeugend, dass eine Studie des Beratungsunternehmen EMA annimmt, dass fast Dreiviertel aller Unternehmen eine Virtualisierung für mindestens einige ihrer Produktionsanwendungen einsetzen.

Dank der Rechenzentrum-Konsolidierung ist eine Automatisierung unternehmenskritischer Prozesse und Systeme eine realistische Option. Z.B. können Automatisierungslösungen im Rechenzentrum ausgefallene Anwendungen erneut starten, neue Server dynamisch verteilen, eingeplante Backups leiten und eine Managements-Konfiguration der Betriebsumgebung durchführen. Automatisierung weist einige Vorteile auf, einschließlich der Prozesskonsistenz und Durchführung von Unternehmensrichtlinien und -regelungen, beschleunigter Prozessausführung sowie die Reduzierung menschlichen Versagens. Sie ermöglicht zudem eine leistungsfähigere Anpassung an sich ändernde Bedingungen und erhöht die Produktivität von IT- und Betriebsteams, deren manuelle Eingabe und Support für automatisierte Prozesse und Systeme nicht länger erforderlich ist.


Sicherheit

Je verteilter die Präsenz der Netzwerke, Anwendungen und Services ist, desto anfälliger und verletzbarer ist sie auf Sicherheitsbrüche. Rechenzentrum-Konsolidierungen bieten sofortig Festigung, während sie die Grundlage für die Implementierung hochentwickelterer, laufender Risikominderungs-Strategien legen.

Konsolidierung bedeutet, dass einige Standorte komplett abgeschafft und andere in ihrer Größe und ihrem Anwendungsbereich verkleinert werden. Mit weniger Standorten und Systemen zum Verwalten, wird die Aufgabe das Unternehmen physisch zu sichern einfacher, kostengünstiger und benötigt weniger Ressourcen. Ähnlich ist eine kompaktere Unternehmensarchitektur auf weniger Verbindungen zwischen Einrichtungen angewiesen. Die Vereinfachung der Konnektivität der Transportschicht verschärft die Konzentration auf und Wirksamkeit von Informationssicherheit. Die Verbesserung elektronischer Sicherheit für den Transport ist wichtig, da die Verbreitung von Technologien, wie Multiprotocol Label Switching und die Zusammenführung von Sprache, Video und Daten, die Rolle des Transportes umgestalten. Es ist nicht länger nur eine Verbindung zwischen zwei Punkten, um Informationen zu übertragen; es ist zu einem integrierten Teil einer anwendungsbezogenen Infrastruktur geworden, die zur Erfüllung des Versprechens, das Servicelevel verbessert werden, ohne die Sicherheit zu opfern, entscheidend.

In der heutigen hochwettbewerbsfähigen globalen Wirtschaft, ist der Erfolg des Unternehmens direkt mit der Verfügbarkeit und Reaktionszeit der Netzwerke, Anwendungen und Services verbunden. Wenn eine von ihnen wegen eines Sicherheitsbruchs oder anderen Vorkommnisses gefährdet ist, ist es wichtig, dass die Leistung so schnell wie möglich wieder hergestellt wird, unabhängig vom Schweregrad und der Auswirkung des Problems. Folglich wird Disaster Recovery zu einer obersten Priorität für Unternehmen. Mit einer Rechenzentrum-Konsolidierung wird die Planung, Implementierung und Ausführung der Disaster Recovery Lösung zu einer weniger anspruchsvollen Aufgabe, da alle wichtigen Bestandteile verbunden sind, um die Replikations- und Failover-Einführung zu erleichtern.

Compliance

Unabhängig von der Branche in der das Unternehmen agiert, gewinnt Compliance zunehmend an Bedeutung. Unternehmenseinheiten und Angestellte müssen zeigen, dass sie die Unternehmensrichtlinien und -verfahren befolgen. Unternehmen müssen zeigen, dass sie sich behördlichen Bestimmungen, wie Sarbanes-Oxley anpassen; sie müssen zudem mit Verordnungen des Privatsektors, wie den von der Payment Card Industry (PSI-DSS) herausgegebenen Regulationen, übereinstimmen, um neue Verträge zu gewinnen, berechtigt zu sein, Services zu verwenden oder um ihre Türen geöffnet zu haben. Das IT-Personal muss zeigen, dass die erworbenen oder intern entwickelten Hardware- und Softwarekomponenten geltenden Industrienormen wie ITIL gerecht werden. Und das IT- und Betriebspersonal muss in der Lage sein, Compliance mit Servicelevel-Vereinbarungen zurückzuverfolgen, sowohl intern mit Geschäftsteilhabern und extern mit Partnern und Kunden.

Die Rechenzentrum-Konsolidierung erleichtert Compliance in mindestens zwei Bereichen. Zuerst fördert es die Automatisierung von Prozessen und Systemen, die menschliches beiseite lässt und Verfahren und Funktionen zusammenfasst, die durchgeführt werden müssen, um mit relevanten Richtlinien, Regelungen, Standards und Servicequalitätmessungen übereinzustimmen. Zweitens unterstützt sie die Implementierung einer umfassenden Auditing-Fähigkeit, die die abschließende Demonstration der Betriebs-Compliance in einer Momentaufnahme oder über ein längeres Zeitfenster ermöglicht.

Compliance-Kategorie Definition Beispiel Auswirkung/Vorteil der Konsolidierung
Öffentlicher Dienst Unternehmen müssen gemäß den geltenden Bundes-, Landes- und örtlichen Vorschriften handeln, um neue Kunden zu werben und zu behalten Sarbanes-Oxley, Darstellungen und Bescheinigungen Verminderte Präsenz der Hardware-/Software erleichtert umfassendes Auditing und und Bestandsverwaltung
Branche Regelungen die innerhalb und über vertikale Marktsegmente heraus veröffentlicht wurden, die den Zugriff auf und die Lieferung von Services beeinflussen.   Verminderte Präsenz der Hardware-/Software bietet eine höhere physische und Informationssicherheit, sowie verbesserte Auditing- und Leistungskontrolle
Unternehmen Richtlinien und Verfahren, die von Unternehmen veröffentlicht wurden, um Leistungsfähigkeit und Geschäftsmoral zu fördern Website-Zugriff; E-mail-Gebrauch Anwendungsvirtualisierung ebnet den Weg für die Überwachung aller Transaktionen über das Unternehmen
Technologie Implementierung, Einführung und optimale Verfahren und Standards der Hardware und Software ITIL Zentralisierte Hardware-/ Software-Infrastrukturen und -Betriebe ermöglichen es IT, Standards anzunehmen und zu befolgen
Service Level Agreements Leistungs- und Servicequalitätgarantien, die von externen Partnern und Anbietern veröffentlicht wurden Bandbreitenverfügbarkeit, VoIP-Mean Opinion Scores Verminderte Transportpräsenz erleichtert die Leistungskontrolle in Echtzeit und über einen längeren Zeitraum
Servicelevel-Messungen Intern ausgerichtete Leistungs- und Servicequalitätgarantien, die Unternehmenseinheiten erteilt wurden Anwendungsverfügbarkeit, Reaktionszeiten der Anwendung Anwendungsvirtualisierung fördert die Erfassung von Transaktion-Forensik für Leistungsüberwachungen und Gebrauchs-Bewertungen

Tabelle 1 markiert zentrale Compliance-Kategorien und die Auswirkungen der Rechenzentrum-Konsolidierung.


Zu überwindende Hürden

Die Vorteile der Rechenzentrum-Konsolidierung sind eindeutig und überzeugend. Bevor sie sich zu Konsolidierungsbemühen verpflichten, müssen Unternehmen verstehen, dass der Übergang nicht einfach werden wird. Entsprechend der Forrester Studie dauern Konsolidierungsprojekte gewöhnlich 18-24 Monate zur Fertigstellung². Während dieser Zeit müssen Unternehmen Ressourcen und Budgets zuordnen, um das Personal mit Hardware- und Softwarekomponenten auszurüsten, die sie zum Bewerten der aktuellen Betriebsumgebung, zur Planung der Umstellung und zum Einführen der Architektur online benötigen. Währenddessen und sogar nach der Einführung, müssen Unternehmen darauf vorbereitet sein, viele Hindernissen, die den Erfolg der Konsolidierung gefährden, anzugehen. Diese Herausforderungen können im Allgemeinen in die folgenden drei Bereiche gruppiert werden: Personal, Berichte und Tools.

Personal

Einer der Schlüsselpunkte der Rechenzentrum-Konsolidierung ist, so viele Netzwerk-, Anwendungs- und Service-Infrastrukturen wie möglich unter ein Dach zu bringen. Folgedessen werden IT- und Betriebsteams, die vorher verteilt waren und in ihren eigenen Gebieten funktionierten, jetzt wahrscheinlich zusammen arbeiten. In diesem Szenario ist mindestens bereichsübergreifende Diplomatie erforderlich, um sicherzustellen, dass der Betrieb unter nominalen Bedingungen reibungslos abläuft und auftretende Probleme effizient gelöst werden. Um die Konsolidierungs-Vorteile zu beziehen, ist Diplomatie nicht ausreichend. Die bereichsübergreifende Leistungsfähigkeit ermöglicht es Unternehmen aus der Konsolidierung Kapital zu schlagen, indem sie Teams austauschbarer Bereiche, die Betriebs- und Personalproduktivität unter allen Bedingungen optimieren, beschäftigen. Wegen der Beschränkungen der veralteten Architektur, ist es so gut wie sicher, dass es an bereichsübergreifender Sachkenntnis mangelt und dass diese als Teil der Umstellungsbemühungen ausgebildet werden muss.

Rechenzentrum-Konsolidierung bedeutet auch, dass sich die Rolle des Rechenzentrum-Managers ändern wird und das Unternehmen dies in Betracht ziehen müssen, während sie den Übergang planen. In den meisten verteilten Unternehmen benötigt die gezielte Funktion des Rechenzentrums einen technisch orientierten Manager. In einer vereinigten Welt ist der Geltungsbereich des Rechenzentrums viel ausgedehnter und betrifft mehrere Geschäftsbereiche. Der Rechenzentrum-Manager benötigt Fähigkeiten, die dieser Wirklichkeit entsprechen. Um alle Bereiche effektiv zusammenzubringen, muss der Manager als Diplomat agieren, der nicht nur technische Fähigkeit besitzt, sondern auch Erfahrungen in Marketing-, der Finanzverwaltung und der Betriebsplanung hat. Eine Einzelnen mit diesen Fähigkeiten zu finden ist wichtig, aber schwierig, da wenige Leute solch vielfältige Fähigkeiten haben.

Berichterstellung

Mit der Rechenzentrum-Konsolidierung werden Ressourcen, die einstmals das Unternehmen umfassten, in einem gemeinsamen Pool erfasst. Infolgedessen können Unternehmenseinheiten, die einstmals ihre eigenen Netzwerke, Anwendungen und Services verwalteten und aufrechterhielten, dies nicht länger tun. Gegen die Abgabe der Kontrolle, werden diese Gruppen mehr als nur die gemeinsamen Vorteile der Konsolidierung, verlangen. Sie werden eine tiefgehende Einsicht in zusammengefasste Rechenzentrumsbetriebe erwarten, welches eine Berichtsrobusheit, die häufig fehlt, erforderlich macht.

Im Wesentlichen sind Unternehmenseinheiten interne Kunden des zusammengefassten Rechenzentrums. Damit Inhaber einzelner Geschäftsbereiche den Betrieb weiterhin unterstützen, müssen sie sicher sein, dass ihre kritischen Anwendungen auf oder über dem Level arbeiten, auf dem sie funktionierten, als sie von der Unternehmenseinheit gesteuert wurden. Das heißt, dass intern ausgerichtete Servicelevel-Vereinbarungen oder Servicelevel-Messungen zwischen dem zusammengefassten Rechenzentrum und den Unternehmenseinheiten definiert und begründet werden müssen. Diese Messungen, wie Anwendungsverfügbarkeit und Reaktionszeit der Endbenutzer für Transaktionen zwischen dem Desktop und dem Rechenzentrum, liefern, wenn sie erstellt, zurückverfolgt und stets berichtet wurden, den notwendigen Beweis, um Unternehmenseinheiten zu behalten.

Servicelevel-Messungen sind nur eine wichtige Seite des Berichtswesens. Eine andere Seite ist an den Gebrauch und die Abrechnung gebunden. Inhaber einzelner Geschäftsbereiche werden nur für die Ressourcen zahlen wollen, die sie tatsächlich benutzen; sie werden Aktivitäten anderer Unternehmenseinheiten nicht bezuschussen wollen, indem sie einen gleichmäßig geteilten Anteil der Kosten des zusammengefassten Rechenzentrums zahlen. Berichtsfunktionalität muss demnach erhöht werden, um Gebrauchsbewertungen und entsprechende Chargebacks/Rückbelastungen für alle Netzwerke, Anwendungen und Services, die durch jede Unternehmenseinheit verbraucht werden, einzuschließen.

Tools

Rechenzentrum-Konsolidierung und die Anwendungsvirtualisierung, die diese wahrscheinlich begleitet, könnten die Unternehmensarchitektur optimieren, aber zudem auch eine Komplexität hinsichtlich der Verwaltung einführen. Während mehre Services virtualisiert werden, wird es zunehmend schwieriger, eine Einzelansicht des Anwendungsgebrauchs vom Rechenzentrum zum Desktop zur liefern, da ein einzelner physischer Server mehrere virtuelle Maschinen versorgen kann. Mit Datenbank-, Anwendungs-, eMail-, Druck- und Dateiservern, die möglicherweise alle den gleichen Hardwareanteil teilen, ist das Zurückverfolgen der Netzwerk-, Anwendungs- und Service-Leistung, ein ehrgeiziges Vorhaben. Die Abstraktionsschicht, die zur Anwendungsvirtualisierung gehört, erweitert die Herausforderung, da es normalerweise weniger Sachbeweise gibt, als in herkömmlichen Umgebungen, in denen Server und Anwendungen fest miteinander verbunden sind.


Unternehmen sind zusätzlichen Hindernisse gegenübergestellt, wenn es zu der effektiven Überwachung und Verwaltung der Netzwerk-, Anwendungs- und Service-Leistung in einer zusammengefassten, virtualisierten Welt kommt, die über direkt mit der Architektur verbundene Hindernisse hinaus gehen. Die Mehrheit der veralteten Leistungs-Managements-Tools funktionieren am besten, wenn sie in einem Silo arbeiten und sich auf eine spezifische Anwendung, einen Service oder einen geographischen oder logischen Bereich des Netzwerks konzentrieren. Solch eine Annäherung kann in einer verteilten Architektur annehmbar sein, in einem zusammengefassten Rechenzentrum, in dem die Anzahl der Silos mit der Einführung von Management-Tools zur Anwendungsvirtualisierung, die noch nicht mit den veralteten Leistungsmanagement-Tools integriert wurden, allerdings zu Problemen führen.

Das Ergebnis ist ein Szenario, in dem das Betriebspersonal ein "Swivel Chair"-Management betreiben und sich auf ein ungleiches Tool-Set - jedes mit eigenen Fähigkeiten und Benutzerschnittstellen - sowie ihre gemeinsame Erfahrung und Sachkenntnis, um Informationen manuell miteinander in Verbindung zu bringen, um Probleme zu identifizieren, lokalisieren und lösen, verlassen muss. Im besten Fall, wird das Leistungsmanagement ähnlich wie in der verteilten Umgebung ausgeführt, wo es die Gelegenheit aus verbundenen Informationen und Personal Kapital zu schlagen übergeht. Im schlimmsten Fall, können die verschiedenen Bereiche des Betriebs und IT-Teams nicht friedlich in einem zusammengefassten Rechenzentrum koexistieren und erhöhen die Häufigkeit und Intensität der Schuldzuweisungen, während sie die Leistungsfähigkeit abweichender Lösungen, zum Leidwesen interner und externer Wähler sowie dem Vorstand schwächen.

Grundlegende Tools der Anwendungsleistungsverwaltung

Offenbar kann der momentane Zustand in Bezug auf Leistungs-Management-Tools nicht bestehen bleiben, wenn Firmen das volle Potenzial der Rechenzentrum-Konsolidierung freisetzen und alle seine Kosten-, Optimierungs-, Sicherheits- und Compliance-Vorteile ausschöpfen. Veraltete Leistungs-Management-Tools wurden nicht für die zusammengefasste Umgebung konzipiert und sind nicht für die Abstufungen und Komplexität, die diese begleiten, wie Anwendungsvirtualisierung, verantwortlich. Was Unternehmen benötigen ist eine zukünftige Leistungs-Management-Lösung, die nicht nur die Mängel seiner Vorgänger angeht, sondern zudem hilft alle anderen auf der Konsolidierung basierenden Herausforderungen, einschließlich Personal- und Berichtsprobleme zu neutralisieren. Zukünftige Tools müssen die folgenden drei kritischen Eigenschaften erfassen: Anwendungsbereich, Perspektive und Timing.

Anwendungsbereich

Herkömmliche Leistungs-Management-Tools fallen in einen von zwei Bereichen, wenn es zu den Fähigkeiten und dem Geltungsbereich kommt. Eine Tool-Kategorie übernimmt einen höheren, ausgedehnteren Kurs, der die Oberfläche in seiner Datensammlung und -bewertung abträgt, mit dem Ziel Executive-Dashboards zu liefern, die mit dem Vorstand geteilt werden können, um die Gesamtleistung zu verfolgen. Das andere Tool-Set übernimmt einen flacheren, tieferen Kurs, der sich auf einen bestimmten Unternehmensbereich konzentriert, Pakete erfasst, einzelne Transaktionen untersucht und detaillierte Echtzeitanalysen liefert.

Idealerweise benötigen IT-Teams eine mehrdimensionale Perspektive für eine vollständige Ansicht. Flow-, Transaktional- und SNMPS-Daten überprüfen die Gesamterfahrung während Paketanalyse und S2D-Fähigkeiten die Fehlerbehebung und Compliance unterstützen. IT-Organisationen benötigen eine ausführliche Analyse aber können sich die Zeit und die Bemühung, die mit unzusammenhängenden Produkten verbunden sind, nicht leisten.

Perspektive

Veraltete Leistungs-Management-Tools werden nicht nur dadurch eingeschränkt, welche Informationen sie zur Verfügung stellen, sondern auch dadurch, wie sie diese präsentieren. Netzwerk- und Anwendungsansichten sind notwendig, um die Grundursache eines Probleme zu identifizieren und zu lösen, sie sind aber nicht immer ausreichend, besonders in einem zusammengefassten Rechenzentrum, in dem Inhaber einzelner Geschäftsbereiche ein Auge auf Servicelevel-Messungen haben. Leider bieten veraltete Tools gewöhnlich keine zusätzlichen Ansichtsalternativen, was die Geschwindigkeit und Genauigkeit des Identifikations-/Lokalisierungs-/Lösungsprozesses hemmt.

Wenn ein interner Anwender oder ein externer Kunde Abnehmer z.B. unzumutbar langsame Reaktionszeiten einer Anwendung meldet, ist die ideale Methode die Situation zu bestätigen und das Problem zu diagnostizieren, die Erfahrung zu teilen. Die zukünftigen Lösungen des Leistungs-Managements müssen es Betrieben und dem IT-Personal ermöglichen, die Welt aus der Perspektive des Endbenutzers zu sehen, eine Fähigkeit die dank der erwähnten erweiterten Bereichsanforderungen möglich ist.

Timing

In einer perfekten Welt verliefe das Leistungs-Management problemlos. Wenn Probleme auftreten, werden sie leicht entdeckt, liegt die Ursache der Abweichung auf der Hand und werden die Fehler schnell korrigiert und treten nicht wieder auf. Das zusammengefasste Rechenzentrum ist jedoch nicht ideal, und die Netzwerk-, Anwendungs- und Serviceleistung zu überwachen und verwalten ist nicht so einfach. In vielen Fällen verschlechtert sich die Leistung langsam im Laufe der Zeit, oder Probleme treten sporadisch auf.

Das Sammeln von Leistungsinformationen aller Datenquellen vom gesamten Unternehmen und das Vorlegen dieser Informationen aus der Perspektive des Endbenutzers schaffen die Grundlage für eine erfolgreiche Annäherung an hoch entwickelte Abweichungen, aber nur wenn alle Informationen über einen längeren Zeitraum für die Analyse verfügbar bleiben. Veraltete Tools des Leistungs-Managements erwerben entweder die benötigten Informationen nicht oder sie verwerfen Informationen zu schnell.


Zukünftige Lösungen des Leistungs-Management müssen in der Lage sein die detailliertesten Informationen abzurufen und sie für länger Zeit zu speichern. Dadurch wird es Betrieben und IT ermöglicht Echtzeitanalysen zu leiten und die Zeit zu getrennten Punkten zurück zu drehen, im Bemühen die Umgebungen, die mit sporadisch auftretenden Störungsprotokollen verbunden sind, zu bewerten und korrelieren. Es fördert zudem die Entwicklung der nominalen Leistungsgrundlinien kurz-, mittel- und langfristig, sodass Abweichungen so früh wie möglich identifiziert und adressiert werden, während Messungen durch eine Reihe zunehmend akuter Verminderungsschwellenwerte gehen.

TruView - Eine wahrhaft einheitliche Plattform

Die gute Nachricht für Unternehmen, die Konsolidierungsprojekte von Rechenzentren abgeschlossen haben, dabei sind sie abzuschließen oder planen Sie abzuschließen, ist, dass die zukünftige Lösung des Leistungs-Managements nicht nur ein Wunschdenken ist. Eine modernste Antwort steht heute zur Verfügung: TruView von NETSCOUT. TruView ist eine 100%-ige, web-basierte, URL-steuerbare Plattform, deren Bestandteile, Anzeigen und Berichte integriert und angepasst werden können, um den exakten Anforderungen eines Unternehmens gerecht zu werden.


Abbildung 2: Mit dem Anwendungsleistungs-Dashboard von TruView können Sie schnell und ohne einen einzigen Mausklick die schwächsten Anwendungen, Server und Standorte erkennen.

Ein integrierter TruView-Server ist das Herzstück einer einheitlichen Plattform. Der Server beherbergt eine gewöhnliche Plattform, auf der Service- und Daten-Modelldefinitionen rationalisiert werden können. Die Plattform besteht aus einer Analysemaschine und Baseline-, Warnungs-, Mitteilungs- und Konfigurationselemente, die die Grundlage der Lösung sind. Mit dieser Serverarchitektur können alle Funktionalitäten, Informationen und Anzeigen, unabhängig der Ursache nahtlos ineinandergreifen und übergreifende Domän-Interaktionen sowie schnelle Datenkorrelationen zur Problemidentifizierung, -lokalisierung und -lösung fördern.

Der patentierte Workflow IntelliTrace verbessert die Analyse und Fehlerbehebung, indem es mit wenigen Klicken eine einfache Erkennung der Problemdomäne und eine Grundursacheanalyse liefert. TruView bietet eine einzelne Plattform mit der robustesten Datenerfassungs-, Analyse- und Präsentationsmaschine.


Eine Schicht geläufiger und/oder kundenspezifischer Zugriffe, Steuerungen und Ansichten liegt auf der Plattform. Diese Architekturschicht von TruViews ist für die Verbindung mit Produktbestandteile verantwortlich, die Leistungsdaten aus unvergleichlichen Breiten und Tiefen vom gesamten Unternehmen erfassen und erhalten. Vier Komponentstypen entspringen der Lösung: Geräte des Netzwerkflusses, die Netzwerkleistungs- und -gebrauchsansichten aktivieren; Geräte der Anwendungsleistung, die den Input für Anwendungsleistungsansichten bieten; Untersuchungen der Analysis Service Elements (ASE), die einen breiten Netzwerkbereich und Voice-Over-Internet Protokollansichten sowie S2D-Hardware unterstützen, die 100% der Pakete mit bis zu 10Gbps Leitungsgeschwindigkeit erfassen können. Dank dem web-basierten Design von TruView, haben Firmen zudem die Option, einige oder alle ihre veralteten Tools in die Architektur zu integrieren, um ihre früheren Investitionen wirksam einzusetzen.

Überwachung von Infrastrukturdaten

Abbildung 3: Echtzeit- und frühere Berichte von TruView


Die Gerätefähigkeiten des Netzwerkflusses von TruView interagieren mit der vorhandenen Infrastruktur der Router und Switches, um flow-basierende Informationen in jedem beliebigen Format zu erhalten, einschließlich aber nicht begrenzt auf IPFIX und Ciscos NetFlow. Diese flow-basierenden Fähigkeiten erwerben zu jeder Zeit alle Informationen von allen Flüssen und halten Echtzeitdaten auf unbestimmte Zeit auf Millisekundenauflösung. Da die Lösung nicht auf Durchschnittsberechnungen oder das Verwerfen von Daten zurückgreift, ist sie nicht auf Bewertungen begrenzt, die sich nur auf die besten Statistiken konzentrieren, die möglicherweise nicht die Details anbieten, die notwendig sind, um wichtige Fähigkeiten wie ungesteuerte Benutzererkennung, Multicast-Transparenz und Peer-to-Peer-Analysen zu unterstützen.

Betriebe und das IT-Personal können die Datensicherungs- und detaillierten Variablen des Gerätes so anpassen, dass sie den einzelnen Anforderungen gerecht werden. Zusammen mit der umfassenden Flow-Deckung übermitteln die Geräte des Netzwerkflusses, was es den TruView-Benutzern ermöglicht, von umfassenden Übersichten zu den Perspektiven der einzelnen Flüsse zu wechseln. Diese Full-Flow-Forensik, Anzeigen und Berichte - in Echtzeit und über einen längeren Zeitraum - ermöglichen Betrieben und dem IT-Team Szenarien, die in einem zusammengefassten Rechenzentrum relevant sind, zu adressieren und dafür zu planen, einschließlich Pfad- und Sitzungsoptimierung, Anforderungsvalidierung der Bandbreite sowie das Leistungs-Management von CoS- und MPLS-Netzwerken.

Verwaltung der Anwendungsleistung

Abbildung 4: Dank detaillierter Informationen, die im 1-Minuten-Takt geliefert werden, und der Anzeige der Antwortzeiten der Benutzer bei Anwendungs-, Netzwerk- und Serverkomponenten kann das Infrastrukturteam den Problembereich schnell erkennen.


Durch die Verwendung eines Mirror-Port oder durch das Anschließen an einen physischen oder virtuellen Server, können die Geräte der Anwendungsleistung von TruView auf Inline- oder übergreifende Daten zugreifen, die mit jeder anwendungsbasierten Transaktion, sogar für virtualisierte Anwendungen verbunden sind. Das Gerät der Anwendungsleistung ist mit einer eigenen, patentierten Technologie ausgestattet, die es ermöglicht alle Informationen zu erfassen, zu filtern (doppelte oder irrelevante Pakete verwerfend) und zu speichern. Übersichtsinformationen werden alle 60 Sekunden an jeden TruView Manager-Server weitergeleitet, um die umfassenden Ansichten der Anwendungsleistung zu unterstützen. Während Verwender von Lösungen mit Diagnoseaktivitäten beginnen, sendet das Gerät auf Abruf zunehmend detaillierte Daten, bis hin zu den einzelnen Transaktionen für Echtzeit-Veranstaltungen und früher stattfindende Transaktionen.

Optionale, dedizierte Hardware-Tools zur Datenerfassung

Abbildung 5: Übersicht der Netzwerkleistung von TruView

Die Analysis Service Elements (ASE) von TruView Geräte, werden entweder in zusammengefassten Rechenzentren oder an remoten Standorten über das unternehmensweite Netzwerk eingesetzt, um die gewünschte Breite an Informationen zur Verfügung zu stellen. Einzelne Service-Elemente der Analyse wurden konzipiert, um eine Tiefe an Informationen, die sich über die Ebenen 1-7 des Netzwerk-Modells zieht, zu erfassen und an den TruView-Server zurückzusenden, von der physischen bis zur Anwendungsebene.

Service-Elemente der Analyse sind für Situationen ideal, in denen zwingendere Sicht- und Leistungskriterien im Spiel sind, wie Fehlererkennungen in der physischen Ebene und Service Level Agreements, die an Netzwerk-, Server- oder Anwendungsverfügbarkeiten gebunden sind. Sie sind zudem auch ideal geeignet für Umgebungen wie zusammengefasste Rechenzentren, in denen Unternehmen den maximalen Nutzen aus der Zusammenführung von Sprache, Video und Daten,die über den gleichen Transport laufen, ziehen möchten, um Kosten zu verringern und die Bandweite zu optimieren, ohne Leistung zu opfern. Z.B. benötigen erfolgreiche Einführungen von Voice-Over-Internet-Protokollen vor, während und nach dem Übergang von herkömmlichen schaltkreisgesteuerten Sprachdiensten ein umfassendes Verständnis und Projektion der Verkehrstyp- und Service-Verteilungen. Service-Elemente der Analyse leiten die Informationen weiter, die Ansichten und Berichte speisen, die Bewertungen der Voice-Over-Internet-Protokolle, aktive oder passive Leistungsüberwachungen, Qualitätsmessungen pro Anruf und Echtzeit- oder Back-In-Time-Fehlerbehebung unterstützen.


Robuster Datenstrom zur Festplatte

Das TruView-Server bietet Paketansammlungen mit einer Datenübertragungsrate von bis zu 10 Gbps, die gewährleistet, dass IT-Teams nie eine wichtiges Vorkommnis verpassen. Zu häufig, sind sporadisch auftretende Probleme viel schwieriger zu lösen, wegen der begrenzten oder fehlenden Daten, aber das S2D von TruView stellt sicher, dass Sie alles was Sie benötigen zur Hand haben. Durch die Erfassung aller Daten bei voller Übertragungsgeschwindigkeit , gibt es keine Informationslücken mehr.

Anstatt Annahmen zu machen oder einen kleinen Teil der Daten zu speichern, speichern die Fähigkeiten des S2D von TruView alle Flüsse, Transaktionen und Pakete, ohne Begrenzungen oder Bereinigungen. Das S2D ist wertvoll, indem es Fehler schneller behebt und die Zeit, die für Audit- und Compliance-Anforderungen erforderlich ist vermindert. Die korrelierte TruView-Plattform bietet beim Auftreten des Problems einen einfachen Zugang zu den richtigen Informationen - egal ob IT-Teams Echtzeitfehler beheben oder versuchen, die Ursache eines sporadisch auftretenden Problems, das vor Stunden oder Tagen entstand, zu identifizieren.

Erzielen und messen des Erfolges der Rechenzentrum-Konsolidierung

Ob das Konsolidierungsprojekt eines Rechenzentrums Erfolg hat oder fehlschlägt, sollte nicht auf einer kurzfristigen, subjektiven oder qualitativen Bewertung eines einzelnen Verantwortlichen basieren. Stattdessen müssen sich Unternehmen auf quantitative Statistiken und Messungen verlassen, die über einen längeren Zeitraum berechnet werden und die Auswirkungen auf alle Wahlkreise erfassen - Geschäftsinhaber, das IT- und Betriebspersonal, die Unternehmensleitung und Kunden.

Die Forrester Research Studie der 147 US-Unternehmen, die eine Rechenzentrum-Konsolidierung abgeschlossen oder aktiv durchgeführt haben, bat diese Unternehmen, die fünf besten Messungen zu bestimmen, die sie zur Messung des Konsolidierungserfolgs verwendeten. 52% der Befragten gaben Betriebskosten in ihrer Liste der fünf besten Messungen an, dicht gefolgt von den Gesamtkosten des Besitzes mit 44%, den Prozentsätzen des gesparten IT-Budgets mit 38%, der Anwendungsleistung im Vergleich zu den Infrastrukturkosten mit35% und der Leistung pro CPU-Kern mit 34%.3

Die Implementierung eines Leistungs-Management-Tools hilft nicht nur in der Erstellung dieser Statistiken, sondern er auch in der direkten Beeinflussung ihrer Werte. Die richtige Leistungs-Management-Lösung ermöglicht kleinen, mittleren und großen Unternehmen, die Kosten-, Optimierungs-, Sicherheits- und Compliance-Vorteile einer Rechenzentrums-konsolidierung in ihrem vollsten Umfang zu verwirklichen. Gleichzeitig schützt eine solche Lösung die Unternehmen gegen die Herausforderungen, die häufig mit einer Konsolidierung auftreten, einschließlich Personal-, Berichts- und Tool-Problemen.

Veraltete Leistungs-Management-Tools sind dieser Aufgabe nicht gewachsen, da ihnen der notwendige Anwendungsbereich, die Perspektive und das Timing fehlt, um in einer konsolidierten Umgebung zu übermitteln. Zu viel hängt von der Rechenzentrum-Konsolidierung ab, um die Leistungs-Management-Funktion zu ignorieren oder sie einer Reihe unzureichender, ungleicher Tools anzuvertrauen, die zusammen bei der Berücksichtigung aller Netzwerk-, Anwendungs- und Service-Leistungsanforderungen scheitern. Unternehmen benötigen eine zukünftige Leistungs-Managementlösung mit der Architektur, Breite, Tiefe, Skalierbarkeit, Funktionalität und dem gebräuchlichen Daten-Modell, um das Konsolidierungsprojekt heute und zukünftig zum Erfolg zu führen. Nur ein Produkt liefert die Grundvorraussetzungen des zukünftigen Leistungs-Managements: TruView von NETSCOUT.

1 Kostenanalyse und -Messung helfen den Erfolg der Konsolidierung zu gewährleisten, Forrester Research, 2009 Januar.

2 Kostenanalyse und -Messung helfen den Erfolg der Konsolidierung zu gewährleisten, Forrester Research, 2009 Januar.

3 Kostenanalyse und -Messung helfen den Erfolg der Konsolidierung zu gewährleisten. Forrester Research, 2009 Januar.

 
 
Powered By OneLink