VIAVI arbeitet mit den Netzbetreibern, den Anbietern von Cloud-Netzen/-Diensten und von DCI-Querverbindungen zwischen Rechenzentren zusammen, um die Testdauer zu verringern, optische Netze zu optimieren, Latenzzeiten zu verkürzen und eine umfassende Einhaltung der Dienstgütevereinbarungen (SLA) sicherzustellen.
Hyperscale-Rechenzentren
VIAVI arbeitet mit den Betreibern von Hyperscale-Rechenzentren, den Anbietern von Cloud-Netzen/-Diensten und von robusten Data-Center-Interconnects(DCI)-Querverbindungen zwischen Rechenzentren zusammen, um die Testdauer zu verringern, optische Netze zu optimieren, Latenzzeiten zu verkürzen und eine 100%ige Einhaltung der Dienstgütevereinbarungen (SLA) sicherzustellen. Wir garantieren die Leistungsparameter optischer Hardware vom Labor über die Aktivierung bis zur Überwachung. Dies beinhaltet Prüf- und Messtechnik, die die Faserendflächen von MPO-Mehrfaserverbindern in Sekundenschnelle kontrollieren und zwei 100G-Ports gleichzeitig testen kann. Da VIAVI Solutions mit allen Phasen optischer Hyperscale-Tests vertraut ist, wissen wir, wie Sie beim Aufbau Ihrer Highspeed-Netze bis 400G und darüber hinaus vorgehen. Und wir haben die Tester, die wirklich allen Ihren Anforderungen gerecht werden.
VIAVI Solutions arbeitet in mehr als 30 Standardisierungsgremien und Open-Source-Initiativen, wie dem Telecom Infra Project (TIP), aktiv mit. Sollten sich neue Standards jedoch verzögern, gehen wir auch voran und entwickeln Messtechnik, die zukünftige Vorgaben bereits berücksichtigt. Wir fördern offene Anwendungsprogrammierschnittstellen (API), damit Hyperscale-Unternehmen eigene Automatisierungscodes schreiben können. Seit nahezu 100 Jahren testet VIAVI Solutions bereits Kommunikationstechnik.
Was ist ein Hyperscale-Rechenzentrum?
Ein Hyperscale-Rechenzentrum ist ein großes, verteiltes Rechenzentrum, das dem nutzenden Unternehmen gehört und von ihm betrieben wird. Der Begriff „Hyperscale“ bezieht sich nicht notwendigerweise auf die physische Größe des Rechenzentrums, sondern vielmehr auf die Fähigkeit, die Kapazität in kürzester Zeit aufzustocken, um auf eine steigende Nachfrage reagieren zu können. Hierbei kann es sich um eine horizontale Skalierung („Scaling-out“) durch Hinzufügen von Hardware oder um eine vertikale Skalierung (Scaling-up) durch Vergrößerung der Leistung, Geschwindigkeit oder Bandbreite vorhandener Hardware handeln. Dafür nutzen Hyperscale-Rechenzentren neben ihren eigenentwickelten Technologien häufig auch softwaredefinierte Netze (SDN).
Die DCI-Technologie (Data Center Interconnect) wird genutzt, um mehrere massive Hyperscale-Einrichtungen weltweit zusammenzuschalten. Aufgrund der Größe und Komplexität der Architektur von Hyperscale-Rechenzentren kann beim Aufbau, bei der Erweiterung und bei der Überwachung dieser Netze nicht auf entsprechende Tests verzichtet werden. Heute werden mithilfe der 16-QAM-Modulation auf einer einzigen Wellenlänge Übertragungsraten von bis zu 200 Gbit/s erreicht. Hier erleichtern DCI-Verbindungstests die Installation, indem sie umgehend den Durchsatz bestimmen und Problemstellen präzise anzeigen.
VIAVI stellt ein beispiellos breites und tiefes Spektrum interoperabler Prüf- und Messtechnik mit der entsprechenden Testkompetenz zur Verfügung. Damit sind eine Dienstgüte und Zuverlässigkeit sichergestellt, die die Leistungsanforderungen der Hyperscale-Cloud erfüllen.
Was ist ein Hyperscaler?
Ein Hyperscaler ist laut der International Data Corporation (IDC) ein Rechenzentrum mit mindestens 5000 Servern auf einer Grundfläche von mindestens 930 Quadratmetern. Internet Content Provider (ICP), Cloud-Dienste und Big-Data-Speicherung gelten als typische Beispiele für Hyperscale-Anwendungen, obgleich nicht alle Unternehmen in diesen Bereichen diese massiven Rechenzentren nutzen.
Auch für soziale Medien und Enterprise-Software wurden bereits Rechenzentren eingerichtet. Die tatsächliche Anzahl der Unternehmen, die nach der obigen Definition als Hyperscaler anzusehen sind, ist relativ klein (weniger als 30) und hat vorrangig ihren Sitz in den USA.
Weltweit sind heute mehr als 400 Hyperscale-Rechenzentren in Betrieb, wobei ihre Zahl weiter ansteigt. Ein Unterscheidungsmerkmal von Hyperscalern besteht darin, dass sie die Absicht und die Kompetenz besitzen, die Hardware und Software des Rechenzentrums an ihr Geschäftsmodell und ihre Anwendungen anzupassen.
Diese Anpassung kann sich auf die gesamte Lieferkette auswirken, wenn die Anbieter entsprechend auf die große Anzahl und die rasante Entwicklung der Hyperscale-Hardware und -Komponenten reagieren. Um die benötigten Kosten zu bewältigen, müssen Hyperscaler eine langfristige Vision und einen Zukunftsplan entwickeln, der eine erhebliche Skalierbarkeit und ein großes Wachstumspotenzial umfasst.
Herausforderungen der großen Rechenleistung
Die Architektur von Hyperscale-Rechenzentren bietet allein aufgrund ihrer Größe bereits mehrere Vorteile. Dazu zählen die effizientere Kühlung und Energieverteilung, die Lastverteilung zwischen den Servern sowie die integrierten Redundanzen.
Diese Größenvorteile können jedoch durch die mit Hyperscale-Computing einhergehenden Herausforderungen wieder zunichte gemacht werden. So ist es möglich, dass große Verkehrsvolumen und komplexe Datenflussmuster die Fähigkeiten traditioneller Monitoring-Tools und -Verfahren übersteigen. Auch werden die Einblicke in externe Verkehrsflüsse eventuell durch die Geschwindigkeit und die Anzahl der vorhandenen Anschlüsse beeinträchtigt.
Sicherheitsbedenken stellen eine weitere Herausforderung dar. Diese können sich mit der Größe des Rechenzentrums weiter verstärken. Obwohl vorbeugende und proaktive Sicherheitssysteme eine wesentliche Komponente von Rechnernetzen sind, kann bereits ein einziger erfolgreicher Angriff riesige Mengen sensibler Kundendaten gleichzeitig kompromittieren.
Die Ressourcenplanung für Hyperscale-Rechenzentren muss das Vorhandensein hochqualifizierter Mitarbeiter sowie den verfügbaren Platz berücksichtigen. Diese Faktoren schränken die Standort-Optionen gelegentlich ein, sodass auf abgelegene oder kaum erschlossene Gebiete ausgewichen werden muss. Da die Nutzfläche einiger der größten Rechenzentren 45.000 Quadratmeter überschreitet, kann es zudem schwierig sein, den benötigten Anschluss an die Energieversorgung, den Straßenverkehr und die sonstige Infrastruktur für den betreffenden Standort bereitzustellen.
Trotz dieser Hemmnisse befinden sich viele der weltweit größten Rechenzentren zurzeit in oder in Nähe von dichtbesiedelten und gut erschlossenen Großstädten. Im kommenden Jahrzehnt werden die Hyperscale-Rechenzentren immer größer werden, auch wenn der verfügbare Talentpool weiter schrumpft. Mehr Automatisierung, maschinelles Lernen (ML) und Virtualisierung werden benötigt, um zu verhindern, dass eine exponentiell ansteigende Nachfrage nach Ressourcen und Fachkräften das Ökosystem überfordert.
Testanforderungen
Die Tests zur Überprüfung von Glasfaseranschlüssen, der Netzwerkleistung und der Dienstgüte (QoS) sind mit denen in konventionellen Rechenzentren identisch – sie sind lediglich in viel größerem Umfang erforderlich. Die zuverlässige Verfügbarkeit gewinnt sogar an Bedeutung, auch wenn sich die Komplexität der Tests aufgrund der reinen Menge an Übertragungsstrecken und Komponenten vergrößert. Bis fast an die Leistungsgrenze belastete Hyperscale-DCI-Verbindungen sollten durchgängig getestet werden, um den Durchsatz nachzuweisen und potentielle Störungen zu erkennen, noch bevor es zu einem Ausfall kommen kann. Um die Ressourcenbelastung zu verringern, sollten zudem automatische Überwachungslösungen genutzt werden.
Da die Hyperscaler die Hardware und Software ihres Hyperscale-Rechenzentrums an ihre konkreten Anforderungen anpassen, spielt die Interoperabilität von Premium-Testlösungen eine wichtige Rolle. Tester, die offene APIs unterstützen, fördern die Flexibilität der Hyperscaler. Angesichts der Entwicklung von zunehmend unterschiedlicher Hardware finden Schnittstellenstandards wie PCIe und MPO immer weitere Verbreitung, da sie es ermöglichen, die Dichte in Verbindung mit der Kapazität im Hyperscale-Ökosystem zu optimieren. Zur weiteren Bewältigung der Herausforderungen der Interoperabilität und der Glasfasernetze arbeitet VIAVI eng mit Standardisierungsgremien wie der Fiber Optic Association (FOA) zusammen, da die vielfältigen Spezifikationen immer weiter entwickelt werden.
Bitfehlertester wie die Plattform MAP-2100 wurden speziell für Standorte entwickelt, an denen allgemein wenig oder kein Personal vorhanden ist, um manuelle Tests an den Netzwerken durchzuführen. Netzwerk-Überwachungslösungen für das Hyperscale-Ökosystem können über mehrere physische oder virtuelle Zugangspunkte flexibel umfassende Leistungstests auslösen.
Die genaue Planung und Entwicklung optimaler Tester für Komponenten, wie MPO-Verbinder und Faserbändchen, erlauben, auch in dem von den Hyperscale-Rechenzentren benötigten größeren Umfang einheitliche Testverfahren durchzusetzen.
Lösungen für Hyperscale-Rechenzentren
Neue Rechenzentren setzen immer wieder auch neue Maßstäbe an die Größe, Komplexität und Belegungsdichte. Testlösungen, die speziell für Hyperscale-Umgebungen entwickelt wurden, sowie Tools und Produkte, die ursprünglich für andere kapazitätsintensive Glasfaseranwendungen geschaffen wurden, können kombiniert eingesetzt werden, um die Leistung des Rechenzentrums effektiv zu überprüfen und Wartungsaufgaben durchzuführen.
Sichtprüfung von Faserendflächen
Die große Menge an optischen Anschlüssen und Verbindungen in und zwischen Rechenzentren unterstreicht die Notwendigkeit zuverlässiger und effizienter Tools zur Sichtprüfung von Faserendflächen. Schon der kleinste Fremdkörper, Defekt oder eine verunreinigte Endfläche kann die Einfügedämpfung unzulässig erhöhen und die Leistung im gesamten Netzwerk beeinträchtigen. Die besten Tools zur Faserendflächenprüfung in Hyperscale-Rechenzentren kombinieren eine kompakte Bauweise mit automatischen Prüfroutinen und Mehrfaser-Testfunktionen.
Highspeed-Übertragung: 400G und 800G
Neue Technologien wie das Internet der Dinge (IoT) und 5G haben mit ihrem hohen Bandbreitenbedarf dazu geführt, dass 400G und 800G in Rechnernetzen unverzichtbar geworden sind. Während diese anspruchsvollen Highspeed-Ethernet-Standards die Rechenzentren in die Lage versetzen, mit der Entwicklung Schritt zu halten, haben die PAM-4-Modulation und die Vorwärtsfehlerkorrektur (Forward Error Correction, FEC) den Testaufwand erhöht. Skalierbare, aufrüstbare Tester ermöglichen effizientere Fehlerraten- und Durchsatzmessungen, die den Anwendern erlauben, den Leistungsanforderungen der Netze gerecht zu werden.
100G und 200G
Auf der Querverbindung zwischen Rechenzentren wird mit nur einer Wellenlänge eine Datenrate von bis 100 Gbit/s erreicht. Leistungssteigerungen auf 200 Gbit/s sind an der Tagesordnung. Tools, die automatische Skripts zum Testen und Überwachen des Netzwerks verwenden, können die Integrität und Sicherheit dieser wichtigen Übertragungswege gewährleisten. Belastungstests an den optischen Verbindungen vor der Inbetriebnahme erlauben, Schwachstellen zu identifizieren und zu lokalisieren. Auch TCP-Durchsatzmessungen nach RFC 2544 und RFC 6349 sind möglich, um die für 200G benötigte 16-QAM-Modulation zu überprüfen.
Glasfaser-Überwachung
Bedingt durch die zunehmende Verbreitung optischer Übertragungsstrecken in Hyperscale-Rechenzentren ist die zuverlässige Glasfaser-Überwachung zu einer anspruchsvollen und doch unverzichtbaren Aufgabe geworden. Vielseitige Tester, die den Durchgang, die optische Dämpfung und den Leistungspegel überprüfen sowie OTDR-Messungen durchführen, sind unersetzlich für den Aufbau, die Inbetriebnahme und die Fehlerdiagnose dieser Verbindungen. Automatische Glasfaser-Überwachungslösungen wie das optische Fernüberwachungssystem (RFTS) ONMSi gewährleisten ein skalierbares, zentrales Monitoring mit sofortiger Alarmauslösung.
Virtuelle Tests
Tests, für deren Durchführung die Techniker früher mit portabler Messtechnik zum Kunden fahren mussten, können heute über den Test-Agent Fusion virtuell ausgeführt werden. Diese Virtualisierung hilft dem Betreiber, den erheblichen Ressourcenbedarf seines Rechenzentrums unter Kontrolle zu halten. Die softwarebasierte Plattform Fusion kann genutzt werden, um Netzwerke zu überwachen, die Leistungsparameter sicherzustellen und die Einhaltung von Dienstgütevereinbarungen (SLA) zu kontrollieren. Zudem ist es möglich, TCP-Durchsatzmessungen wie RFC 6349 und andere Tests zur Ethernet-Aktivierung virtuell zu starten und durchzuführen.
MPO-Mehrfaserverbinder
Früher wurden Multi-Fiber-Push-On(MPO)-Verbinder hauptsächlich für Trunkkabel mit hoher Faserzahl verwendet. Heute hat die hohe Belegungsdichte in Hyperscale-Rechenzentren dazu geführt, dass diese Anschlussmöglichkeit sehr schnell für Patchfelder, Server und Switche übernommen wurde. Da kompakte Faserbändchen bis zu 72 einzelne Glasfasern enthalten können, lassen sich die Sichtprüfung und das Testen dieser Verbinder mit speziellen MPO-Testlösungen und automatischer Gut-/Schlecht-Auswertung deutlich beschleunigen.
Breite Palette kritischer Tester
Das breite Spektrum der von VIAVI angebotenen Prüf- und Messtechnik deckt alle Aspekte und Phasen des Aufbaus, der Inbetriebnahme und der Wartung von Hyperscale-Rechenzentren ab. Bei der Migration zu größeren und dichter belegten Rechenzentren bleibt die Sichtprüfung der Faserendflächen ein kritischer Bestandteil der Teststrategie.
Angesichts der rasanten Verbreitung von optischen MPO-Anschlüssen erweist sich das Faserprüfmikroskop FiberChek Sidewinder als ideale Lösung für die automatische Zertifizierung der Faserendflächen von Mehrfaserverbindern. Optische Dämpfungsmessplätze (OLTS), die speziell für MPO-Verbinder entwickelt wurden, wie der SmartClass Fiber MPOLx, erleichtern die zuverlässige Tier-1-Faserzertifizierung im Hyperscale-Rechenzentrum.
Der MTS-5800 100G ist ein branchenführender kompakter 100G-Tester mit zwei Ports für Glasfasertests, die Aktivierung von Diensten und die Fehlerdiagnose. Dieses vielseitige Produkt bietet sich für Anwendungen im Metro- und Kernnetz sowie für DCI-Tests an. Mit seiner umfassenden Funktionalität und dem robusten, kompakten Design ermöglicht er, Tests zur Aktivierung von OTN- und Ethernet-Diensten schnell und präzise auszuführen. Zudem fördern die reproduzierbaren Messmethoden und -verfahren des MTS-5800 eine einheitliche Testausführung.
Hyperscale-Rechenzentren bieten sich für automatische OTDR-Messungen durch MPO-Anschlüsse an. Das MPO-Schaltmodul wurde mit dem Ziel entwickelt, eine Komplettlösung für hochdichte MPO-Glasfaserumgebungen zur Verfügung zu stellen. In Verbindung mit der Testplattform MTS können die Glasfasern jetzt ohne zeitaufwändige Fanout-/Breakout-Kabel über den OTDR-Anschluss charakterisiert werden. So ist es möglich, an bis zu 12 Glasfasern gleichzeitig automatische Zertifizierungstests auszuführen.
Die eigenständige Fernüberwachung von Glasfasern ist eine Anwendung, die in der Hyperscale-Cloud nahezu unbegrenzte Möglichkeiten bietet. Das Glasfaser-Monitoring mit dem SmartOTU erlaubt, den Anwender bei spezifischen Ereignissen, wie Qualitätsverschlechterungen, angezapften Fasern oder unberechtigten Zugriffen, umgehend zu alarmieren. Das System ist nach der Installation ohne jede weitere Konfiguration sofort einsatzbereit. Diese wirtschaftliche, präzise und modulare Lösung fördert die Einhaltung von Dienstgütevereinbarungen (SLA) und die Verfügbarkeit von DCI-Querverbindungen.
Die Zukunft von Hyperscale-Rechenzentren
Neue Technologien und Anwendungen werden die Nachfrage nach Hyperscale-Computing bis in das nächste Jahrzehnt und darüber hinaus verstärken. Angesichts der immer größeren, von 5G gebotenen Möglichkeiten der Monetarisierung werden neue Betreiber von Rechenzentren auch neue Anwendungen einführen, die einen größeren Durchsatz sowie eine höhere Dichte und Effizienz erfordern. Mehr Rechenzentren werden über riesige Glasfasernetze miteinander verbunden werden, da jeder neue Hyperscaler deren Reichweite und Basis erweitert.
Hyperscale-Computing ist ein wahrhaft weltweites Phänomen, dessen Anteil sich mit der steigenden Anzahl von Neuinstallationen in Asien, Europa, Südamerika und Afrika weiter erhöhen wird. Massive neue DCI-Seekabel, die diese weltweiten Regionen miteinander verbinden, werden auf dem Meeresboden, wo vielleicht sogar neue Rechenzentren entstehen, verlegt werden.
Grüne Technologien, wie Solaranlagen auf Dächern und Windturbinen, werden dafür sorgen, dass der immense Energieverbrauch der Rechnernetze besser und umweltfreundlicher bewältigt wird. Mit der weiteren Entwicklung der Hyperscale-Technology wird VIAVI auch in Zukunft von seiner jahrzehntelangen Erfahrung, Kompetenz und durchgehenden Einbeziehung in die Planung und Bereitstellung sowie in das Management von Hyperscale-Elementen, angefangen bei der Planung im Labor bis zur Wartung im Feldeinsatz, profitieren.
Testen auch Sie noch heute Ihr Rechenzentrum mit VIAVI!
Sind Sie bereit, mit einem unserer Produkte oder Lösungen für Hyperscale-Rechenzentren den nächsten Schritt zu gehen?
Füllen Sie eines der folgenden Formulare aus, um: