data center bridging (802.1) (DCB)

Rechenzentren haben spezielle Anforderungen an Ethernet. Sie benötigen eine äußerst geringere Latenzzeit, die Möglichkeit der Priorisierung des Datenverkehrs und die Flexibilität um Traffic- Anweisungen zu verwalten. Was die Verwaltung von Speicher-Traffic anbelangt, so hat diese durch den standardisierten Fibre Channel over Ethernet ( FCoE) wesentlich an Bedeutung gewonnen. Dieser ANSI-Standard setzt bei Ethernet eine verlustlose Datenübertragung, Lossless Ethernet, voraus, ähnlich der von Fibre-Channel Netzwerken.

Die Anforderungen an das Bridging in Rechenzentren werden von der IEEE- Arbeitsgruppe 802.1, die sich mit dem Data Center Bridging (DCB) beschäftigt, erarbeitet. Das Ziel dieser Arbeitsgruppe ist es, die 802.1-Spezifikation dahingehend zu verbessern, dass sie den Anforderungen der Switches an moderne Rechenzentren gerecht werden. Denn nur über die DCB-Funktionalität der Switches können RZ-Netze flexibel erweitert werden.

In der aktuellen Version von Data Center Bridging wird die Überlastung, das Congestion, in großen Bridging- Domänen mit dem Priority Flow Control ( PCF) und Enhanced Transmission Selection ( ETS) mit Deficit-Weighted Round Robin Queuing ( DWRR) behandelt. Bei der Implementierung der DCB-Funktionalität werden vier Protokolltechniken umgesetzt: die des Priority Flow Control ( PFC), der Congestion Notification ( CN), die Enhanced Transmission Selection (ETS) und das Data Center Bridging Exchange ( DCBX). Umfangreiche Überlastungen sollen mit der im Standard 802.1Q (au) spezifizierten Quantized Congestion Notification ( QCN) gelöst werden; dabei senden die Bridges eine Congestion Notification Message ( CNM) an den End- Host.

Informationen zum Artikel
Deutsch:
Englisch: data center bridging (802.1) - DCB
Veröffentlicht: 04.01.2011
Wörter: 222
Tags: RZ-Infrastruktur
Links: Rechenzentrum (RZ), Ethernet, Latenz, Priorisierung, Datenverkehr
Übersetzung: EN
Sharing: