DCB (data center bridging)

Rechenzentren haben spezielle Anforderungen an Ethernet. Sie benötigen eine äußerst geringere Latenzzeit, die Möglichkeit der Priorisierung des Datenverkehrs und die Flexibilität um Traffic-Anweisungen zu verwalten. Was die Verwaltung von Speicher-Traffic anbelangt, so hat diese durch den standardisierten Fibre Channel over Ethernet (FCoE) wesentlich an Bedeutung gewonnen. Dieser ANSI-Standard setzt bei Ethernet eine verlustlose Datenübertragung, Lossless Ethernet, voraus, ähnlich der von Fibre-Channel Netzwerken.


Die Anforderungen an das Bridging in Rechenzentren werden von der IEEE-Arbeitsgruppe 802.1, die sich mit dem Data Center Bridging (DCB) beschäftigt, erarbeitet. Das Ziel dieser Arbeitsgruppe ist es, die 802.1-Spezifikation dahingehend zu verbessern, dass sie den Anforderungen der Switches an moderne Rechenzentren gerecht werden. Denn nur über die DCB-Funktionalität der Switches können RZ-Netze flexibel erweitert werden.

In der aktuellen Version von Data Center Bridging wird die Überlastung, das Congestion, in großen Bridging-Domänen mit dem Priority Flow Control (PCF) und Enhanced Transmission Selection (ETS) mit Deficit-Weighted Round Robin Queuing (DWRR) behandelt. Bei der Implementierung der DCB-Funktionalität werden vier Protokolltechniken umgesetzt: die des Priority Flow Control (PFC), der Congestion Notification (CN), die Enhanced Transmission Selection (ETS) und das Data Center Bridging Exchange (DCBX). Umfangreiche Überlastungen sollen mit der im Standard 802.1Q (au) spezifizierten Quantized Congestion Notification (QCN) gelöst werden; dabei senden die Bridges eine Congestion Notification Message (CNM) an den End-Host.

Informationen zum Artikel
Deutsch:
Englisch: data center bridging - DCB
Veröffentlicht: 03.01.2011
Wörter: 223
Tags: #RZ-Infrastruktur
Links: Arbeitsgruppe, Bridging, Brücke, CN (congestion notification), CNM (congestion notification message)