Azure Stack HCı için konak ağ gereksinimleriHost network requirements for Azure Stack HCI

Azure Stack HI, sürüm 20H2 için geçerlidirApplies to Azure Stack HCI, version 20H2

Bu konuda Azure Stack HCı ana bilgisayar ağı konuları ve gereksinimleri açıklanmaktadır.This topic discusses Azure Stack HCI host networking considerations and requirements. Veri merkezi mimarileri ve sunucular arasındaki fiziksel bağlantılar hakkında bilgi için bkz. fiziksel ağ gereksinimleri.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Ağ trafiği türleriNetwork traffic types

Azure Stack HCı ağ trafiği hedeflenen amacına göre sınıflandırılabilirler:Azure Stack HCI network traffic can be classified by its intended purpose:

  • İşlem trafiği -bir sanal makınenın (VM) kaynaklı veya hedefi olan trafikCompute traffic - traffic originating from or destined for a virtual machine (VM)
  • Depolama trafiği -sunucu ileti bloğu (SMB) kullanarak depolama ALANLARı doğrudan (S2D) için trafikStorage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Yönetim trafiği -Active Directory, Uzak Masaüstü, Windows Yönetim Merkezi ve Windows PowerShell gibi küme yönetimi için bir yöneticiye önem taşıyan trafik.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Ağ bağdaştırıcısı seçmeSelecting a network adapter

Azure Stack HI için, standart veya Premium ek nitelikle (AQ) Windows Server Software-Defined veri merkezi (SDDC) sertifikası elde eden bir ağ bağdaştırıcısı seçmemiz gerekir.For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Bu bağdaştırıcılar, en gelişmiş platform özelliklerini destekler ve donanım iş ortaklarımız tarafından en fazla testi gerçekleştirdi.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Genellikle bu scrutlelelik düzeyi, donanım ve sürücüyle ilgili kalite sorunlarını azaltmaya yol açar.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

Bağdaştırıcı ve ilgili işletim sistemi sürümü için Windows Server katalog girişini inceleyerek standart veya Premium aq içeren bir bağdaştırıcıyı tanımlayabilirsiniz.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Premium AQ gösterimi örneği aşağıda verilmiştir:Below is an example of the notation for Premium AQ:

Windows sertifikalı

Temel ağ bağdaştırıcısı özelliklerine genel bakışOverview of key network adapter capabilities

Azure Stack HCı tarafından yararlanılabilir tarafından sunulan önemli ağ bağdaştırıcısı özellikleri şunlardır:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Dinamik sanal makine çok kuyruğu (dinamik VMMQ veya d. VMMQ)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Doğrudan uzak bellek erişimi (RDMA)Remote Direct Memory Access (RDMA)
  • Konuk RDMAGuest RDMA
  • Anahtar eklenmiş ekip oluşturma (küme)Switch Embedded Teaming (SET)

Dinamik VMMQDynamic VMMQ

Premium AQ ile tüm ağ bağdaştırıcıları dinamik VMMQ 'ı destekler.All network adapters with the Premium AQ support Dynamic VMMQ. Dinamik VMMQ, anahtar Embedded ekip oluşturma özelliğinin kullanılmasını gerektirir.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Uygulanabilir trafik türleri: işlemApplicable traffic types: compute

Gerekli Sertifikalar: PremiumCertifications required: Premium

Dinamik VMMQ, üç birincil geliştirme sağlamak için Sanal Makine Sırası (VMQ), sanal Alma Tarafı Ölçeklendirmesi (vRSS) ve VMMQ 'nın öncüllerini oluşturan Akıllı bir alma tarafı teknolojisidir:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • CPU çekirdeklerini kullanarak konak verimliliğini iyileştirirOptimizes host efficiency by use of CPU cores
  • Ağ trafiği işlemenin CPU çekirdeğlerine otomatik olarak ayarlanması, bu sayede VM 'Lerin beklenen aktarım hızını karşıladığından ve bakımını sağlarAutomatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • "Bursty" iş yüklerini beklenen trafik miktarını alacak şekilde sağlarEnables “bursty” workloads to receive the expected amount of traffic

Dinamik VMMQ hakkında daha fazla bilgi için bkz. blog gönderisi yapay Ivmelerini.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

RDMARDMA

RDMA, SMB depolama trafiğinin işlenmek üzere işletim sistemini atlamasına izin veren ağ bağdaştırıcısında ağ yığını boşaltması olur.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

RDMA, en az sayıda konak CPU kaynağı kullanırken yüksek aktarım hızı, düşük gecikmeli ağ oluşturma imkanı sunar.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Bu konak CPU kaynakları, daha sonra ek VM 'Ler veya kapsayıcılar çalıştırmak için kullanılabilir.These host CPU resources can then be used to run additional VMs or containers.

Uygulanabilir trafik türleri: konak depolamasıApplicable traffic types: host storage

Gerekli Sertifikalar: StandartCertifications required: Standard

Standart veya Premium AQ ile tüm bağdaştırıcılar RDMA 'yi destekler (doğrudan uzak bellek erişimi).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). RDMA, Azure Stack HIP 'de depolama iş yükleri için önerilen dağıtım seçimleridir ve isteğe bağlı olarak VM 'Ler için depolama iş yükleri (SMB kullanılarak) için etkinleştirilebilir.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. Konuk RDMA bölümüne daha sonra bakın.See the Guest RDMA section later.

Azure Stack HID, ıwarp veya RoCE protokol uygulamalarını kullanarak RDMA 'yi destekler.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Önemli

RDMA bağdaştırıcıları, yalnızca aynı RDMA protokolünü (iWARP veya RoCE) uygulayan diğer RDMA bağdaştırıcılarla çalışır.RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Satıcıların tüm ağ bağdaştırıcıları RDMA 'yi desteklemez.Not all network adapters from vendors support RDMA. Aşağıdaki tablo, Premium sertifikalı RDMA bağdaştırıcıları sunan satıcıları (alfabetik sırada) listeler.The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. Ancak, bu listede RDMA 'yi destekleyen donanım satıcıları de mevcuttur.However, there are hardware vendors not included in this list that also support RDMA. RDMA desteğinin doğrulanması için bkz. Windows Server Kataloğu .See the Windows Server Catalog to verify RDMA support.

Not

InfiniBand (ıB) Azure Stack HIN ile desteklenmez.InfiniBand (IB) is not supported with Azure Stack HCI.

NIC satıcısıNIC vendor iWARPiWARP RoCERoCE
BroadcomBroadcom HayırNo YesYes
ChelsioChelsio YesYes HayırNo
IntelIntel YesYes Evet (bazı modeller)Yes (some models)
Marvell (Qlogic/Cavıum)Marvell (Qlogic/Cavium) YesYes YesYes
NVIDIA (Mellanox)Nvidia (Mellanox) HayırNo YesYes

Not

Satıcıların tüm bağdaştırıcıları RDMA 'yi desteklemez.Not all adapters from the vendors support RDMA. Lütfen özel ağ kartı satıcınızla RDMA desteğini doğrulayın.Please verify RDMA support with your specific network card vendor.

RDMA dağıtma hakkında daha fazla bilgi için, belge belgeyi Sdn GitHubdeposundan indirin.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

Internet Wide Area RDMA Protokolü (iWARP)Internet Wide Area RDMA Protocol (iWARP)

ıwarp, Iletim Denetim Protokolü (TCP) kullanır ve isteğe bağlı olarak veri merkezi köprü oluşturma (DCB) öncelik tabanlı akış denetimi (PFC) ve geliştirilmiş Iletim hizmeti (ETS) ile geliştirilebilir.iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

Şu durumlarda iWARP kullanmanızı öneririz:We recommend that you use iWARP if:

  • Çok az veya hiç ağ deneyiminiz yok veya ağ anahtarlarını yönetiyorYou have little or no network experience or are uncomfortable managing network switches
  • ToR anahtarlarınızı denetlemeyinYou do not control your ToR switches
  • Dağıtımdan sonra çözüm yönetilecektirYou will not be managing the solution after deployment
  • Iwarp kullanan dağıtımlarınız zaten varYou already have deployments using iWARP
  • Hangi seçeneği tercih etmek istediğinizden emin misiniz?You are unsure which option to choose

Yakınsanmış Ethernet üzerinden RDMA (RoCE)RDMA over Converged Ethernet (RoCE)

RoCE, Kullanıcı veri birimi Protokolü (UDP) kullanır ve güvenilirlik sağlamak için veri merkezi köprü oluşturma PFC ve ETS gerektirir.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

Şu durumlarda RoCE kullanmanızı öneririz:We recommend that you use RoCE if:

  • Veri merkezinizde RoCE ile zaten dağıtımlarınız varYou already have deployments with RoCE in your data center
  • Fiziksel ağ gereksinimlerinizin hakkında bilgili olduğunuzuYou are knowledgeable with your physical network requirements

Konuk RDMAGuest RDMA

Konuk RDMA, VM 'Ler için SMB iş yüklerinin konaklarda RDMA kullanmanın avantajlarını kullanmasına olanak sağlar.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Uygulanabilir trafik türleri: işlemApplicable traffic types: compute

Gerekli Sertifikalar: PremiumCertifications required: Premium

Konuk RDMA kullanmanın başlıca avantajları şunlardır:The primary benefits of using Guest RDMA are:

  • Ağ trafiği işleme için NIC 'e CPU boşaltmasıCPU offload to the NIC for network traffic processing
  • Son derece düşük gecikmeExtremely low latency
  • Yüksek aktarım hızıHigh throughput

Konuk RDMA dağıtma hakkında daha fazla bilgi için, belge belgesini Sdn GitHubdeposundan indirin.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Anahtar eklenmiş ekip oluşturma (küme)Switch Embedded Teaming (SET)

Anahtar eklenmiş ekip oluşturma (SET), Windows Server 2016 ' den bu yana Windows Server işletim sisteminde yer alan yazılım tabanlı bir ekip oluşturma teknolojisidir.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. KÜME, kullanılan ağ bağdaştırıcılarının türüne bağımlı değil.SET is not dependent on the type of network adapters used.

Uygulanabilir trafik türleri: işlem, depolama ve yönetimApplicable traffic types: compute, storage, and management

Gerekli sertifikalar: yok (işletim sistemine yerleşik)Certifications required: none (built into the OS)

AYARLA, Azure Stack HCı tarafından desteklenen tek ekip oluşturma teknolojisidir.SET is the only teaming technology supported by Azure Stack HCI. Yük Dengeleme/yük devretme (LBFO), Windows Server ile yaygın olarak kullanılan, ancak Azure Stack CI ile desteklenmeyen başka bir ekip oluşturma teknolojisidir.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Azure Stack HCı 'daki LBFO hakkında daha fazla bilgi için Azure Stack HIN 'de blog gönderisi ekibi konusuna bakın.See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. İşlem, depolama ve yönetim trafiğiyle benzer şekilde iyi şekilde AYARLAYıN.SET works well with compute, storage, and management traffic alike.

Bu, izin veren tek ekip oluşturma teknolojisi olduğundan, Azure Stack HCı için önemlidir:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

KÜME, kalite ve performans iyileştirmeleri dahil olmak üzere LBFO üzerinde ek özellikler sağlar.SET provides additional features over LBFO including quality and performance improvements. Bunu yapmak için, küme simetrik (özdeş) bağdaştırıcıların kullanımını gerektirir – asimetrik bağdaştırıcıların ekip oluşturma desteklenmez.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Simetrik ağ bağdaştırıcıları aynı olanlardır:Symmetric network adapters are those that have the same:

  • Make (satıcı)make (vendor)
  • Model (sürüm)model (version)
  • Hız (verimlilik)speed (throughput)
  • yapılandırmaconfiguration

Bağdaştırıcıların simetrik olup olmadığını belirlemenin en kolay yolu hızlardır ve arabirim açıklamaları eşleşir.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. Yalnızca açıklamada listelenen sayıyla farklılık açabilir.They can deviate only in the numeral listed in the description. Get-NetAdapterAdvancedPropertyBildirilen yapılandırmanın aynı özellik değerlerini listelediğinden emin olmak için cmdlet 'ini kullanın.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

Yalnızca sayı (#) ile belirtilen arabirim açıklamalarının bir örneği için aşağıdaki tabloya bakın:See the following table for an example of the interface descriptions deviating only by numeral (#):

NameName Arabirim açıklamasıInterface Description Bağlantı hızıLink Speed
NIC1NIC1 Ağ bağdaştırıcısı #1Network Adapter #1 25 Gbps25 Gbps
NIC2NIC2 Ağ bağdaştırıcısı #2Network Adapter #2 25 Gbps25 Gbps
NIC3NIC3 Ağ bağdaştırıcısı #3Network Adapter #3 25 Gbps25 Gbps
NIC4NIC4 Ağ bağdaştırıcısı #4Network Adapter #4 25 Gbps25 Gbps

RDMA trafik konularıRDMA traffic considerations

Veri merkezi köprü oluşturma (DCB) uygularsanız, PFC ve ETS yapılandırmasının ağ anahtarları dahil olmak üzere her ağ bağlantı noktası arasında düzgün şekilde uygulandığından emin olmanız gerekir.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. RoCE için DCB gereklidir ve ıwarp için isteğe bağlıdır.DCB is required for RoCE and optional for iWARP.

RDMA dağıtma hakkında ayrıntılı bilgi için, belgeyi Sdn GitHub deposundanindirin.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

RoCE tabanlı Azure Stack HIP uygulamaları, doku ve tüm konaklar arasında varsayılan trafik sınıfı dahil olmak üzere üç PFC trafik sınıfının yapılandırılmasını gerektirir:RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Küme trafiği sınıfıCluster traffic class

Bu trafik sınıfı, küme sinyalleri için ayrılan yeterli bant genişliği olmasını sağlar:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Gerekli: EvetRequired: Yes
  • PFC etkin: HayırPFC enabled: No
  • Önerilen trafik önceliği: öncelik 7Recommended traffic priority: Priority 7
  • Önerilen bant genişliği ayırması:Recommended bandwidth reservation:
    • 10 GbE veya daha düşük RDMA ağları = %210 GbE or lower RDMA networks = 2%
    • 25 GbE veya üzeri RDMA ağları = 1%25 GbE or higher RDMA networks = 1%

RDMA trafik sınıfıRDMA traffic class

Bu trafik sınıfı, doğrudan erişimli SMB kullanan kayıpsız RDA iletişimleri için ayrılan yeterli bant genişliği olmasını sağlar:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Gerekli: EvetRequired: Yes
  • PFC etkin: EvetPFC enabled: Yes
  • Önerilen trafik önceliği: öncelik 3 veya 4Recommended traffic priority: Priority 3 or 4
  • Önerilen bant genişliği ayırma: %50Recommended bandwidth reservation: 50%

Varsayılan trafik sınıfıDefault traffic class

Bu trafik sınıfı, küme veya RDMA trafik sınıflarında tanımlı değil VM trafiği ve yönetim trafiği dahil tüm diğer trafiği taşır:This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Gerekli: varsayılan olarak (konakta yapılandırma gerekmez)Required: By default (no configuration necessary on the host)
  • Akış denetimi (PFC) etkin: HayırFlow control (PFC) enabled: No
  • Önerilen trafik Sınıfı: varsayılan olarak (öncelik 0)Recommended traffic class: By default (Priority 0)
  • Önerilen bant genişliği ayırması: varsayılan olarak (konak yapılandırması gerekmez)Recommended bandwidth reservation: By default (no host configuration required)

Depolama trafiği modelleriStorage traffic models

SMB, çok kanallı SMB dahil olmak üzere Azure Stack HI için depolama protokolü olarak birçok avantaj sağlar.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. Bu konu için çok kanallı SMB kapsam dışı olsa da, çok kanallı SMB 'nin kullanabileceği her olası bağlantıda trafiğin çoğullanmış olduğunu anlamak önemlidir.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Not

Azure Stack HIN 'de depolama trafiğini ayırmak için birden çok alt ağ ve VLAN kullanmanızı öneririz.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Dört düğümlü bir küme için aşağıdaki örneği göz önünde bulundurun.Consider the following example of a four node cluster. Her sunucunun iki depolama bağlantı noktası vardır (sol ve sağ taraf).Each server has two storage ports (left and right side). Her bağdaştırıcı aynı alt ağ ve VLAN üzerinde olduğundan, çok kanallı SMB bağlantıları tüm kullanılabilir bağlantılar arasında yayIr.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. Bu nedenle, ilk sunucu (192.168.1.1) üzerindeki sol taraftaki bağlantı noktası ikinci sunucuda (192.168.1.2) sol taraftaki bağlantı noktasına bir bağlantı oluşturacak.Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). İlk sunucudaki sağ taraftaki bağlantı noktası (192.168.1.12) ikinci sunucudaki sağ taraftaki bağlantı noktasına bağlanır.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Üçüncü ve dördüncü sunucular için benzer bağlantılar oluşturulur.Similar connections are established for the third and fourth servers.

Bununla birlikte, bu, gereksiz bağlantılar oluşturur ve raf (ToR) anahtarlarının en üstünü (XS ile işaretlenir) bağlayan Interlink (çok kasalı bağlantı toplama grubu veya MC-LAG) üzerinde sıkışıklık oluşmasına neden olur.However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Aşağıdaki diyagrama bakın:See the following diagram:

dört düğümlü küme aynı alt ağ

Önerilen yaklaşım, her bir bağdaştırıcı kümesi için ayrı alt ağları ve VLAN 'Ları kullanmaktır.The recommended approach is to use separate subnets and VLANs for each set of adapters. Aşağıdaki diyagramda, sağ taraftaki bağlantı noktaları artık 192.168.2. x/24 ve VLAN2 alt ağını kullanır.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. Bu, sol taraftaki bağlantı noktalarında bulunan trafiğin TOR1 üzerinde kalmasına ve sağ taraftaki bağlantı noktalarında trafiğin TOR2 üzerinde kalmasını sağlar.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Aşağıdaki diyagrama bakın:See the following diagram:

dört düğümlü küme farklı alt ağlar

Trafik bant genişliği ayırmaTraffic bandwidth allocation

Aşağıdaki tabloda, Azure Stack HI 'de ortak bağdaştırıcı hızları kullanılarak çeşitli trafik türlerinin örnek bant genişliği ayırmaları gösterilmektedir.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Bu, tüm trafik türlerinin (işlem, depolama ve yönetim) aynı fiziksel bağdaştırıcılar üzerinde çalıştığı ve küme kullanılarak ekipteki yakınsama çözümünün bir örneğidir.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Bu kullanım örneği en çok kısıtlama yaptığından, iyi bir taban çizgisi temsil eder.Since this use case poses the most constraints, it represents a good baseline. Ancak, bağdaştırıcıların ve hızların sayısını göz önünde bulundurarak bu, bir destek gereksinimi değil bir örnek olarak düşünülmelidir.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

Bu örnek için aşağıdaki varsayımlar yapılır:The following assumptions are made for this example:

  • Ekip başına iki bağdaştırıcı vardırThere are two adapters per team

  • Depolama veri yolu katmanı (SBL), Küme Paylaşılan Birimi (CSV) ve Hyper-V (Dinamik Geçiş) trafiği:Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Aynı fiziksel bağdaştırıcıları kullanınUse the same physical adapters
    • SMB kullanUse SMB
  • SMB, veri merkezi köprü oluşturma kullanılarak %50 bant genişliğine sahip olarak verildiSMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV, en yüksek öncelikli trafiktir ve SMB bant genişliği rezervasyonunun %70 ' unu alır ve:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Dinamik Geçiş (LM), Set-SMBBandwidthLimit cmdlet 'i kullanılarak sınırlandırılır ve kalan bant genişliğinin %29 ' ına alırLive Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Dinamik Geçiş için kullanılabilir bant genişliği >= 5 Gbps ise ve ağ bağdaştırıcıları yetenekli ise, RDMA kullanın.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. Bunu yapmak için aşağıdaki cmdlet 'i kullanın:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Dinamik Geçiş için kullanılabilir bant genişliği 5 Gbps <, kararma sürelerini azaltmak için sıkıştırmayı kullanın.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. Bunu yapmak için aşağıdaki cmdlet 'i kullanın:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • Dinamik Geçiş ile RDMA kullanıyorsanız, Dinamik Geçiş trafiğin bir SMB bant genişliği sınırı kullanarak RDMA trafik sınıfına ayrılan tüm bant genişliğini tüketmemesini sağlayın.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Bu cmdlet, saniye başına bayt (bps) olarak girdi alsa da, ağ bağdaştırıcıları saniyede bit/sn (bps) olarak listelenirken dikkatli olun.Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Aşağıdaki cmdlet 'i kullanarak 6 Gbps 'lik bir bant genişliği sınırı ayarlayın örneğin:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Not

    Bu örnekteki 750 MBps, 6 Gbps 'e eşit750 MBps in this example equates to 6 Gbps

Örnek bant genişliği ayırma tablosu aşağıda verilmiştir:Here is the example bandwidth allocation table:

NIC HızıNIC Speed Ekip oluşturulmuş bant genişliğiTeamed Bandwidth SMB bant genişliği ayırma * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % SBL/CSV bant genişliğiSBL/CSV Bandwidth Dinamik Geçiş%Live Migration % Maksimum Dinamik Geçiş bant genişliğiMax Live Migration Bandwidth SinyalHeartbeat % Sinyal bant genişliğiHeartbeat Bandwidth
10 Gbps10 Gbps 20 Gbps20 Gbps 10 Gbps10 Gbps %7070% 7 Gbps7 Gbps * * %22% 200 Mb/sn200 Mbps
25 Gbps25 Gbps 50 Gbps50 Gbps 25 Gbps25 Gbps %7070% 17,5 Gbps17.5 Gbps %2929% 7,25 Gbps7.25 Gbps %11% 250 Mbps250 Mbps
40 Gbps40 Gbps 80 Gbps80 Gbps 40 Gbps40 Gbps %7070% 28 Gbps28 Gbps %2929% 11,6 Gbps11.6 Gbps %11% 400 Mbps400 Mbps
50 Gbps50 Gbps 100 Gbps100 Gbps 50 Gbps50 Gbps %7070% 35 Gbps35 Gbps %2929% 14,5 Gbps14.5 Gbps %11% 500 Mbps500 Mbps
100 Gbps100 Gbps 200 Gb/sn200 Gbps 100 Gbps100 Gbps %7070% 70 Gbps70 Gbps %2929% 29 Gbps29 Gbps %11% 1 Gbps1 Gbps
200 Gb/sn200 Gbps 400 Gbps400 Gbps 200 Gb/sn200 Gbps %7070% 140 Gbps140 Gbps %2929% 58 Gbps58 Gbps %11% 2 Gbps2 Gbps

*-Dinamik Geçiş trafiği için bant genişliği ayırması 5 Gbps <olduğu için RDMA yerine Compression kullanılmalıdır*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-%50, bu örnek için bir bant genişliği ayırması örneğidir**- 50% is an example bandwidth reservation for this example

Uzatılmış küme konularıStretched cluster considerations

Uzatılmış kümeler birden çok veri merkezine yayılan olağanüstü durum kurtarma sağlar.Stretched clusters provide disaster recovery that spans multiple data centers. En basit biçimde, uzatılmış bir Azure Stack HI küme ağı şöyle görünür:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Uzatılmış küme

Uzatılmış kümeler aşağıdaki gereksinimlere ve özelliklere sahiptir:Stretched clusters have the following requirements and characteristics:

  • RDMA tek bir siteyle sınırlıdır ve farklı sitelerde veya alt ağlarda desteklenmez.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Aynı sitedeki sunucuların aynı raf ve katman 2 sınırında bulunması gerekir.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Katman 3 sınırı çapraz siteler arasında iletişim; Uzatılmış katman 2 topolojileri desteklenmez.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Bir site, Depolama bağdaştırıcıları için RDMA kullanıyorsa, bu bağdaştırıcılar siteler arasında yönlendirilemez ayrı bir alt ağ ve VLAN üzerinde olmalıdır.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. Bu, depolama çoğaltmasının siteler arasında RDMA kullanmasını önler.This prevents Storage Replica from using RDMA across sites.

  • Siteler arasındaki iletişim için kullanılan bağdaştırıcılar:Adapters used for communication between sites:

    • Fiziksel veya sanal (konak vNIC) olabilir.Can be physical or virtual (host vNIC). Sanal ise, bir vNIC 'yi fiziksel NIC başına kendi alt ağında ve VLAN sağlamalısınız.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Siteler arasında yönlendirme için kendi alt ağı ve VLAN üzerinde olmalıdır.Must be on their own subnet and VLAN that can route between sites.
    • RDMA cmdlet 'i kullanılarak devre dışı bırakılmalıdır Disable-NetAdapterRDMA .RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. Cmdlet 'ini kullanarak, belirli arabirimleri kullanmak için depolama çoğaltmasının açıkça gerekli olmasını öneririz Set-SRNetworkConstraint .We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Depolama çoğaltması için ek gereksinimlere uymalıdır.Must meet any additional requirements for Storage Replica.
  • Başka bir siteye yük devretme durumunda, diğer sitede iş yüklerini çalıştırmak için yeterli bant genişliği olduğundan emin olmanız gerekir.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. Güvenli bir seçenek, sitelerin kullanılabilir kapasitesinin %50 ' de sağlanması.A safe option is to provision sites at 50% of their available capacity. Yük devretme sırasında daha düşük performans için tolerans sağlayabiliyorsanız bu bir sabit gereksinimdir.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Sonraki adımlarNext steps