Distribuire e gestire cluster Azure Stack HCI in VMM

Questo articolo fornisce informazioni su come configurare un cluster Azure Stack HCI in System Center Virtual Machine Manager (VMM). È possibile distribuire un cluster Azure Stack HCI effettuando il provisioning da server bare metal o aggiungendo host esistenti. Altre informazioni sulla nuova istanza di Azure Stack HCI.

VMM 2019 Update Rollup 3 (UR3) supporta Azure Stack HCI, versione 20H2. Il prodotto corrente è Azure Stack HCI, versione 21H2. A partire da System Center 2022, VMM supporta Azure Stack HCI, versione 20H2; Azure Stack HCI, versione 21H2; e Azure Stack HCI, versione 22H2 (supportato da VMM 2022 UR1).

Importante

I cluster Azure Stack HCI gestiti da Virtual Machine Manager non devono ancora essere aggiunti al canale di anteprima . System Center (inclusi Virtual Machine Manager, Operations Manager e altri componenti) attualmente non supporta le versioni di anteprima di Azure Stack. Per gli aggiornamenti più recenti, vedere il blog di System Center.

Prima di iniziare

Assicurarsi di eseguire VMM 2019 UR3 o versione successiva.

Che cos'è supportato?

  • Aggiunta, creazione e gestione dei cluster Azure Stack HCI. Vedere la procedura dettagliata per creare e gestire cluster HCI.

  • Possibilità di effettuare il provisioning di & distribuire macchine virtuali nei cluster Azure Stack HCI ed eseguire operazioni del ciclo di vita delle macchine virtuali. È possibile effettuare il provisioning delle macchine virtuali usando file VHD(x), modelli o da una macchina virtuale esistente. Altre informazioni

  • Configurare la rete VLAN basata su cluster Azure Stack HCI.

  • Distribuzione e gestione del controller di rete SDN nei cluster Azure Stack HCI.

  • Gestione delle impostazioni del pool di archiviazione, creazione di dischi virtuali, creazione di volumi condivisi cluster e applicazione delle impostazioni QoS.

  • Lo spostamento di macchine virtuali tra cluster Windows Server e Azure Stack HCI funziona tramite migrazione di rete e la migrazione di una macchina virtuale offline (arrestata). In questo scenario, VMM esegue l'esportazione e l'importazione in background, anche se viene eseguita come singola operazione.

  • I cmdlet di PowerShell usati per gestire i cluster Windows Server possono essere usati anche per gestire i cluster Azure Stack HCI.

Registrare e annullare la registrazione dei cluster Azure Stack HCI

Con VMM 2022 vengono introdotti i cmdlet di PowerShell VMM per registrare e annullare la registrazione dei cluster Azure Stack HCI.

Usare i cmdlet seguenti per registrare un cluster HCI:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Usare il comando seguente per annullare la registrazione di un cluster:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Per informazioni dettagliate sul parametro supportato, vedere Register-SCAzStackHCI e Unregister-SCAzStackHCI.

Cosa non è supportato?

  • La gestione dei cluster estesi di Azure Stack HCI non è attualmente supportata in VMM.

  • Azure Stack HCI è destinato a un host di virtualizzazione in cui vengono eseguiti tutti i carichi di lavoro nelle macchine virtuali. I termini di Azure Stack HCI consentono di eseguire solo gli elementi necessari per ospitare le macchine virtuali. I cluster Azure Stack HCI non devono essere usati per altri scopi, ad esempio server WSUS, server WDS o server di libreria. Vedere Casi d'uso per Azure Stack HCI, Quando usare Azure Stack HCI e Ruoli che è possibile eseguire senza virtualizzare.

  • La migrazione in tempo reale tra qualsiasi versione dei cluster Windows Server e Azure Stack HCI non è supportata.

Nota

La migrazione in tempo reale tra cluster Azure Stack HCI funziona, nonché tra cluster Windows Server.

  • L'unico tipo di archiviazione disponibile per Azure Stack HCI è Spazi di archiviazione diretta (S2D). La creazione o la gestione di cluster non S2D con nodi Azure Stack HCI non è supportata. Se è necessario usare qualsiasi altro tipo di archiviazione, ad esempio SAN, usare Windows Server come host di virtualizzazione.

Nota

È necessario abilitare S2D durante la creazione di un cluster Azure Stack HCI. Per abilitare S2D, nella creazione guidata del cluster passare a Configurazione generale. In Specificare il nome del cluster e il gruppo host selezionare Abilita Spazi di archiviazione diretta come illustrato di seguito:

Screenshot di S2D abilitato.

Dopo aver abilitato un cluster con S2D, VMM esegue le operazioni seguenti:

  • La funzionalità Clustering di failover è abilitata.
  • La replica di archiviazione e la deduplicazione dei dati sono abilitate.
  • Il cluster viene convalidato e creato facoltativamente.
  • S2D è abilitato e in VMM viene creato un oggetto matrice di archiviazione con lo stesso nome specificato nella procedura guidata.

Quando si usa VMM per creare un cluster iperconvergente, il pool e i livelli di archiviazione vengono creati automaticamente eseguendo Enable-ClusterStorageSpacesDirect -Autoconfig $True.

Dopo aver soddisfatto questi prerequisiti, è necessario effettuare il provisioning di un cluster e configurare le risorse di archiviazione in tale cluster. È quindi possibile distribuire macchine virtuali nel cluster.

Seguire questa procedura:

Passaggio 1: Effettuare il provisioning del cluster

È possibile effettuare il provisioning di un cluster da host Hyper-V e computer bare metal:

Effettuare il provisioning di un cluster da host Hyper-V

Se è necessario aggiungere gli host Azure Stack HCI all'infrastruttura di VMM, seguire questa procedura. Se gli host sono già inclusi nell'infrastruttura di VMM, andare al passaggio successivo.

Nota

  • Quando si configura il cluster, selezionare l'opzione Abilita Spazi di archiviazione diretta nella pagina Configurazione generale della creazione guidata cluster Hyper-V.
  • In Tipo di risorsa selezionare Server esistenti che eseguono un sistema operativo Windows Server e selezionare gli host Hyper-V da aggiungere al cluster.
  • Tutti gli host selezionati devono avere Installato Azure Stack HCI.
  • Poiché S2D è abilitato, il cluster deve essere convalidato.

Effettuare il provisioning di un cluster per computer bare metal

Nota

In genere, il nodo S2D richiede impostazioni RDMA, QoS e SET. Per configurare queste impostazioni per un nodo con computer bare metal, è possibile usare la funzionalità di script di post-distribuzione in PCP. Ecco lo script pcp di esempio dopo la distribuzione. È anche possibile usare questo script per configurare RDMA, QoS e SET durante l'aggiunta di un nuovo nodo a una distribuzione S2D esistente da computer bare metal.

  1. Leggere i prerequisiti per la distribuzione di un cluster bare metal.

Nota

  • Il disco rigido virtuale generalizzato o VHDX nella libreria VMM deve eseguire Azure Stack HCI con gli aggiornamenti più recenti. È necessario impostare i valori Sistema operativo e Piattaforma di virtualizzazione per il disco rigido.
  • Per la distribuzione bare metal, è necessario aggiungere un server PXE (Pre-Boot Execution Environment) all'infrastruttura VMM. Il server PXE viene fornito tramite Servizi di distribuzione Windows. VMM usa la propria immagine WinPE ed è necessario assicurarsi che sia la più recente. A tale scopo, selezionare Infrastruttura infrastruttura>>WinPE immagine e assicurarsi che il processo venga completato.
  1. Seguire le istruzioni per il provisioning di un cluster da computer bare metal.

Passaggio 2: Configurare la rete per il cluster

Dopo aver completato il provisioning del cluster per la gestione nell'infrastruttura di VMM, è necessario configurare la rete per i nodi del cluster.

  1. Per iniziare, creare una rete logica che rispecchi la rete fisica di gestione.
  2. È necessario configurare un commutatore logico con Switch Embedded Teaming (SET) abilitato in modo che il commutatore sia a conoscenza della virtualizzazione. Questo commutatore è connesso alla rete logica di gestione e dispone di tutte le schede virtuali host necessarie per fornire l'accesso alla rete di gestione o configurare la rete di archiviazione. S2D si basa su una rete per la comunicazione tra host. È consigliabile usare schede che supportano RDMA.
  3. Creare reti VM.

Passaggio 3: Configurare le impostazioni DCB nel cluster Azure Stack HCI

Nota

La configurazione delle impostazioni di DCB è un passaggio facoltativo per ottenere prestazioni elevate durante il flusso di lavoro di creazione del cluster S2D. Se non si desidera configurare le impostazioni DCB, andare al passaggio 4.

Consigli

  • Se le schede di interfaccia di rete virtuale sono state distribuite, per ottenere prestazioni ottimali, è consigliabile eseguire il mapping di tutte le schede di interfaccia di rete virtuale con i PC corrispondenti. Le affinità tra vNIC e pNIC vengono impostate in modo casuale dal sistema operativo e possono verificarsi scenari in cui più schede vNIC sono mappate alla stessa scheda pNIC. Per evitare tali scenari, è consigliabile impostare manualmente l'affinità tra vNIC e pNIC seguendo i passaggi elencati qui.

  • Quando si crea un profilo di porta della scheda di rete, è consigliabile consentire la priorità IEEE. Altre informazioni

    È anche possibile impostare la priorità IEEE usando i comandi di PowerShell seguenti:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Usare la procedura seguente per configurare le impostazioni di DCB:

  1. Creare un nuovo cluster Hyper-V, selezionare Abilita spazi di archiviazione diretta. L'opzione Configurazione di DCB viene aggiunta al flusso di lavoro di creazione del cluster Hyper-V.

    Screenshot del cluster Hyper-V.

  2. In Configurazione di DCB selezionare Configura Data Center Bridging.

  3. Specificare i valori Priorità e Larghezza di banda per il traffico SMB diretto e degli heartbeat del cluster.

Nota

I valori predefiniti vengono assegnati a Priorità e Larghezza di banda. Personalizzare questi valori in base alle esigenze dell'ambiente dell'organizzazione.

Screenshot della larghezza di banda priorità.

Valori predefiniti:

Classe di traffico Priorità Larghezza di banda (%)
Heartbeat del cluster 7 1
SMB diretto 3 50
  1. Selezionare le schede di rete usate per il traffico di archiviazione. RDMA è abilitato in queste schede di rete.

    Nota

    In uno scenario di NIC convergente selezionare le schede vNIC di archiviazione. Le schede pNIC sottostanti devono supportare RDMA per visualizzare e rendere disponibili per la selezione le schede vNIC.

    Screenshot di Abilita RMDS.

  2. Rivedere il riepilogo e selezionare Fine.

    Verrà creato un cluster HCI di Azure Stack e i parametri DCB vengono configurati in tutti i nodi S2D.

    Nota

    • Le impostazioni DCB possono essere configurate nei cluster Hyper-V S2D esistenti visitando la pagina Proprietà cluster e passando alla pagina di configurazione DCB .
    • Eventuali modifiche impreviste apportate alle impostazioni di DCB in uno qualsiasi dei nodi comporteranno la mancata conformità del cluster S2D in VMM. Verrà resa disponibile un'opzione Correggi nella pagina Configurazione di DCB delle proprietà del cluster che è possibile usare per applicare le impostazioni di DCB configurate in VMM nei nodi del cluster.

Passaggio 4: Registrare il cluster HCI di Azure Stack con Azure

Dopo aver creato un cluster Azure Stack HCI, deve essere registrato con Azure entro 30 giorni dall'installazione per le condizioni del servizio online di Azure. Se si usa System Center 2022, usare Register-SCAzStackHCI il cmdlet in VMM per registrare il cluster Azure Stack HCI con Azure. In alternativa, seguire questa procedura per registrare il cluster Azure Stack HCI con Azure.

Lo stato di registrazione rifletterà in VMM dopo un aggiornamento del cluster riuscito.

Passaggio 5: Visualizzare lo stato di registrazione dei cluster Azure Stack HCI

  1. Nella console VMM è possibile visualizzare lo stato di registrazione e l'ultima data connessa dei cluster Azure Stack HCI.

  2. Selezionare Infrastruttura, fare clic con il pulsante destro del mouse sul cluster Azure Stack HCI e selezionare Proprietà.

    Screenshot dello stato di registrazione.

  3. In alternativa, eseguire Get-SCVMHost e osservare le proprietà dell'oggetto restituito per controllare lo stato di registrazione.

Passaggio 6: Gestire il pool e creare le macchine virtuali

È ora possibile modificare le impostazioni del pool di archiviazione e creare dischi virtuali e csv.

  1. SelezionareArray di archiviazione dell'infrastruttura>>.

  2. Fare clic con il pulsante destro del mouse sul cluster >Gestisci pool e selezionare il pool di archiviazione creato per impostazione predefinita. È possibile modificare il nome predefinito e aggiungere una classificazione.

  3. Per creare un file CSV, fare clic con il pulsante destro del mouse sul cluster >Proprietà>volumi condivisi.

  4. Neltipo di archiviazionecreazione guidata> volume specificare il nome del volume e selezionare il pool di archiviazione.

  5. In Capacità è possibile specificare le dimensioni del volume, il file system e la resilienza (errori da tollerare).

    Screenshot delle impostazioni volume.

  6. Selezionare Configura impostazioni di archiviazione e livelli avanzate per configurare queste opzioni.

    Screenshot della configurazione delle impostazioni di archiviazione.

  7. In Riepilogo verificare le impostazioni e completare la procedura guidata. Un disco virtuale verrà creato automaticamente quando si crea il volume.

Passaggio 7: Distribuire macchine virtuali nel cluster

In una topologia iperconvergente, le macchine virtuali possono essere distribuite direttamente nel cluster. I dischi rigidi virtuali vengono inseriti nei volumi creati con S2D. È possibile creare e distribuire queste macchine virtuali esattamente come si creerebbe qualsiasi altra macchina virtuale.

Importante

Se il cluster Azure Stack HCI non è registrato con Azure o non è connesso ad Azure per più di 30 giorni dopo la registrazione, la creazione di macchine virtuali a disponibilità elevata (HAVM) verrà bloccata nel cluster. Fare riferimento al passaggio 4 & 5 per la registrazione del cluster.

Passaggio 8: Eseguire la migrazione di macchine virtuali da Windows Server a cluster HCI di Azure Stack

Usare la funzionalità di migrazione di rete in VMM per eseguire la migrazione dei carichi di lavoro da Hyper-V (Windows Server 2019 & versioni successive) ad Azure Stack HCI.

Nota

La migrazione in tempo reale tra Windows Server e Azure Stack HCI non è supportata. La migrazione di rete da Azure Stack HCI a Windows Server non è supportata.

  1. Disabilitare temporaneamente la migrazione in tempo reale nell'host Azure Stack HCI di destinazione.
  2. Selezionare MACCHINE virtuali e Servizi > tutti gli host e quindi selezionare l'host Hyper-V di origine da cui eseguire la migrazione.
  3. Selezionare la macchina virtuale di cui si vuole eseguire la migrazione. La macchina virtuale deve essere in uno stato disattivato.
  4. Selezionare Migrate Virtual Machine (Eseguire la migrazione della macchina virtuale).
  5. In Selezionare host esaminare e selezionare l'host Azure Stack HCI di destinazione.
  6. Selezionare Avanti per avviare la migrazione di rete. VMM eseguirà importazioni ed esportazioni al back-end.
  7. Per verificare che la macchina virtuale sia stata eseguita correttamente la migrazione, controllare l'elenco delle macchine virtuali nell'host di destinazione. Attivare la macchina virtuale e riabilitare la migrazione live nell'host HCI di Azure Stack.

Passaggio 9: Eseguire la migrazione dei carichi di lavoro VMware al cluster Azure Stack HCI usando SCVMM

VMM offre un'esperienza semplice basata su procedura guidata per la conversione V2V (virtuale a virtuale). È possibile usare lo strumento di conversione per eseguire la migrazione dei carichi di lavoro su larga scala dall'infrastruttura VMware all'infrastruttura Hyper-V. Per l'elenco dei server VMware supportati, vedere Requisiti di sistema.

Per i prerequisiti e le limitazioni per la conversione, vedere Convertire una macchina virtuale VMware in Hyper-V nell'infrastruttura VMM.

  1. Creare l'account Runa come account per il ruolo amministratore server vCenter in VMM. Queste credenziali di amministratore vengono usate per gestire gli host vCenter e ESXi. Screenshot che mostra la pagina crea account RunAs.

  2. Nella console VMM in Infrastruttura selezionare Server>Aggiungi server vCenter VMware. Screenshot che mostra l'opzione Aggiungi vCenter VMware.

  3. Nella pagina Aggiungi server VMware vCenter eseguire le operazioni seguenti:

    1. Nome computer: specificare il nome del server vCenter.
    2. Account RunAs: selezionare l'account RunAs creato per l'amministratore vSphere.
      Screenshot che mostra le informazioni sul server.
  4. Selezionare Fine.

  5. Nella pagina Importa certificato selezionare Importa.

    Screenshot che mostra l'opzione Importa certificati.

  6. Dopo aver completato l'aggiunta del server vCenter, tutti gli host ESXi nel vCenter vengono migrati in VMM.

Aggiungere host

  1. Nella console VMM in Infrastruttura selezionare Server>Aggiungi host ESX VMware e cluster.
    Screenshot che mostra l'opzione Aggiungi host.
  2. Nella Procedura guidata Aggiungi risorsa,
    1. In Credenziali selezionare l'account Runas usato per la porta e selezionare Avanti. Screenshot che mostra la scheda delle credenziali.

    2. In Risorse di destinazione selezionare tutti i cluster ESX che devono essere aggiunti a VMM e selezionare Avanti. Screenshot che mostra la scheda delle risorse di destinazione.

    3. In Impostazioni host selezionare il percorso in cui si vogliono aggiungere le macchine virtuali e selezionare Avanti. Screenshot che mostra la scheda delle impostazioni host.

    4. In Riepilogo esaminare le impostazioni e selezionare Fine. Insieme agli host, verranno aggiunte anche le macchine virtuali associate.

      Screenshot che mostra la scheda di riepilogo.

Verificare lo stato dell'host ESXi

  1. Se lo stato dell'host ESXi corrisponde a OK (limitato), fare clic con il pulsante destro del mouse su Gestione proprietà>, selezionare Account Runas usato per la porta e importare i certificati per l'host.
    Ripetere lo stesso processo per tutti gli host ESXi. Screenshot che mostra la scheda Gestione. Dopo aver aggiunto i cluster ESXi, tutte le macchine virtuali in esecuzione nei cluster ESXi vengono individuate automaticamente in VMM.

Visualizzare le macchine virtuali

  1. Passare a Macchine virtuali e servizi per visualizzare le macchine virtuali. È anche possibile gestire le operazioni principali del ciclo di vita di queste macchine virtuali da VMM.
    Screenshot che mostra gli host ESXi.

  2. Fare clic con il pulsante destro del mouse sulla macchina virtuale e selezionare Spegni (le migrazioni online non sono supportate) di cui è necessario eseguire la migrazione e disinstallare gli strumenti VMware dal sistema operativo guest.

  3. Selezionare Home>Create Macchine virtualiConvert Virtual Machine (Crea Macchine virtuali > Converte macchina virtuale).

  4. Nella Procedura guidata Converti macchina virtuale,

    1. In Seleziona origine selezionare la macchina virtuale in esecuzione nel server ESXi e selezionare Avanti. Screenshot che mostra l'opzione Seleziona origine.
    2. In Specifica identità macchina virtuale immettere il nuovo nome per la macchina virtuale se si vuole e selezionare Avanti.
      Screenshot che mostra l'opzione nome macchina virtuale.
  5. In Seleziona host selezionare il nodo Azure Stack HCI di destinazione e specificare il percorso nell'host per i file di archiviazione della macchina virtuale e selezionare Avanti.

    Screenshot che mostra l'opzione select host.

  6. Selezionare una rete virtuale per la macchina virtuale e selezionare Crea per completare la migrazione.
    La macchina virtuale in esecuzione nel cluster ESXi viene migrata correttamente nel cluster Azure Stack HCI. Per l'automazione, usare i comandi di PowerShell per la conversione.

Passaggi successivi