Azure Stack Hub로 스토리지 확장

이 문서에서는 Azure Stack Hub를 기존 네트워킹 환경에 통합하는 방법을 결정하는 데 도움이 되는 Azure Stack Hub 스토리지 인프라 정보를 제공합니다. 이 문서에서는 데이터 센터 확장에 대한 일반적인 논의를 제공한 후 두 가지 시나리오를 제공합니다. Windows 파일 스토리지 서버에 연결할 수 있습니다. Windows iSCSI 서버에 연결할 수도 있습니다.

Azure Stack Hub로 스토리지 확장 개요

퍼블릭 클라우드에 데이터를 배치하는 것만으로는 충분하지 않은 시나리오가 있습니다. 대기 시간에 민감한 계산 집약적인 가상화된 데이터베이스 워크로드가 있고 퍼블릭 클라우드로의 왕복 시간이 데이터베이스 워크로드의 성능에 영향을 줄 수 있습니다. 온-프레미스 워크로드에서 액세스해야 하고 규정 또는 규정 준수 목표를 충족하기 위해 온-프레미스에 상주해야 하는 파일 서버, NAS 또는 iSCSI 스토리지 배열에 보관된 온-프레미스 데이터가 있을 수 있습니다. 이는 데이터가 온-프레미스에 있는 두 가지 시나리오에 불과하며, 많은 조직에서 여전히 중요합니다.

그렇다면 Azure Stack Hub의 스토리지 계정 또는 Azure Stack Hub 시스템에서 실행되는 가상화된 파일 서버 내에서 해당 데이터를 호스트하는 것은 어떨까요? Azure와 달리 Azure Stack Hub 스토리지는 유한합니다. 사용량에 사용할 수 있는 용량은 전적으로 구매하도록 선택한 노드당 용량과 노드 수에 따라 달라집니다. 또한 Azure Stack Hub는 Hyper-Converged 솔루션이므로 사용량 수요를 충족하기 위해 스토리지 용량을 늘리고자 하는 경우 노드를 추가하여 컴퓨팅 공간을 늘려야 합니다. 특히 Azure Stack Hub 시스템 외부에서 저렴한 비용으로 추가할 수 있는 콜드 보관 스토리지를 위해 추가 용량이 필요한 경우 이는 잠재적으로 비용이 많이 들 수 있습니다.

이를 통해 아래에서 다룰 시나리오를 확인할 수 있습니다. Azure Stack Hub에서 실행되는 가상화된 워크로드인 Azure Stack Hub 시스템을 네트워크를 통해 액세스할 수 있는 Azure Stack Hub 외부의 스토리지 시스템에 간단하고 효율적으로 연결하려면 어떻게 해야 합니다.

스토리지 확장을 위한 디자인

이 다이어그램은 워크로드를 실행하는 단일 가상 머신이 데이터 읽기/쓰기 등을 위해 외부(VM 및 Azure Stack Hub 자체) 스토리지에 연결하고 활용하는 시나리오를 보여 줍니다. 이 문서에서는 파일의 간단한 검색에 중점을 두지만 데이터베이스 파일의 원격 스토리지와 같은 보다 복잡한 시나리오에 대해 이 예제를 확장할 수 있습니다.

Azure Stack Hub 시스템의 워크로드 VM은 외부 스토리지에 액세스합니다. VM에는 각각 공용 및 개인 IP 주소가 있는 두 개의 NIC가 있습니다.

다이어그램에서 Azure Stack Hub 시스템의 VM이 여러 NIC로 배포된 것을 볼 수 있습니다. 중복성뿐만 아니라 스토리지 모범 사례에서도 대상과 대상 간에 여러 경로를 갖는 것이 중요합니다. 상황이 더 복잡해지는 경우 Azure Stack Hub의 VM에는 Azure와 마찬가지로 공용 IP와 프라이빗 IP가 모두 있습니다. 외부 스토리지가 VM에 도달하는 데 필요한 경우 프라이빗 IP는 주로 Azure Stack Hub 시스템 내에서 vNet 및 서브넷 내에서 사용되므로 공용 IP를 통해서만 수행할 수 있습니다. 외부 스토리지는 사이트 간 VPN을 통과하여 vNet 자체에 펀치를 전달하지 않는 한 VM의 개인 IP 공간과 통신할 수 없습니다. 따라서 이 예제에서는 공용 IP 공간을 통한 통신에 집중하겠습니다. 다이어그램의 공용 IP 공간에서 주목해야 할 한 가지 사항은 2개의 다른 공용 IP 풀 서브넷이 있다는 것입니다. 기본적으로 Azure Stack Hub는 공용 IP 주소를 위해 하나의 풀만 필요하지만 중복 라우팅을 위해 고려해야 할 사항은 두 번째 풀을 추가하는 것일 수 있습니다. 그러나 지금은 특정 풀에서 IP 주소를 선택할 수 없으므로 실제로 여러 가상 네트워크 카드에서 동일한 풀의 공용 IP가 있는 VM으로 끝날 수 있습니다.

이 논의의 목적을 위해 테두리 디바이스와 외부 스토리지 간의 라우팅이 처리되고 트래픽이 네트워크를 적절하게 트래버스할 수 있다고 가정합니다. 이 예제에서는 백본이 1GbE, 10GbE, 25GbE 이상인지는 중요하지 않지만 통합을 계획할 때 이 외부 스토리지에 액세스하는 애플리케이션의 성능 요구 사항을 해결하는 것이 중요합니다.

Windows Server iSCSI 대상에 연결

이 시나리오에서는 Azure Stack Hub에서 Windows Server 2019 가상 머신을 배포 및 구성하고 Windows Server 2019를 실행하는 외부 iSCSI 대상에 연결하도록 준비합니다. 적절한 경우 MPIO와 같은 주요 기능을 사용하도록 설정하여 VM과 외부 스토리지 간의 성능 및 연결을 최적화합니다.

Azure Stack Hub에 Windows Server 2019 VM 배포

  1. Azure Stack Hub 관리 포털에서 이 시스템이 올바르게 등록되어 있고 Marketplace에 연결되어 있다고 가정하고 Marketplace 관리를 선택한 다음, Windows Server 2019 이미지가 아직 없다고 가정하고 Azure에서 추가를 선택한 다음 Windows Server 2019를 검색하여 Windows Server 2019 데이터 센터 이미지를 추가합니다.

    Windows Server 2019 이미지를 다운로드하는 데 다소 시간이 걸릴 수 있습니다.

  2. Azure Stack Hub 환경에 Windows Server 2019 이미지가 있으면 Azure Stack Hub 사용자 포털에 로그인합니다.

  3. Azure Stack Hub 사용자 포털에 로그인한 후 IaaS 리소스(컴퓨팅, 스토리지 및 네트워크)를 프로비전할 수 있는 제품에 대한 구독이 있는지 확인합니다.

  4. 구독을 사용할 수 있게 되면 Azure Stack Hub 사용자 포털의 dashboard 다시 리소스 만들기를 선택하고 컴퓨팅을 선택한 다음 Windows Server 2019 Datacenter 갤러리 항목을 선택합니다.

  5. 기본 사항 블레이드에서 다음과 같이 정보를 완료합니다.

    a. 이름: VM001

    b. 사용자 이름: localadmin

    다. 암호암호 확인: <선택한 암호>

    d. 구독: <컴퓨팅/스토리지/네트워크 리소스를 사용하여 선택한 구독입니다>.

    e. 리소스 그룹: 스토리지테스팅(새로 만들기)

    f. 확인을 선택합니다.

  6. 크기 선택 블레이드에서Standard_F8s_v2 선택하고 선택을 선택합니다.

  7. 설정 블레이드에서 가상 네트워크를 선택하고 가상 네트워크 만들기 블레이드에서 주소 공간을 10.10.10.0/23으로 조정하고 서브넷 주소 범위를 10.10.10.0/24로 업데이트한 다음 확인을 선택합니다.

  8. 공용 IP 주소를 선택하고 공용 IP 주소 만들기 블레이드에서 정적 라디오 단추를 선택합니다.

  9. 공용 인바운드 포트 선택 드롭다운에서 RDP(3389)를 선택합니다.

  10. 다른 기본값을 그대로 두고 확인을 선택합니다.

  11. 요약을 읽고 유효성 검사를 기다린 다음 확인을 선택하여 배포를 시작합니다. 배포는 약 10분 후에 완료되어야 합니다.

  12. 배포가 완료되면 리소스 에서 가상 머신 이름 VM001 을 선택하여 개요를 엽니다.

    개요 화면에는 VM001에 대한 정보가 표시됩니다.

  13. DNS 이름에서 구성 을 선택하고 DNS 이름 레이블 인 vm001 을 제공하고 저장을 선택한 다음 , VM001을 선택합니다.

  14. 개요 블레이드의 오른쪽에서 가상 네트워크/서브넷 텍스트에서 storagetesting-vnet/default 를 선택합니다.

  15. storagetesting-vnet 블레이드 내에서 서브넷 , +서브넷을 차례로 선택한 다음, 새 서브넷 추가 블레이드에서 다음 정보를 입력한 다음 확인을 선택합니다.

    a. 이름: subnet2

    b. 주소 범위(CIDR 블록): 10.10.11.0/24

    다. 네트워크 보안 그룹: 없음

    d. 경로 테이블: 없음

  16. 저장되면 VM001을 선택합니다.

  17. 개요 블레이드의 왼쪽에서 네트워킹을 선택합니다.

  18. 네트워크 인터페이스 연결을 선택한 다음, 네트워크 인터페이스 만들기를 선택합니다.

  19. 네트워크 인터페이스 만들기 블레이드에서 다음 정보를 입력합니다.

    a. 이름: vm001nic2

    b. 서브넷: 서브넷이 10.10.11.0/24인지 확인

    다. 네트워크 보안 그룹: VM001-nsg

    d. 리소스 그룹: 스토리지테스팅

  20. 성공적으로 연결되면 VM001 을 선택하고 중지 를 선택하여 VM을 종료합니다.

  21. VM이 중지되면(할당 취소됨) 개요 블레이드의 왼쪽에서 네트워킹을 선택하고 네트워크 인터페이스 연결을 선택한 다음 vm001nic2를 선택한 다음 확인을 선택합니다. 몇 분 후에 추가 NIC가 VM에 추가됩니다.

  22. 네트워킹 블레이드에서 vm001nic2 탭을 선택한 다음 네트워크 인터페이스:vm001nic2를 선택합니다.

  23. vm001nic 인터페이스 블레이드에서 IP 구성을 선택하고 블레이드 가운데에서 ipconfig1을 선택합니다.

  24. ipconfig1 설정 블레이드에서 공용 IP 주소에 대해 사용을 선택하고 필수 설정 구성, 새로 만들기를 선택하고 이름에 vm001nic2pip를 입력하고 정적을 선택한 다음, 저장 선택합니다.

  25. 성공적으로 저장되면 VM001 개요 블레이드로 돌아가 서 시작을 선택하여 구성된 Windows Server 2019 VM을 시작합니다.

  26. 시작되면 VM001에 RDP 세션을 설정합니다 .

  27. VM 내부에 연결되면 CMD (관리자 권한)를 열고 호스트 이름을 입력하여 OS의 컴퓨터 이름을 검색합니다. VM001과 일치해야 합니다. 나중에 이것을 기록해 둡다.

Azure Stack Hub의 Windows Server 2019 VM에서 두 번째 네트워크 어댑터 구성

기본적으로 Azure Stack Hub는 가상 머신에 연결된 첫 번째(기본) 네트워크 인터페이스에 기본 게이트웨이를 할당합니다. Azure Stack Hub는 가상 머신에 연결된 추가(보조) 네트워크 인터페이스에 기본 게이트웨이를 할당하지 않습니다. 따라서 보조 네트워크 인터페이스가 있는 서브넷 외부의 리소스와는 기본적으로 통신할 수 없습니다. 하지만 보조 네트워크 인터페이스는 서브넷 외부의 리소스와 통신할 수 있습니다. 단, 통신을 사용하도록 설정하는 단계는 운영 체제에 따라 다릅니다.

  1. 아직 연결이 열려 있지 않은 경우 VM001에 RDP 연결을 설정합니다.

  2. 관리자 권한으로 CMD 를 열고 이 VM 내에서 두 인터페이스(Hyper-V 네트워크 어댑터)를 반환해야 하는 경로 인쇄 를 실행합니다.

  3. 이제 ipconfig 를 실행하여 보조 네트워크 인터페이스에 할당된 IP 주소를 확인합니다. 이 예제에서는 인터페이스 6에 10.10.11.4가 할당됩니다. 보조 네트워크 인터페이스에 대해서는 기본 게이트웨이 주소가 반환되지 않습니다.

    부분 ipconfig 목록에는 이더넷 어댑터 이더넷 2에 IPv4 주소 10.10.11.4가 있음을 보여 줍니다.

  4. 보조 네트워크 인터페이스의 서브넷 외부 주소로 향하는 모든 트래픽을 서브넷의 게이트웨이로 라우팅하려면 CMD에서 다음 명령을 실행합니다.

    route add -p 0.0.0.0 MASK 0.0.0.0 <ipaddress> METRIC 5015 IF <interface>
    

    <ipaddress> 현재 서브넷의 .1 주소이며 <interface> 인터페이스 번호입니다.

    경로 추가 명령은 ipaddress 값 10.10.11.1 및 인터페이스 번호 6과 함께 실행됩니다.

  5. 추가된 경로가 경로 테이블에 있는지 확인하려면 경로 인쇄 명령을 입력합니다.

    추가된 경로는 게이트웨이 주소 10.10.11.1 및 메트릭 5015가 있는 영구 경로로 표시됩니다.

  6. ping 명령을 실행하여 아웃바운드 통신의 유효성을 검사할 수도 있습니다.
    ping 8.8.8.8 -S 10.10.11.4
    -S 플래그를 사용하면 원본 주소를 지정할 수 있습니다. 이 경우 10.10.11.4는 기본 게이트웨이가 있는 NIC의 IP 주소입니다.

  7. CMD를 닫습니다.

Windows Server 2019 iSCSI 대상 구성

이 시나리오를 위해 Windows Server 2019 iSCSI 대상이 Azure Stack Hub 환경 외부의 Hyper-V에서 실행되는 가상 머신인 구성의 유효성을 검사합니다. 이 가상 머신은 8개의 가상 프로세서, 단일 VHDX 파일 및 가장 중요한 두 개의 가상 네트워크 어댑터로 구성됩니다. 이상적인 시나리오에서 이러한 네트워크 어댑터는 라우팅 가능한 서브넷이 다르지만 이 유효성 검사에서는 동일한 서브넷에 네트워크 어댑터가 있습니다.

부분 ipconfig 명령 출력에는 동일한 서브넷에 있는 두 개의 이더넷 어댑터가 표시됩니다. IP 주소는 10.33.131.15 및 10.33.131.16입니다.

iSCSI 대상 서버의 경우 Windows Server 2016 또는 2019, 물리적 또는 가상, Hyper-V, VMware에서 실행되거나, 전용 물리적 iSCSI SAN과 같은 원하는 대체 어플라이언스 수 있습니다. 여기서 핵심은 Azure Stack Hub 시스템 간 연결이지만 원본과 대상 간에 여러 경로를 갖는 것이 바람직합니다. 이는 추가 중복성을 제공하고 MPIO와 같은 향상된 성능을 구동하기 위해 고급 기능을 사용할 수 있기 때문에 바람직합니다.

파일 공유 구성을 진행하기 전에 Windows Server 2019 iSCSI 대상을 최신 누적 업데이트 및 수정으로 업데이트하고 필요한 경우 다시 부팅하는 것이 좋습니다.

업데이트되고 다시 부팅되면 이제 이 서버를 iSCSI 대상으로 구성할 수 있습니다.

  1. 서버 관리자 열고 관리를 선택한 다음 역할 및 기능 추가를 선택합니다.

  2. 열리면 다음을 선택하고 , 역할 기반 또는 기능 기반 설치를 선택하고, 서버 역할 선택 페이지에 도달할 때까지 선택 항목을 진행합니다.

  3. 파일 및 스토리지 서비스를 확장하고 파일 & iSCSI 서비스를 확장하고 iSCSI대상 서버 상자를 체크하여 팝업 프롬프트를 수락하여 새 기능을 추가한 다음 완료까지 진행합니다.

    역할 및 기능 추가 마법사의 확인 페이지에는

    완료되면 서버 관리자 닫습니다.

  4. 파일 탐색기 열고 C:\로 이동하여 iSCSI라는 새 폴더를 만듭니다.

  5. 서버 관리자 다시 열고 왼쪽 메뉴에서 파일 및 스토리지 서비스를 선택합니다.

  6. iSCSI를 선택하고 오른쪽 창에서 "iSCSI 가상 디스크를 만들려면 새 iSCSI 가상 디스크 마법사 시작" 링크를 선택합니다. 배너를 선택합니다. 마법사가 팝업됩니다.

  7. iSCSI 가상 디스크 위치 선택 페이지에서 사용자 지정 경로 입력에 대한 라디오 단추를 선택하고 C:\iSCSI로 이동하고 다음을 선택합니다.

  8. iSCSI 가상 디스크에 iSCSIdisk1 의 이름을 지정하고 필요에 따라 설명을 지정한 다음 , 다음을 선택합니다.

  9. 가상 디스크의 크기를 10GB 로 설정하고 고정 크기를 선택하고 다음을 선택합니다.

    새 iSCSI 가상 디스크 마법사의 iSCSI 가상 디스크 크기 페이지에서 10GB의 고정 크기를 지정하고

  1. 새 대상이므로 새 iSCSI 대상 을 선택하고 다음을 선택합니다.

  2. 대상 이름 지정 페이지에서 TARGET1 입력하고 다음을 선택합니다.

  3. 액세스 서버 지정 페이지에서 추가를 선택합니다. 그러면 iSCSI 대상에 연결할 수 있는 권한이 부여된 특정 초기자를 입력하는 대화 상자가 열립니다.

  4. 초기자 ID 추가 창에서 선택한 형식의 값 입력을 선택하고 드롭다운 메뉴에서 IQN이 선택되어 있는지 확인합니다. iqn.1991-05.com.microsoft:<computername>을 입력합니다. 여기서 <computername>은 VM001컴퓨터 이름다음을 선택합니다.

  5. 인증 사용 페이지에서 상자를 비워 두고 다음을 선택합니다.

  6. 선택 항목을 확인하고 만들기를 선택한 다음, 닫습니다. 서버 관리자 만든 iSCSI 가상 디스크가 표시됩니다.

    새 iSCSI 가상 디스크 마법사의 결과 페이지에는 ISCSI 가상 디스크 만들기가 성공했음이 표시됩니다.

Windows Server 2019 iSCSI 초기자 및 MPIO 구성

iSCSI 초기자를 설정하려면 먼저 Azure Stack Hub 시스템의 Azure Stack Hub 사용자 포털에 다시 로그인하고 VM001에 대한 개요 블레이드로 이동합니다.

  1. VM001에 대한 RDP 연결을 설정합니다. 연결되면 서버 관리자 엽니다.

  2. 역할 및 기능 추가를 선택하고 기능 페이지에 도달할 때까지 기본값을 적용합니다.

  3. 기능 페이지에서 다중 경로 I/O를 추가하고 다음을 선택합니다.

    역할 및 기능 추가 마법사의 기능 페이지에는 선택한 다중 경로 I/O 기능 중 하나가 표시됩니다.

  4. 필요한 경우 자동으로 대상 서버 다시 시작 상자를 선택하고 설치를 선택한 다음, 닫기를 선택합니다. 다시 부팅이 필요할 가능성이 높으므로 완료되면 VM001에 다시 연결합니다.

  5. 서버 관리자 다시 MPIO 설치가 완료되기를 기다렸다가 닫기를 선택한 다음 도구를 선택하고MPIO를 선택합니다.

  6. 다중 경로 검색 탭을 선택하고 iSCSI 디바이스에 대한 지원 추가 상자를 선택하고 추가를 선택한 다음, 예를 선택하여 VM001을 다시 부팅합니다. 창이 표시되지 않으면 확인을 선택한 다음 수동으로 다시 부팅합니다.

    MPIO 대화 상자의 다중 경로 검색 페이지에는

  7. 다시 부팅되면 VM001에 대한 새 RDP 연결을 설정합니다.

  8. 연결되면 서버 관리자 열고 도구를 선택하고 iSCSI 초기자를 선택합니다.

  9. Microsoft iSCSI 창이 나타나면 예를 선택하여 iSCSI 서비스가 기본적으로 실행되도록 허용합니다.

    Microsoft iSCSI 대화 상자는 iSCSI 서비스가 실행되고 있지 않다고 보고합니다. 서비스를 시작하는 예 단추가 있습니다.

  10. iSCSI 초기자 속성 창에서 검색 탭을 선택합니다.

  11. 이제 2개의 대상을 추가하므로 먼저 포털 검색 단추를 선택합니다.

  12. iSCSI 대상 서버의 첫 번째 IP 주소를 입력하고 고급을 선택합니다.

    대상 포털 검색 창에는

  13. 고급 설정 창에서 다음을 선택한 다음 확인을 선택합니다.

    a. 로컬 어댑터: Microsoft iSCSI 초기자입니다.

    b. 초기자 IP: 10.10.10.4.

  14. 대상 포털 검색 창으로 돌아가서 확인을 선택합니다.

  15. 다음을 사용하여 프로세스를 반복합니다.

    a. IP 주소: 두 번째 iSCSI 대상 IP 주소입니다.

    b. 로컬 어댑터: Microsoft iSCSI 초기자입니다.

    다. 초기자 IP: 10.10.11.4.

  16. 대상 포털은 주소 열 아래에 고유한 iSCSI 대상 IP를 사용하여 다음과 같이 표시됩니다.

  17. 대상 탭으로 돌아가 창 가운데에서 iSCSI 대상을 선택하고 연결을 선택합니다.

  18. 대상에 연결 창에서 다중 경로 사용 확인란을 선택하고 고급을 선택합니다.

  19. 다음 정보를 입력하고 확인을 선택한 다음 대상에 연결 창에서 확인을 선택합니다.

    a. 로컬 어댑터: Microsoft iSCSI 초기자입니다.

    b. 초기자 IP: 10.10.10.4.

    다. 대상 포털 IP: <첫 번째 iSCSI 대상 IP/3260>.

  20. 두 번째 초기자/대상 조합에 대한 프로세스를 반복합니다.

    a. 로컬 어댑터: Microsoft iSCSI 초기자.

    b. 초기자 IP: 10.10.11.4.

    다. 대상 포털 IP: <두 번째 iSCSI 대상 IP/3260>.

  21. 볼륨 및 디바이스 탭을 선택한 다음 자동 구성을 선택합니다. MPIO 볼륨이 표시됩니다.

    볼륨 목록 창에는 단일 볼륨에 대한 볼륨 이름, 탑재 지점 및 디바이스가 표시됩니다.

  22. 대상 탭으로 돌아가서 디바이스 선택하면 이전에 만든 단일 iSCSI VHD에 대한 2개의 연결이 표시됩니다.

    디바이스 대화 상자에는 두 줄에 나열된 디스크 2가 표시됩니다. 대상은 첫 번째 줄에 0, 두 번째 줄에는 1입니다.

  23. MPIO 단추를 선택하여 부하 분산 정책 및 경로에 대한 자세한 정보를 확인합니다.

    디바이스 세부 정보 대화 상자의 MPIO 페이지에는

  24. 확인을 세 번 선택하여 창과 iSCSI 초기자를 종료합니다.

  25. 디스크 관리(diskmgmt.msc)를 열면 디스크 초기화 창이 표시됩니다.

    디스크 초기화 대화 상자에는 디스크 2가 선택되어 있고 파티션 스타일로 선택한 MBR(마스터 부팅 레코드)이 표시됩니다. 확인 단추가 있습니다.

  26. 확인을 선택하여 기본값을 적용한 다음, 새 디스크까지 아래로 스크롤하고 마우스 오른쪽 단추를 클릭한 다음 새 단순 볼륨을 선택합니다.

  27. 기본값을 적용하여 마법사를 안내합니다. 볼륨 레이블을 iSCSIdisk1 로 변경한 다음 마침을 선택합니다.

    새 단순 볼륨 마법사 대화 상자는 볼륨이 기본 할당 단위 크기와 볼륨 레이블이

  28. 그런 다음 드라이브의 형식을 지정하고 드라이브 문자를 표시해야 합니다.

  29. 파일 탐색기 열고 이 PC를 선택하여 VM001에 연결된 새 드라이브를 확인합니다.

외부 스토리지 연결 테스트

통신의 유효성을 검사하고 기본적인 파일 복사 테스트를 실행하려면 먼저 Azure Stack Hub 시스템의 Azure Stack Hub 사용자 포털에 다시 로그인하고 VM001에 대한 개요 블레이드로 이동합니다.

  1. 연결을 선택하여 VM001에 RDP 연결을 설정합니다.

  2. 작업 관리자를 열고 성능 탭을 선택한 다음, 창을 RDP 세션의 오른쪽에 맞습니다.

  3. 관리자 권한으로 WINDOWS POWERSHELL ISE를 열고 RDP 세션의 왼쪽에 맞습니다. ISE의 오른쪽에서 명령 창을 닫고 스크립트 단추를 선택하여 ISE 창 맨 위에 있는 흰색 스크립트 창을 확장합니다.

  4. 이 VM에는 vHD를 만드는 네이티브 PowerShell 모듈이 없습니다. 이 모듈은 iSCSI 대상에 대한 파일 전송을 테스트하는 큰 파일로 사용됩니다. 이 경우 DiskPart를 실행하여 VHD 파일을 만듭니다. ISE에서 다음을 실행합니다.

    1. Start-Process Diskpart

    2. 새 CMD 창이 열리고 다음을 입력합니다.
      **Create vdisk file="c:\\test.vhd" type=fixed maximum=5120**

    CMD 창에는 지정된 명령이 DiskPart에 실행되어 성공적으로 완료되어 가상 디스크 파일이 생성되었음을 보여줍니다.

    1. 만드는 데 몇 분 정도 걸릴 수 있습니다. 만든 후 만들기의 유효성을 검사하려면 파일 탐색기 열고 C:\로 이동합니다. 새 test.vhd가 있고 크기가 5GB여야 합니다.

    파일 test.vhd는 예상대로 C:내에 표시되며 지정된 크기입니다.

    1. CMD 창을 닫고 ISE로 돌아가서 스크립트 창에 다음 명령을 입력합니다. F:\를 이전에 적용된 iSCSI 대상 드라이브 문자로 바꿉니다.

    2. Copy-Item "C:\\test.vhd" -Destination "F:\\"

    3. 스크립트 창에서 줄을 선택하고 F8 키를 눌러 실행합니다.

    4. 명령이 실행되는 동안 두 네트워크 어댑터를 관찰하고 VM001의 두 네트워크 어댑터에서 데이터 전송이 이루어지는 것을 확인합니다. 또한 각 네트워크 어댑터가 부하를 균등하게 공유해야 합니다.

    두 어댑터 모두 2.6Mbps의 부하를 표시합니다.

이 시나리오는 Azure Stack Hub에서 실행되는 워크로드와 외부 스토리지 배열(이 경우 Windows Server 기반 iSCSI 대상) 간의 연결을 강조 표시하도록 설계되었습니다. 이는 성능 테스트로 설계되지 않았으며 대체 iSCSI 기반 어플라이언스 사용하는 경우 수행해야 하는 단계를 반영하지는 않았지만 Azure Stack Hub에 워크로드를 배포하고 Azure Stack Hub 환경 외부의 스토리지 시스템에 연결할 때 고려해야 할 몇 가지 핵심 고려 사항을 강조합니다.

다음 단계

Azure Stack Hub 네트워킹에 대한 차이점 및 고려 사항