Azure Stack 허브로 저장소 확장Extending storage to Azure Stack Hub

이 문서에서는 Azure Stack 허브를 기존 네트워킹 환경에 통합 하는 방법을 결정 하는 데 도움이 되는 Azure Stack 허브 저장소 인프라 정보를 제공 합니다.This article provides Azure Stack Hub storage infrastructure information to help you decide how to integrate Azure Stack Hub into your existing networking environment. 데이터 센터 확장에 대 한 일반적인 논의를 제공 하면 문서에서 두 가지 시나리오를 제공 합니다.After providing a general discussion of extending your datacenter, the article presents two different scenarios. Windows 파일 저장소 서버에 연결할 수 있습니다.You can connect to a Windows file storage server. Windows iSCSI 서버에 연결할 수도 있습니다.You can also connect to a Windows iSCSI server.

Azure Stack 허브로 저장소 확장 개요Overview of extending storage to Azure Stack Hub

공용 클라우드에 데이터를 저장 하는 데 충분 하지 않은 시나리오가 있습니다.There are scenarios where having your data located in the public cloud isn’t enough. 계산 집약적 가상화 된 데이터베이스 워크 로드가 있을 수 있으며, 대기 시간이 중요 하며, 공용 클라우드에 대 한 왕복 시간이 데이터베이스 워크 로드의 성능에 영향을 줄 수 있습니다.Perhaps you have a compute-intensive virtualized database workload, sensitive to latencies, and the round-trip time to the public cloud could affect performance of the database workload. 온-프레미스 작업에서 액세스 해야 하는 온-프레미스 데이터를 파일 서버, NAS 또는 iSCSI 저장소 배열에 저장 하 고 규정 또는 준수 목표를 충족 하기 위해 온-프레미스에 상주해 야 합니다.Perhaps there is data on premises, held on a file server, NAS, or iSCSI storage array, which needs to be accessed by on-premises workloads, and needs to reside on-premises to meet regulatory or compliance goals. 데이터를 온-프레미스에 배치 하는 두 가지 시나리오는 대부분의 조직에서 중요 합니다.These are just two of the scenarios where having data reside on-premises, remains important for many organizations.

따라서 Azure Stack 허브의 저장소 계정 또는 가상화 된 파일 서버 내에서 해당 데이터를 호스트 하는 이유는 Azure Stack 허브 시스템에서 실행 되는 이유는 무엇 인가요?So, why not just host that data in storage accounts on Azure Stack Hub, or inside virtualized file servers, running on the Azure Stack Hub system? Azure에서와 달리 Azure Stack 허브 저장소는 유한 합니다.Well, unlike in Azure, Azure Stack Hub storage is finite. 사용 하기 위해 사용할 수 있는 용량은 보유 하 고 있는 노드 수 외에도, 구매한 노드 당 용량에 따라 전적으로 달라 집니다.The capacity you have available for your usage depends entirely on the per-node capacity you chose to purchase, in addition to the number of nodes you have. Azure Stack 허브가 Hyper-Converged 솔루션 이기 때문에 사용 수요를 충족 하기 위해 저장소 용량을 증가 시키려는 경우에도 노드를 추가 하 여 계산 공간을 늘려야 합니다.And because Azure Stack Hub is a Hyper-Converged solution, should you wish to grow your storage capacity to meet usage demands, you also need to grow your compute footprint through the addition of nodes. 이는 특히 비용이 많이 들지 않을 수 있습니다. 특히, Azure Stack 허브 시스템 외부에서 저렴 한 비용으로 추가 될 수 있는 콜드 보관 저장소에 대 한 추가 용량이 필요할 수 있습니다.This can be potentially cost prohibitive, especially if the need to extra capacity is for cold, archival storage that could be added for low cost outside of the Azure Stack Hub system.

그러면 아래에 포함 되는 시나리오로 이동 합니다.Which brings you to the scenario that you will cover below. 를 통해 Azure Stack 허브에서 실행 되는 가상화 된 워크 로드 Azure Stack 허브 시스템을 Azure Stack 허브 외부의 저장소 시스템에 손쉽게 연결할 수 있으며, 네트워크를 통해 액세스할 수 있습니다.How can you connect Azure Stack Hub systems, virtualized workloads running on the Azure Stack Hub, simply and efficiently, to storage systems outside of the Azure Stack Hub, accessible via the network.

저장소 확장을 위한 설계Design for extending storage

이 다이어그램에서는 데이터 읽기/쓰기 등을 위해 단일 가상 컴퓨터에서 작업을 실행 하 고 외부 (VM 및 Azure Stack 허브 자체) 저장소에 연결 하 고 해당 저장소를 활용 하는 시나리오를 보여 줍니다. 이 문서에서는 간단한 파일 검색에 집중 하지만 데이터베이스 파일 원격 저장소와 같은 보다 복잡 한 시나리오의 경우이 예제를 확장할 수 있습니다.The diagram depicts a scenario, where a single virtual machine, running a workload, connects to, and utilizes external (to the VM, and the Azure Stack Hub itself) storage, for purposes of data reading/writing etc. For this article, you'll focus on simple retrieval of files, but you can expand this example for more complex scenarios, such as the remote storage of database files.

Azure Stack 허브 시스템의 작업 VM은 외부 저장소에 액세스 합니다.

다이어그램에서 Azure Stack 허브 시스템의 VM이 여러 Nic를 사용 하 여 배포 된 것을 볼 수 있습니다.In the diagram, you’ll see that the VM on the Azure Stack Hub system has been deployed with multiple NICs. 중복성 뿐만 아니라 저장소 모범 사례에서 대상과 대상 간에 여러 경로를 포함 하는 것이 중요 합니다.From both a redundancy, but also a storage best practice, it’s important to have multiple paths between target and destination. 더 복잡 한 작업은 Azure에서와 마찬가지로 Azure Stack 허브의 Vm에 공용 및 개인 Ip가 모두 있는 경우입니다.Where things become more complex, are where VMs in Azure Stack Hub have both public and private IPs, just like in Azure. 외부 저장소가 VM에 연결 해야 하는 경우에는 개인 Ip가 Vnet 및 서브넷 내에서 Azure Stack 허브 시스템 내에서 주로 사용 되므로 공용 IP를 통해서만이 작업을 수행할 수 있습니다.If the external storage needed to reach the VM, it can only do so via the public IP, as the Private IPs are primarily used within the Azure Stack Hub systems, within vNets and the subnets. 외부 저장소는 사이트 간 VPN을 통과 하는 경우에만 VM의 개인 IP 공간과 통신할 수 없으며 vNet 자체에 펀치 됩니다.The external storage would not be able to communicate with the private IP space of the VM, unless it passes through a Site to Site VPN, to punch into the vNet itself. 따라서이 예제에서는 공용 IP 공간을 통해 통신 하는 데 중점을 둡니다.So, for this example, we’ll focus on communication via the public IP space. 다이어그램에서 공용 IP 공간에 주목 해야 하는 한 가지 사항은 2 개의 공용 IP 풀 서브넷이 있다는 것입니다.One thing to notice with the public IP space in the diagram, is that there are 2 different public IP pool subnets. 기본적으로 Azure Stack 허브에는 공용 IP 주소에 대해 하나의 풀만 필요 하지만, 중복 라우팅의 경우에는 두 번째를 추가 하는 것이 좋습니다.By default, Azure Stack Hub requires just one pool for public IP address purposes, but something to consider, for redundant routing, may be to add a second. 그러나 현재는 특정 풀에서 IP 주소를 선택할 수 없기 때문에 여러 가상 네트워크 카드를 통해 동일한 풀의 공용 Ip가 있는 Vm으로 끝날 수 있습니다.However, at this time, it is not possible to select an IP address from a specific pool, so you may indeed end up with VMs with public IPs from the same pool across multiple virtual network cards.

이 논의의 목적을 위해 경계 장치와 외부 저장소 간의 라우팅이 처리 되 고 트래픽이 네트워크를 적절 하 게 트래버스할 수 있다고 가정 합니다.For the purposes of this discussion, we will assume that the routing between the border devices and the external storage is taken care of, and traffic can traverse the network appropriately. 이 예에서는 백본이 1GbE, 10GbE, 25gbe 또는 훨씬 더 빠른 지는 중요 하지 않습니다. 그러나이 외부 저장소에 액세스 하는 응용 프로그램의 성능 요구를 해결 하기 위해 통합을 계획할 때 고려해 야 합니다.For this example, it doesn’t matter if the backbone is 1GbE, 10GbE, 25 GbE or even faster, however this would be important to consider as you plan for your integration, to address the performance needs of any applications accessing this external storage.

Windows Server iSCSI 대상에 연결Connect to a Windows Server iSCSI Target

이 시나리오에서는 Azure Stack 허브에 Windows Server 2019 가상 머신을 배포 및 구성 하 고, Windows Server 2019도 실행 되는 외부 iSCSI 대상에 연결 하도록 준비 합니다.In this scenario, we will deploy and configure a Windows Server 2019 virtual machine on Azure Stack Hub and prepare it to connect to an external iSCSI Target, which will also be running Windows Server 2019. 해당 하는 경우 MPIO와 같은 주요 기능을 사용 하 여 VM과 외부 저장소 간의 성능 및 연결을 최적화할 수 있습니다.Where appropriate we will enable key features such as MPIO, to optimize performance and connectivity between the VM and external storage.

Azure Stack 허브에 Windows Server 2019 VM 배포Deploy the Windows Server 2019 VM on Azure Stack Hub

  1. Azure Stack 허브 관리 포털 에서이 시스템이 올바르게 등록 되었고 marketplace에 연결 된 것으로 가정 하 고 marketplace 관리를 선택한 다음 windows server 2019 이미지가 아직 없는 경우 Azure에서 추가 를 선택 하 고 windows server 2019 를 검색 하 여 windows server 2019 Datacenter 이미지를 추가 합니다.From your Azure Stack Hub administration portal, assuming this system has been correctly registered and is connected to the marketplace, select Marketplace Management, then, assuming you don’t already have a Windows Server 2019 image, select Add from Azure and then search for Windows Server 2019, adding the Windows Server 2019 Datacenter image.

    "대시보드 > Marketplace 관리-Marketplace 항목 > Azure에서 추가" 대화 상자는 검색 상자에 "windows server 2019"를 표시 하 고 이름에 해당 문자열이 포함 된 항목 목록을 표시 합니다.

    Windows Server 2019 이미지를 다운로드 하는 데 다소 시간이 걸릴 수 있습니다.Downloading a Windows Server 2019 image may take some time.

  2. Azure Stack 허브 환경에 Windows Server 2019 이미지가 있으면 Azure Stack Hub 사용자 포털에 로그인 합니다.Once you have a Windows Server 2019 image in your Azure Stack Hub environment, sign into the Azure Stack Hub user portal.

  3. Azure Stack Hub 사용자 포털에 로그인 한 후에는 제품에 대 한 구독이있는지 확인 하 여 IaaS 리소스 (계산, 저장소 및 네트워크)를 프로 비전 할 수 있습니다.Once logged into the Azure Stack Hub user portal, ensure you have a subscription to an offer, that allows you to provision IaaS resources (Compute, Storage and Network).

  4. 구독을 사용할 수 있게 되 면 Azure Stack Hub 사용자 포털의 대시보드로 다시 이동 하 여 리소스 만들기 를 선택 하 고 Compute 를 선택한 다음 Windows Server 2019 데이터 센터 갤러리 항목 을 선택 합니다.Once you have a subscription available, back on the dashboard in the Azure Stack Hub user portal, select Create a resource, select Compute and then select the Windows Server 2019 Datacenter gallery item.

  5. 기본 사항 블레이드에서 다음과 같이 정보를 입력 합니다.On the Basics blade, complete the information as follows:

    a.a. 이름: VM001Name: VM001

    b.b. 사용자 이름: localadminUsername: localadmin

    다.c. 암호암호 확인: <password of your choice>Password and Confirm password: <password of your choice>

    d.d. 구독: <subscription of your choice, with compute/storage/network resources>Subscription: <subscription of your choice, with compute/storage/network resources>.

    e.e. 리소스 그룹: storagetesting (새로 만들기)Resource group: storagetesting (create new)

    f.f. 확인 을 선택합니다.Select OK

  6. 크기 선택 블레이드에서 Standard_F8s_v2 선택 하 고 선택 을 선택 합니다.On the Choose a size blade, select a Standard_F8s_v2 and select Select.

  7. 설정 블레이드에서 가상 네트워크 를 선택 하 고 가상 네트워크 만들기 블레이드에서 주소 공간을 10.10.10.0/23 으로 조정 하 고 서브넷 주소 범위를 10.10.10.0/24 로 업데이트 한 다음 확인 을 선택 합니다.On the Settings blade, select the Virtual network and in the Create virtual network blade, adjust the address space to be 10.10.10.0/23 and update the Subnet address range to be 10.10.10.0/24 then select OK.

  8. 공용 ip 주소 를 선택 하 고 공용 ip 주소 만들기 블레이드에서 정적 라디오 단추를 선택 합니다.Select the Public IP address, and in the Create public IP address blade, select the Static radio button.

  9. 공용 인바운드 포트 선택 드롭다운에서 RDP (3389) 를 선택 합니다.On the Select public inbound ports dropdown, select RDP (3389).

  10. 다른 기본값을 그대로 두고 확인을 선택 합니다.Leave the other defaults and select OK.

    "대시보드 > 새 > 가상 머신 > 요약 만들기" 대화 상자는 "유효성 검사 통과" 상태를 표시 하 고 VM001에 대 한 정보를 표시 합니다.

  11. 요약을 읽고, 유효성 검사를 기다린 다음, 확인 을 선택 하 여 배포를 시작 합니다.Read the summary, wait for validation, then select OK to begin the deployment. 배포는 약 10 분 이내에 완료 되어야 합니다.The deployment should complete in around 10 minutes.

  12. 배포가 완료 되 면 리소스 에서 가상 머신 이름을 선택 하 고 개요VM001 .Once the deployment has completed, under Resource select the virtual machine name, VM001 to open Overview.

    개요 화면에 VM001에 대 한 정보가 표시 됩니다.

  13. DNS 이름에서 구성 을 선택 하 고 dns 이름 레이블 vm001 을 제공 하 고 저장 을 선택한 다음 vm001 를 선택 합니다.Under DNS name, select Configure and provide a DNS name label, vm001 and select Save, then select VM001.

  14. 개요 블레이드의 오른쪽에서 가상 네트워크/서브넷 텍스트 아래에 있는 storagetesting-vnet/default 를 선택 합니다.On the right-hand side of the overview blade, select storagetesting-vnet/default under the Virtual network/subnet text.

  15. Storagetesting 블레이드 내에서 서브넷 , + 서브넷 을 차례로 선택한 다음 새 서브넷 추가 블레이드에서 다음 정보를 입력 하 고 확인 을 선택 합니다.Within the storagetesting-vnet blade, select Subnets then +Subnet, then in the new Add Subnet blade, enter the following information, then select OK:

    a.a. 이름: subnet2Name: subnet2

    b.b. 주소 범위 (CIDR 블록): 10.10.11.0/24Address range (CIDR block): 10.10.11.0/24

    다.c. 네트워크 보안 그룹: 없음Network Security Group: None

    d.d. 경로 테이블: 없음Route table: None

  16. 저장 되 면 VM001 를 선택 합니다.Once saved, select VM001.

  17. 개요 블레이드의 왼쪽에서 네트워킹 을 선택 합니다.From the left-hand side of the overview blade, select Networking.

  18. 네트워크 인터페이스 연결 을 선택 하 고 네트워크 인터페이스 만들기 를 선택 합니다.Select Attach network interface and then select Create network interface.

  19. 네트워크 인터페이스 만들기 블레이드에서 다음 정보를 입력 합니다.On the Create network interface blade, enter the following information.

    a.a. 이름: vm001nic2Name: vm001nic2

    b.b. 서브넷: 서브넷이 10.10.11.0/24 인지 확인Subnet: Ensure subnet is 10.10.11.0/24

    다.c. 네트워크 보안 그룹: VM001-nsgNetwork security group: VM001-nsg

    d.d. 리소스 그룹: storagetestingResource group: storagetesting

  20. 성공적으로 연결 되 면 VM001 를 선택 하 고 중지 를 선택 하 여 VM을 종료 합니다.Once successfully attached, select VM001 and select Stop to shut down the VM.

  21. VM이 중지 (할당 취소) 되 면 개요 블레이드의 왼쪽에서 네트워킹 을 선택 하 고 네트워크 인터페이스 연결 을 선택한 다음 Vm001nic2 를 선택 하 고 확인 을 선택 합니다.Once the VM is stopped (deallocated), on the left-hand side of the overview blade, select Networking, select Attach network interface and then select vm001nic2, then select OK. 잠시 후에 추가 NIC가 VM에 추가 됩니다.The additional NIC will be added to the VM in a few moments.

  22. 네트워킹 블레이드에서 vm001nic2 탭을 선택 하 고 네트워크 인터페이스: vm001nic2 를 선택 합니다.Still on the Networking blade, select the vm001nic2 tab, then select Network Interface:vm001nic2.

  23. Vm001nic 인터페이스 블레이드에서 IP 구성 을 선택 하 고, 블레이드 중앙에서 ipconfig1 를 선택 합니다.On the vm001nic interface blade, select IP configurations, and in the center of the blade, select ipconfig1.

  24. Ipconfig1 설정 블레이드에서 공용 IP 주소에 대해 사용 을 선택 하 고 필요한 설정 구성, 새로 만들기를 차례로 선택 하 고 이름으로 vm001nic2pip를 입력 한 다음 고정 을 선택 하 고 확인 , 저장 을 차례로 선택 합니다.On the ipconfig1 settings blade, select Enabled for Public IP address and select Configure required settings, Create new, and enter vm001nic2pip for the name, select Static and select OK then Save.

  25. 성공적으로 저장 되 면 VM001 개요 블레이드로 돌아가서 시작 을 선택 하 여 구성 된 Windows SERVER 2019 VM을 시작 합니다.Once successfully saved, return to the VM001 overview blade, and select Start to start your configured Windows Server 2019 VM.

  26. 작업을 시작 하면 VM001에 대 한 RDP 세션을 설정 합니다.Once started, establish an RDP session into the VM001.

  27. VM 내에 연결 되 면 CMD (관리자 권한으로)를 열고 호스트 이름 을 입력 하 여 OS의 컴퓨터 이름을 검색 합니다.Once connected inside the VM, open CMD (as administrator) and enter hostname to retrieve the computer name of the OS. VM001와 일치 해야 합니다.It should match VM001. 나중에이에 대 한 내용을 적어 둡니다.Make a note of this for later.

Azure Stack 허브에서 Windows Server 2019 VM의 두 번째 네트워크 어댑터 구성Configure second network adapter on Windows Server 2019 VM on Azure Stack Hub

기본적으로 Azure Stack 허브는 가상 컴퓨터에 연결 된 첫 번째 (기본) 네트워크 인터페이스에 기본 게이트웨이를 할당 합니다.By default, Azure Stack Hub assigns a default gateway to the first (primary) network interface attached to the virtual machine. Azure Stack 허브는 가상 컴퓨터에 연결 된 추가 (보조) 네트워크 인터페이스에 기본 게이트웨이를 할당 하지 않습니다.Azure Stack Hub does not assign a default gateway to additional (secondary) network interfaces attached to a virtual machine. 따라서 보조 네트워크 인터페이스가 있는 서브넷 외부의 리소스와는 기본적으로 통신할 수 없습니다.Therefore, you are unable to communicate with resources outside the subnet that a secondary network interface is in, by default. 하지만 보조 네트워크 인터페이스는 서브넷 외부의 리소스와 통신할 수 있습니다. 단, 통신을 사용하도록 설정하는 단계는 운영 체제에 따라 다릅니다.Secondary network interfaces can, however, communicate with resources outside their subnet, though the steps to enable communication are different for different operating systems.

  1. 아직 연결이 열려 있지 않은 경우 VM001 에 RDP 연결을 설정 합니다.If you do not already have a connection open, establish an RDP connection into VM001.

  2. 관리자 권한으로 CMD 를 열고이 VM 내에서 두 개의 인터페이스 (Hyper-v 네트워크 어댑터)를 반환 해야 하는 route print 를 실행 합니다.Open CMD as administrator and run route print which should return the two interfaces (Hyper-V Network Adapters) inside this VM.

    "Route print" 출력은 두 개의 Hyper-v 네트워크 어댑터를 포함 하는 인터페이스 목록입니다. 인터페이스 6은 Hyper-v 네트워크 어댑터 #2이 고, 인터페이스 7은 어댑터 #3입니다.

  3. 이제 ipconfig 를 실행 하 여 보조 네트워크 인터페이스에 할당 된 IP 주소를 확인 합니다.Now run ipconfig to see which IP address is assigned to the secondary network interface. 이 예제에서 10.10.11.4은 interface 6에 할당 됩니다.In this example, 10.10.11.4 is assigned to interface 6. 보조 네트워크 인터페이스에 대해서는 기본 게이트웨이 주소가 반환되지 않습니다.No default gateway address is returned for the secondary network interface.

    부분 ipconfig 목록은 이더넷 어댑터 이더넷 2에 IPv4 주소 10.10.11.4 있음을 보여 줍니다.

  4. 보조 네트워크 인터페이스의 서브넷 외부의 주소를 대상으로 하는 모든 트래픽을 서브넷의 게이트웨이로 라우팅하려면 CMD: 에서 다음 명령을 실행 합니다.To route all traffic destined for addresses outside the subnet of the secondary network interface to the gateway for the subnet, run the following command from the CMD:.

    route add -p 0.0.0.0 MASK 0.0.0.0 <ipaddress> METRIC 5015 IF <interface>
    

    <ipaddress> 현재 서브넷의 일 수이 고,는 <interface> 인터페이스 번호입니다.The <ipaddress> is the .1 address of the current subnet, and <interface> is the interface number.

    Route add 명령은 ipaddress 값 10.10.11.1 및 인터페이스 번호 6과 함께 발급 됩니다.

  5. 추가 된 경로가 경로 테이블에 있는지 확인 하려면 경로 인쇄 명령을 입력 합니다.To confirm the added route is in the route table, enter the route print command.

    추가 된 경로는 게이트웨이 주소 10.10.11.1 및 메트릭 5015을 포함 하는 영구 경로로 표시 됩니다.

  6. Ping 명령을 실행 하 여 아웃 바운드 통신의 유효성을 검사할 수도 있습니다.You can also validate outbound communication by running a ping command:
    ping 8.8.8.8 -S 10.10.11.4
    -S이 플래그를 사용 하면 원본 주소를 지정할 수 있습니다 .이 경우 10.10.11.4는 이제 기본 게이트웨이가 있는 NIC의 IP 주소입니다.The -S flag allows you to specify a source address, in this case, 10.10.11.4 is the IP address of the NIC that now has a default gateway.

  7. CMD 를 닫습니다.Close CMD.

Windows Server 2019 iSCSI 대상 구성Configure the Windows Server 2019 iSCSI Target

이 시나리오에서는 Windows Server 2019 iSCSI 대상이 Azure Stack 허브 환경의 외부 Hyper-v에서 실행 되는 가상 컴퓨터의 구성에 대 한 유효성을 검사 합니다.For the purpose of this scenario, you’ll be validating a configuration where the Windows Server 2019 iSCSI Target is a virtual machine running on Hyper-V, outside of the Azure Stack Hub environment. 이 가상 머신은 8 개의 가상 프로세서, 단일 VHDX 파일 및 가장 중요 한 두 개의 가상 네트워크 어댑터로 구성 됩니다.This virtual machine will be configured with eight virtual processors, a single VHDX file, and most importantly, two virtual network adapters. 이상적인 시나리오에서 이러한 네트워크 어댑터는 서로 다른 라우팅 가능한 서브넷을 갖지만이 유효성 검사에서는 동일한 서브넷에 네트워크 어댑터를 포함 합니다.In an ideal scenario, these network adapters will have different routable subnets, but in this validation, they will have network adapters on the same subnet.

부분 ipconfig 명령 출력은 동일한 서브넷에 두 개의 이더넷 어댑터를 표시 합니다. IP 주소는 10.33.131.15 및 10.33.131.16입니다.

ISCSI 대상 서버에 대 한 Windows Server 2016 또는 2019, 물리적 또는 가상, Hyper-v, VMware 또는 전용 물리적 iSCSI SAN과 같은 다른 어플라이언스에서 실행 될 수 있습니다.For your iSCSI Target server, it could be Windows Server 2016 or 2019, physical or virtual, running on Hyper-V, VMware, or an alternative appliance of your choice, such as a dedicated physical iSCSI SAN. 여기에서 중요 한 것은 Azure Stack 허브 시스템에 연결 되는 것이 고, 다른 하나는 중복성을 제공 하기 위한 것 이며, 더 많은 고급 기능을 사용 하 여 MPIO와 같이 향상 된 성능을 향상 시킬 수 있기 때문입니다.The key focus here, is connectivity into and out of the Azure Stack Hub system, however having multiple paths between the source and destination is preferably, as it provides additional redundancy, and allows the use of more advanced capabilities to drive increased performance, such as MPIO.

최신 누적 업데이트 및 픽스를 사용 하 여 Windows Server 2019 iSCSI 대상을 업데이트 하 고, 필요한 경우 다시 부팅 하 여 파일 공유의 구성을 계속 하는 것이 좋습니다.I’d encourage you to update your Windows Server 2019 iSCSI Target with the latest cumulative updates and fixes, rebooting if necessary, before proceeding with the configuration of file shares.

업데이트 되 고 다시 부팅 되 면 이제이 서버를 iSCSI 대상으로 구성할 수 있습니다.Once updated and rebooted, you can now configure this server as an iSCSI Target.

  1. 서버 관리자 를 열고 관리, 역할 및 기능 추가 를 차례로 선택 합니다.Open Server Manager and select Manage, then Add Roles and Features.

  2. 열린 후 다음 을 선택 하 고, 역할 기반 또는 기능 기반 설치 를 선택 하 고, 서버 역할 선택 페이지에 도달할 때까지 선택 항목을 진행 합니다.Once opened, select Next, select Role-based or feature-based installation, and proceed through the selections until you reach the Select server roles page.

  3. 파일 및 저장소 서비스 를 확장 하 고, 파일 & iscsi 서비스 를 확장 하 고, iscsi 대상 서버 상자를 확장 하 여 새 기능을 추가 하는 팝업 메시지를 수락 하 고 완료까지 진행 합니다.Expand File and Storage Services, expand File & iSCSI Services and tick the iSCSI Target Server box, accepting any popup prompts to add new features, then proceed through to completion.

    역할 및 기능 추가 마법사의 확인 페이지에는 "설치 선택 확인" 이라는 제목의 내용이 있습니다.

    완료 되 면 서버 관리자를 닫습니다 .Once completed, close Server Manager.

  4. 파일 탐색기 를 열고 C:로 이동 하 여 \ iSCSI 라는 새 폴더를 만듭니다.Open File Explorer, navigate to C:\ and create a new folder, called iSCSI.

  5. 서버 관리자 를 다시 열고 왼쪽 메뉴에서 File and Storage Services 를 선택 합니다.Reopen Server Manager and select File and Storage Services from the left-hand menu.

  6. Iscsi 를 선택 하 고 오른쪽 창에서 "iscsi 가상 디스크를 만들려면 새 Iscsi 가상 디스크 마법사 시작" 링크를 선택 합니다.Select iSCSI and select the "To create an iSCSI virtual disk, start the New iSCSI Virtual Disk Wizard" link on the right pane. 선택 합니다.select it. 마법사가 팝업 됩니다.A wizard pops-up.

  7. ISCSI 가상 디스크 위치 선택 페이지에서 사용자 지정 경로 입력 의 라디오 단추를 선택 하 고 C: \ iSCSI 로 이동 하 여 다음 을 선택 합니다.On the Select iSCSI virtual disk location page, select the radio button for Type a custom path and browse to your C:\iSCSI and select Next.

  8. ISCSI 가상 디스크에 iSCSIdisk1 의 이름을 지정 하 고 선택적으로 설명을 입력 한 후 다음 을 선택 합니다.Give the iSCSI virtual disk a name of iSCSIdisk1 and optionally, a description, then select Next.

  9. 가상 디스크의 크기를 10gb 로 설정 하 고 고정 크기 를 선택한 후 다음 을 선택 합니다.Set the size of the virtual disk to 10GB and select Fixed size and select Next.

    새 iSCSI 가상 디스크 마법사의 iSCSI 가상 디스크 크기 페이지는 고정 크기 10GB를 지정 하 고 "할당 시 가상 디스크 지우기" 옵션을 선택 합니다.

  1. 새 대상 이므로 새 iSCSI 대상 을 선택 하 고 다음 을 선택 합니다.Since this is a new target, select New iSCSI target and select Next.

  2. 대상 이름 지정 페이지에서 TARGET1 를 입력 하 고 다음 을 선택 합니다.On the Specify target name page, enter TARGET1 and select Next.

  3. 액세스 서버 지정 페이지에서 추가 를 선택 합니다.On the Specify access servers page, select Add. 그러면 iSCSI 대상에 연결할 수 있는 권한이 부여 되는 특정 초기자 를 입력할 수 있는 대화 상자가 열립니다.This opens a dialog to enter specific initiators that will be authorized to connect to the iSCSI Target.

  4. 초기자 ID 추가 창 에서 선택한 유형의 값을 입력 합니다 .를 선택 하 고 유형 아래에서 IQN이 드롭다운 메뉴에 선택 되어 있는지 확인 합니다.In the Add initiator ID window, select Enter a value for the selected type and under Type ensure IQN is selected in the drop-down menu. 1991 년를 입력 합니다. microsoft <computername> : 여기서 <computername> 는 VM001컴퓨터 이름을 입력 하 고 다음 을 선택 합니다.Enter iqn.1991-05.com.microsoft:<computername> where <computername> is the computer name of VM001 then select Next.

    초기자 id를 지정 하는 값은 "초기자 ID 추가" 창에 표시 됩니다.

  5. 인증 사용 페이지에서 확인란을 비워 두고 다음 을 선택 합니다.On the Enable Authentication page, leave the boxes blank, then select Next.

  6. 선택 사항을 확인 하 고 만들기, 닫기를 차례로 선택 합니다.Confirm your selections and select Create, then close. 서버 관리자에서 만든 iSCSI 가상 디스크가 표시 됩니다.You should see your iSCSI virtual disk created in Server Manager.

    새 iSCSI 가상 디스크 마법사의 결과 페이지에는 ISCSI 가상 디스크 만들기에 성공 했음을 보여 줍니다.

Windows Server 2019 iSCSI 초기자 및 MPIO 구성Configure the Windows Server 2019 iSCSI Initiator and MPIO

먼저 iSCSI 초기자를 설정 하려면 Azure Stack 허브 시스템에서 Azure Stack 허브 사용자 포털 에 다시 로그인 하 고 VM001에 대 한 개요 블레이드로 이동 합니다.To set up the iSCSI Initiator, firstly, log back into the Azure Stack Hub user portal on your Azure Stack Hub system and navigate to the overview blade for VM001.

  1. VM001에 대 한 RDP 연결을 설정 합니다.Establish an RDP connection to VM001. 연결 되 면 서버 관리자 를 엽니다.Once connected, open Server Manager.

  2. 역할 및 기능 추가 를 선택 하 고 기능 페이지에 도달할 때까지 기본값을 적용 합니다.Select Add roles and features, and accept the defaults until you reach the Features page.

  3. 기능 페이지에서 다중 경로 i/o 를 추가 하 고 다음 을 선택 합니다.On the Features page, add Multipath I/O and select Next.

    역할 및 기능 추가 마법사의 기능 페이지에는 다중 경로 i/o가 선택 된 하나의 기능이 표시 됩니다.

  4. 필요한 경우 자동으로 대상 서버 다시 시작 확인란을 선택 하 고 설치 를 선택한 다음 닫기를 선택 합니다.Tick the Restart the destination server automatically if required box and select Install, then select Close. 다시 부팅 해야 하는 경우가 많습니다. 완료 되 면 VM001에 다시 연결 합니다.A reboot will most likely be required, so once completed, reconnect to VM001.

  5. 서버 관리자 로 돌아가서 mpio 설치가 완료 될 때까지 기다렸다가 닫기 를 선택 하 고 도구 를 선택한 다음 MPIO 를 선택 합니다.Back in Server Manager, wait for the MPIO install to complete, select close, then select Tools and select MPIO.

  6. 다중 경로 검색 탭을 선택 하 고 상자를 선택 하 여 iSCSI 장치에 대 한 지원을 추가 하 고, 추가 를 선택한 다음, 를 선택 하 여 VM001를 다시 시작 합니다.Select the Discover Multi-Paths tab, and tick the box to Add support for iSCSI devices and select Add, then select Yes to reboot VM001. 창이 표시 되지 않으면 확인을 선택한 다음 수동으로 다시 부팅 합니다.If you don’t receive a window, select OK, then reboot manually.

    MPIO 대화 상자의 다중 경로 검색 페이지에 "iSCSI 장치에 대 한 지원 추가" 옵션이 선택 되어 있는 것을 볼 수 있습니다.

  7. 다시 부팅 되 면 VM001에 대 한 새 RDP 연결 을 설정 합니다.Once rebooted, establish a new RDP connection to VM001.

  8. 연결 되 면 서버 관리자 를 열고 도구 를 선택한 다음 iSCSI 초기자 를 선택 합니다.Once connected, open Server Manager, select Tools and select iSCSI Initiator.

  9. Microsoft iSCSI 창이 표시 되 면 를 선택 하 여 iscsi 서비스가 기본적으로 실행 되도록 허용 합니다.When a Microsoft iSCSI window pops up, select Yes to allow the iSCSI service to run by default.

    Microsoft iSCSI 대화 상자는 iSCSI 서비스가 실행 되 고 있지 않은 것을 보고 합니다. 서비스를 시작 하는 예 단추가 있습니다.

  10. ISCSI 초기자 속성 창에서 검색 탭을 선택 합니다.In the iSCSI Initiator properties window, select the Discovery tab.

  11. 이제 2 개의 대상을 추가 하므로 먼저 포털 검색 단추를 선택 합니다.You will now add 2 Targets, so first select the Discover Portal button.

  12. ISCSI 대상 서버의 첫 번째 IP 주소를 입력 하 고 고급 을 선택 합니다.Enter the first IP address of your iSCSI Target server, and select Advanced.

    검색 대상 포털 windows는 "IP 주소 또는 DNS 이름:" 텍스트 상자에 10.33.131.15를 표시 하 고 포트 텍스트 상자에 3260 (기본값)을 표시 합니다.

  13. 고급 설정 창에서 다음을 선택한 다음, 확인 을 선택 합니다.In the Advanced Settings window, select the following, then select OK.

    a.a. 로컬 어댑터: Microsoft iSCSI 초기자.Local adapter: Microsoft iSCSI Initiator.

    b.b. 시작자 IP: 10.10.10.4.Initiator IP: 10.10.10.4.

  14. 대상 포털 검색 창으로 돌아가서 확인 을 선택 합니다.Back in the Discover Target Portal window, select OK.

  15. 다음을 사용 하 여 프로세스를 반복 합니다.Repeat the process with the following:

    a.a. Ip 주소: 두 번째 ISCSI 대상 ip 주소입니다.IP address: Your second iSCSI Target IP address.

    b.b. 로컬 어댑터: Microsoft iSCSI 초기자.Local adapter: Microsoft iSCSI Initiator.

    다.c. 시작자 IP: 10.10.11.4.Initiator IP: 10.10.11.4.

  16. 대상 포털은 주소 열 아래에 고유한 ISCSI 대상 ip를 사용 하 여 다음과 같이 표시 됩니다.Your target portals should look like this, with your own iSCSI Target IPs under the Address column.

    "대상 포털" 대화 상자에 방금 만든 두 개의 포털이 표시 됩니다.

  17. 대상 탭으로 돌아가서 창 가운데에서 iSCSI 대상을 선택 하 고 연결 을 선택 합니다.Back on the Targets tab, select your iSCSI Target from the middle of the window, and select Connect.

  18. 대상에 연결 창에서 다중 경로 사용 확인란을 선택 하 고 고급 을 선택 합니다.In the Connect to target window, select the Enable multi-path tick box, and select Advanced.

    "대상에 연결" 대화 상자에 지정 된 값이 표시 됩니다.

  19. 다음 정보를 입력 하 고 확인 을 선택한 다음 대상에 연결 창에서 확인 을 선택 합니다.Enter the following information and select OK, then in the Connect to Target window, select OK.

    a.a. 로컬 어댑터: Microsoft iSCSI 초기자.Local adapter: Microsoft iSCSI Initiator.

    b.b. 시작자 IP: 10.10.10.4.Initiator IP: 10.10.10.4.

    다.c. 대상 포털 IP: <your first iSCSI Target IP / 3260> .Target portal IP: <your first iSCSI Target IP / 3260>.

    "연결 사용" 대화 상자에는 대상 포털 10.33.131.15/3260에 대 한 지정 된 정보가 표시 됩니다.

  20. 두 번째 개시자/대상 조합에 대해이 프로세스를 반복 합니다.Repeat the process for the second initiator/target combination.

    a.a. 로컬 어댑터: Microsoft iSCSI 초기자.Local adapter: Microsoft iSCSI Initiator.

    b.b. 시작자 IP: 10.10.11.4.Initiator IP: 10.10.11.4.

    다.c. 대상 포털 IP: <your second iSCSI Target IP / 3260> .Target portal IP: <your second iSCSI Target IP / 3260>.

    "연결 사용" 대화 상자에는 대상 포털 10.33.131.16/3260에 대 한 지정 된 정보가 표시 됩니다.

  21. 볼륨 및 장치 탭을 선택 하 고 자동 구성 – MPIO 볼륨이 표시 되어야 함을 선택 합니다.Select the Volumes and Devices tab, and then select Auto Configure – you should see an MPIO volume presented:

    볼륨 목록 창에는 볼륨 이름, 탑재 지점 및 단일 볼륨의 장치가 표시 됩니다.

  22. 대상 탭으로 돌아가서 장치 를 선택 하면 앞에서 만든 단일 iSCSI VHD에 대 한 2 개의 연결이 표시 됩니다.Back on the Targets tab, select Devices and you should see 2 connections to the single iSCSI VHD you created earlier.

    장치 대화 상자는 두 줄에 디스크 2를 표시 합니다.

  23. MPIO 단추 를 선택 하 여 부하 분산 정책 및 경로에 대 한 자세한 정보를 확인 합니다.Select the MPIO button to see more information about the load-balancing policy and paths.

    장치 세부 정보 대화 상자의 MPIO 페이지에는 "부하 분산 정책"의 라운드 로빈을 표시 되 고 두 개의 장치가 나열 됩니다.

  24. 확인 을 세 번 선택 하 여 Windows 및 iSCSI 초기자를 종료 합니다.Select OK three times to exit the windows and the iSCSI Initiator.

  25. 디스크 관리 (diskmgmt.msc)를 열고 디스크 초기화 창이 표시 되어야 합니다.Open Disk Management (diskmgmt.msc) and you should be prompted with an Initialize Disk window.

    디스크 초기화 대화 상자는 디스크 2를 선택 하 고 MBR (마스터 부트 레코드)을 파티션 스타일로 선택한 것으로 표시 합니다.

  26. 확인 을 선택 하 여 기본값을 적용 한 다음, 새 디스크로 스크롤하고 마우스 오른쪽 단추를 클릭 하 고 새 단순 볼륨 을 선택 합니다.Select OK to accept the defaults, then scroll down to the new disk, right-click, and select New Simple Volume

  27. 마법사를 단계별로 진행 하 여 기본값을 적용 합니다.Walk through the wizard, accepting the defaults. 볼륨 레이블을 iSCSIdisk1 로 변경 하 고 마침 을 선택 합니다.Change the Volume label to iSCSIdisk1 and then select Finish.

    새 단순 볼륨 마법사 대화 상자에는 볼륨이 기본 할당 단위 크기 및 볼륨 레이블 "iSCSIdisk1"를 사용 하는 NTFS로 표시 됩니다.

  28. 그런 다음 드라이브 문자를 사용 하 여 드라이브를 포맷 하 고 표시 해야 합니다.The drive should then be formatted and presented with a drive letter.

  29. 파일 탐색기 를 열고 이 PC 를 선택 하 여 VM001에 연결 된 새 드라이브를 확인 합니다.Open File Explorer and select This PC to see your new drive attached to VM001.

외부 저장소 연결 테스트Testing external storage connectivity

통신의 유효성을 검사 하 고 기본적인 파일 복사 테스트를 실행 하려면 먼저 Azure Stack 허브 시스템에서 Azure Stack 허브 사용자 포털 에 다시 로그인 하 여 VM001 에 대 한 개요 블레이드로 이동 합니다.To validate communication and run a rudimentary file copy test, firstly, log back into the Azure Stack Hub user portal on your Azure Stack Hub system and navigate to the overview blade for VM001

  1. 연결 을 선택 하 여 VM001 에 RDP 연결을 설정 합니다.Select Connect to establish an RDP connection into VM001

  2. 작업 관리자 를 열고 성능 탭을 선택한 후 창을 RDP 세션의 오른쪽에 맞춥니다.Open Task Manager select the Performance tab, and then snap the window to the right-hand side of the RDP session.

  3. 관리자 권한으로 Windows PowerShell ISE 를 열어 RDP 세션의 왼쪽에 맞춥니다.Open Windows PowerShell ISE as administrator and snap it to the left-hand side of the RDP session. ISE의 오른쪽에서 명령 창을 닫고 스크립트 단추를 선택 하 여 ise 창의 맨 위에 있는 흰색 스크립트 창을 확장 합니다.On the right-hand side of the ISE, close the Commands pane, and select the Script button, to expand the white script pane at the top of the ISE window.

  4. 이 VM에는 VHD를 만들 네이티브 PowerShell 모듈이 없으며,이를 사용 하 여 iSCSI 대상에 대 한 파일 전송을 테스트 하는 대량 파일로 사용 합니다.In this VM, there are no native PowerShell modules to create a VHD, which we will use as a large file to test the file transfer to the iSCSI Target. 이 경우에는 DiskPart를 실행 하 여 VHD 파일을 만듭니다.In this case, we will run DiskPart to create a VHD file. ISE에서 다음을 실행 합니다.In the ISE, run the following:

    1. Start-Process Diskpart

    2. 새 CMD 창이 열리고 다음을 입력 합니다.A new CMD window will open, and then enter:
      **Create vdisk file="c:\\test.vhd" type=fixed maximum=5120**

    CMD 창에는 지정 된 명령이 성공적으로 완료 된 DiskPart에 대해 실행 되어 가상 디스크 파일이 생성 된 것으로 표시 됩니다.

    1. 이를 만드는 데 몇 분 정도 소요 됩니다.This will take a few moments to create. 만든 후에는 파일 탐색기 를 열고 C:-로 이동 합니다. \ 그러면 새 테스트 .vhd가 표시 되 고 5GB 크기가 표시 됩니다.Once created, to validate the creation, open File Explorer and navigate to C:\ - you should see the new test.vhd present, and a size of 5GB.

    파일은 예상 대로 C:에 표시 , 되며 지정 된 크기입니다.

    1. CMD 창을 닫고 ISE로 돌아간 다음 스크립트 창에 다음 명령을 입력 합니다.Close the CMD window, and return to the ISE, then enter the following command in the script Window. F: \ 를 앞에서 적용 된 ISCSI 대상 드라이브 문자로 바꿉니다.Replace F:\ with the iSCSI Target drive letter that was applied earlier.

    2. Copy-Item "C:\\test.vhd" -Destination "F:\\"

    3. 스크립트 창에서 줄을 선택 하 고 F8 키를 눌러 실행 합니다.Select the line in the script window, and press F8 to run.

    4. 명령이 실행 되는 동안 두 네트워크 어댑터를 확인 하 고 VM001의 두 네트워크 어댑터에서 발생 하는 데이터의 양도를 확인 합니다.While the command is running, observe the two network adapters and see the transfer of data taking place across both network adapters in VM001. 또한 각 네트워크 어댑터가 부하를 균등 하 게 공유 해야 합니다.You should also notice that each network adapter should share the load evenly.

    두 어댑터 모두 2.6 Mbps의 부하를 표시 합니다.

이 시나리오는 Azure Stack Hub에서 실행 되는 워크 로드와 외부 저장소 배열 (이 경우 Windows Server 기반 iSCSI 대상) 간의 연결을 강조 표시 하도록 설계 되었습니다.This scenario was designed to highlight the connectivity between a workload running on Azure Stack Hub, and an external storage array, in this case, a Windows Server-based iSCSI Target. 이는 성능 테스트를 위한 것이 아니며, 다른 iSCSI 기반 어플라이언스를 사용 하는 경우 수행 해야 하는 단계를 반영 하지 않으며, Azure Stack 허브에 워크 로드를 배포할 때 수행 해야 하는 몇 가지 핵심 고려 사항을 강조 표시 하 고 Azure Stack 허브 환경 외부의 저장소 시스템에 연결할 수 있습니다.This wasn’t designed to be a performance test, nor be reflective of the steps you’d need to perform if you were using an alternative iSCSI-based appliance, however it does highlight some of the core considerations you’d make when deploying workloads on Azure Stack Hub, and connecting them to storage systems outside of the Azure Stack Hub environment.

다음 단계Next steps

Azure Stack 허브 네트워킹의 차이점 및 고려 사항Differences and considerations for Azure Stack Hub networking