온-프레미스 및 에지에 AI 및 기계 학습 컴퓨팅 배포

Azure Container Registry
Azure IoT Edge
Azure Machine Learning
Azure Stack Edge

이 참조 아키텍처는 Azure Stack Edge를 사용하여 클라우드에서 온-프레미스 또는 에지 시나리오로 신속한 기계 학습 추론을 확장하는 방법을 보여 줍니다. Azure Stack Hub는 컴퓨팅, 스토리지, 네트워킹 및 하드웨어 가속 기계 학습 등의 Azure 기능을 에지 위치에 제공합니다.

아키텍처

아키텍처 다이어그램: Azure Machine Learning에서 모델을 학습하는 온-프레미스 데이터이며, 모델은 추론을 위해 에지에 다시 배포됩니다.

이 아키텍처의 Visio 파일을 다운로드합니다.

워크플로

아키텍처는 다음과 같은 단계로 구성됩니다.

  • Azure Machine Learning. Machine Learning을 사용하면 클라우드 기반 환경에서 기계 학습 모델을 빌드, 학습, 배포 및 관리할 수 있습니다. 그런 다음, 이러한 모델은 Azure Container Instances, AKS(Azure Kubernetes Service) 및 Azure Functions를 포함한(포함하되, 이에 제한되지 않음) Azure 서비스에 배포할 수 있습니다.
  • Azure Container Registry. Container Registry는 Docker 레지스트리를 만들고 관리하는 서비스입니다. Container Registry는 Docker 컨테이너 이미지를 빌드, 저장 및 관리하고 컨테이너화된 기계 학습 모델을 저장할 수 있습니다.
  • Azure Stack Edge. Azure Stack Edge는 에지에서 기계 학습 추론을 위해 설계된 에지 컴퓨팅 디바이스입니다. 데이터는 Azure로 전송되기 전에 에지에서 전처리됩니다. Azure Stack Edge에는 에지에서 AI 추론의 성능을 향상하도록 설계된 컴퓨팅 가속 하드웨어가 포함되어 있습니다.
  • 로컬 데이터. 로컬 데이터는 기계 학습 모델의 학습에 사용되는 모든 데이터를 참조합니다. 데이터는 Azure Arc 배포를 비롯한 모든 로컬 스토리지 솔루션에 있을 수 있습니다.

구성 요소

시나리오 정보

잠재적인 사용 사례

이 솔루션은 통신 업계에 이상적입니다. 추론을 확장하는 일반적인 용도는 다음과 같은 경우를 포함합니다.

  • 데이터가 수집되고 상당한 온-프레미스 하드웨어 공간이 있는 데이터에 대해 신속한 로컬 기계 학습 추론을 실행합니다.
  • 기존 온-프레미스 데이터를 정리하고 모델을 생성하는 데 사용되는 장기 연구 솔루션을 만듭니다. 그런 다음, 모델은 온-프레미스와 클라우드에서 모두 사용됩니다. 새 데이터가 도착하면 정기적으로 다시 학습됩니다.
  • 물리적 위치와 온라인 모두에서 사용자에 대해 추론해야 하는 소프트웨어 애플리케이션을 빌드합니다.

권장 사항

로컬에 저장된 데이터 수집, 변환 및 전송

Azure Stack Edge는 해당 데이터를 Azure로 전송하기 전에 로컬 스토리지에서 가져온 데이터를 변환할 수 있습니다. 이 변환은 Azure Stack Edge 디바이스에 배포된 Azure IoT Edge 디바이스에서 수행됩니다. 이러한 IoT Edge 디바이스는 Azure 클라우드 플랫폼의 Azure IoT Hub 리소스와 연결됩니다.

각 IoT Edge 모듈은 수집, 변환 및 전송 워크플로에서 특정 작업을 수행하는 Docker 컨테이너입니다. 예를 들어 IoT Edge 모듈은 Azure Stack Edge 로컬 공유에서 데이터를 수집하고 데이터를 기계 학습에 사용할 수 있는 형식으로 변환할 수 있습니다. 그런 다음, 모듈은 변환된 데이터를 Azure Stack Edge 클라우드 공유로 전송합니다. 사용자 지정 또는 기본 제공 모듈을 IoT Edge 디바이스에 추가하거나 사용자 지정 IoT Edge 모듈을 개발할 수 있습니다.

참고

IoT Edge 모듈은 Container Registry에서 Docker 컨테이너 이미지로 등록됩니다.

Azure 클라우드 플랫폼의 Azure Stack Edge 리소스에서 클라우드 공유는 Azure Blob Storage 계정 리소스에 의해 지원됩니다. 클라우드 공유의 모든 데이터는 연결된 스토리지 계정에 자동으로 업로드됩니다. 로컬 또는 클라우드 공유를 탑재하거나 Azure Storage 계정을 트래버스하여 데이터 변환 및 전송을 확인할 수 있습니다.

모델 학습 및 배포

Blob Storage에 데이터를 준비하고 저장한 후 Azure Storage에 연결하는 Machine Learning 데이터 세트를 만들 수 있습니다. 데이터 세트는 Machine Learning에서 직접 참조하는 스토리지에 있는 데이터의 단일 복사본을 나타냅니다.

Machine Learning CLI(명령줄 인터페이스), R SDK, Python SDK, 디자이너 또는 Visual Studio Code를 사용하여 모델을 학습시키는 데 필요한 스크립트를 빌드할 수 있습니다.

모델을 학습시키고 배포할 준비를 마친 후에는 다음을 포함하되, 이에 국한되지 않는 다양한 Azure 서비스에 배포할 수 있습니다.

참고

이 참조 아키텍처의 경우 모델을 온-프레미스 추론에 사용할 수 있도록 모델이 Azure Stack Edge에 배포됩니다. 또한 모델은 Container Registry에 배포되어 다양한 Azure 서비스에서 모델을 추론할 수 있도록 합니다.

새로 배포된 모델을 사용하여 추론

Azure Stack Edge는 기본 제공 컴퓨팅 가속 하드웨어를 사용하여 온-프레미스 데이터에 대해 신속하게 로컬로 기계 학습 모델을 실행할 수 있습니다. 이 계산은 전적으로 에지에서 발생합니다. 그 결과 퍼블릭 클라우드 지역보다 데이터 원본에 더 가까운 하드웨어를 사용하여 데이터의 신속한 인사이트를 얻을 수 있습니다.

또한 Azure Stack Edge는 이미 로컬에 저장된 데이터에 대해 실행 중인 모델과 연결된 기계 학습 파이프라인을 사용하여 지속적인 재학습 및 개선을 위해 Machine Learning으로 데이터를 계속 전송합니다.

고려 사항

이러한 고려 사항은 워크로드의 품질을 향상시키는 데 사용할 수 있는 일단의 지침 원칙인 Azure Well-Architected Framework의 핵심 요소를 구현합니다. 자세한 내용은 Microsoft Azure Well-Architected Framework를 참조하세요.

가용성

  • Azure Stack Edge 리소스를 액세스할 다른 Azure 서비스와 동일한 Azure 지역에 배치하는 것이 좋습니다. 업로드 성능을 최적화하려면 어플라이언스의 네트워크 연결이 가장 좋은 지역에 Azure Blob Storage 계정을 배치하는 것이 좋습니다.
  • 디바이스와 Azure 간의 안정적인 중복 연결을 위해 Azure ExpressRoute를 고려합니다.

관리 효율

  • 관리자는 로컬 스토리지의 데이터 원본이 Azure Stack Edge 리소스로 올바르게 전송되었는지 확인할 수 있습니다. SMB(서버 메시지 블록)/NFS(네트워크 파일 시스템) 파일 공유를 탑재하거나 Azure Storage Explorer를 사용하여 연결된 Blob Storage 계정에 연결하여 확인할 수 있습니다.
  • 모델을 학습하는 동안 Machine Learning 데이터 세트를 사용하여 Blob Storage에서 데이터를 참조합니다. 스토리지를 참조하면 학습 스크립트에 비밀, 데이터 경로 또는 연결 문자열을 포함할 필요가 없습니다.
  • Machine Learning 작업 영역에서 기계 학습 모델을 등록하고 추적하여 서로 다른 시점에서 모델 간의 차이를 추적합니다. 마찬가지로 Container Registry에 배포하는 Docker 컨테이너 이미지에 사용하는 태그에서 버전 관리 및 추적 메타데이터를 미러링할 수 있습니다.

DevOps

  • Machine Learning에 대한 MLOps 수명 주기 관리 방법을 검토합니다. 예를 들어 GitHub 또는 Azure Pipelines를 사용하여 모델을 자동으로 학습시키고 다시 학습하는 연속 통합 프로세스를 만듭니다. 새 데이터가 데이터 세트를 채울 때 또는 학습 스크립트를 변경할 때 학습을 트리거할 수 있습니다.
  • Azure Machine Learning 작업 영역은 기계 학습 모델 및 IoT Edge 모듈에 대한 Docker 컨테이너 이미지를 자동으로 등록하고 관리합니다.

비용 최적화

비용 최적화는 불필요한 비용을 줄이고 운영 효율성을 높이는 방법을 찾는 것입니다. 자세한 내용은 비용 최적화 핵심 요소 개요를 참조하세요.

다음 단계

제품 설명서

Microsoft Learn 모듈: