Краткое руководство. Завершение необходимых компонентов для развертывания предварительной версии оператора Azure 5G Core в Nexus Служба Azure Kubernetes

В этой статье описывается, как подготовить кластер Nexus Служба Azure Kubernetes (NAKS), создав следующее:

  • Ресурсы Сетевой структуры (подключение)
  • Ресурсы сетевого облака (вычислительных ресурсов)

Примечание.

Пример конфигурации в этой статье использует Azure CLI. Эти ресурсы также можно создать с помощью скриптов bicep, скриптов terraform, шаблонов ARM или пользовательских программ, которые вызывают соответствующие API напрямую.

Команды, используемые в этой статье, относятся к следующим группам ресурсов:

  • Группы ресурсов инфраструктуры (управляемые):
    • Fabric — сетевые ресурсы платформы
    • Undercloud — вычислительные ресурсы платформы
    • Управляемая группа ресурсов, используемая для размещения ресурсов Azure-ARC Kubernetes
  • Группы ресурсов клиента:
    • Fabric — сетевые ресурсы клиента (например, сети)
    • Вычисления — вычислительные ресурсы клиента (например, виртуальные машины и кластеры Nexus Служба Azure Kubernetes (AKS)

Необходимые компоненты

Перед подготовкой кластера NAKS:

  • Настройте внешние сети между устройствами Customer Edge (CE) и Provider Edge (PE) (или Telco Edge), которые позволяют подключаться к пограничному интерфейсу поставщика. Настройка доступа к внешним службам, таким как брандмауэры и службы, размещенные в Azure (клиент не платформа), находится за пределами область этой статьи.
  • Настройте прыжки для подключения доменов маршрутизации. Настройка прыжка находится за пределами область этой статьи.
  • Настройте сетевые элементы на PEs/Telco Edge, которые не контролируются Nexus Network Fabric, например конфигурацию каналов Express Route для подключений клиентов к Azure (необязательно для гибридных настроек) или подключения через основную сеть оператора.
  • Просмотрите календарь выпуска Nexus Kubernetes, чтобы определить доступные выпуски и планы поддержки.
  • Просмотрите обзор кластера Nexus Kubernetes.
  • Просмотрите обзор Network Fabric.
  • Ознакомьтесь с руководством по использованию доменов изоляции Azure.
  • Ознакомьтесь с обзором хранилища.

Настройка внутренних сетей и протоколов

Выполните эти задачи, чтобы настроить внутреннюю сеть.

Создание домена изоляции (L3ISD)

Используйте следующие команды Azure CLI для создания домена изоляции (ISD):

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedFabric="<RG-MANAGED-FABRIC>" 
export nnfId="<NETWORK-FABRIC-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
 
az networkfabric l3domain create –resource-name $l3Isd \ 
--resource-group $rgFabric \ 
--location $region \ 
--nf-id "/subscriptions/$subscriptionId/resourceGroups/$rgManagedFabric/providers/Microsoft.ManagedNetworkFabric/networkFabrics/$nnfId" \ 
--redistribute-connected-subnets "True" \ 
--redistribute-static-routes "True" \ 
--subscription "$subscriptionId"

Чтобы просмотреть новый домен изоляции L3ISD, введите следующую команду:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric l3domain show --resource-name $l3Isd -g $rgFabric --subscription $subscriptionId

Создание внутренней сети

Перед созданием или изменением внутренней сети необходимо отключить ISD. Повторно включите ISD после внесения изменений.

Отключение домена изоляции

Используйте следующие команды, чтобы отключить ISD:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Disable ISD to create internal networks, wait for 5 minutes and check the status is Disabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Disable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

При отключении ISD можно добавить, изменить или удалить внутреннюю сеть. После внесения изменений повторно включите ISD, как описано в разделе "Включить домен изоляции".

Создание внутренней сети сетевого интерфейса контейнера Azure по умолчанию

Используйте следующие команды, чтобы создать внутреннюю сеть интерфейса контейнеров Azure (CNI) по умолчанию:

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwDefCni="<DEFAULT-CNI-NAME>" 
export l3Isd="<ISD-NAME>" 
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwDefCni" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--bgp-configuration
{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:['$ipv4ListenRangePrefix']}" 

Создание внутренних сетей для интерфейсов функции уровня пользователей (N3, N6) и Access и Mobility Management Function (N2)

При создании внутренних сетей функции уровня пользователей (UPF) поддерживается двойной стек IPv4/IPv6. Вам не нужно настраивать номер автономной системы (ASN) на стороне структуры протокола BGP, так как ASN включен в создание ресурсов сетевой структуры. Используйте следующие команды для создания этих внутренних сетей.

Примечание.

Создайте количество внутренних сетей, как описано в разделе "Предварительные требования ".

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwName="<INTNW-NAME>" 
export l3Isd="<ISD-NAME>" // N2, N3, N6  
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<IPV4-PREFIX>/<PREFIX-LEN>" 
export ipv6ListenRangePrefix="<IPV6-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwName" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--connected-ipv6-subnets "[{prefix:'$ipv6ListenRangePrefix'}]" \ //optional
--bgp-configuration 
"{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:[$ipv4ListenRangePrefix],ipv6ListenRangePrefixes:['$ipv6ListenRangePrefix']}"

Чтобы просмотреть список созданных внутренних сетей, введите следующие команды:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric internalnetwork list -o table --subscription $subscriptionId -g $rgFabric --l3domain $l3Isd

Чтобы просмотреть сведения о конкретной внутренней сети, введите следующие команды:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export intnwName="<INTNW-NAME>" 
 
az networkfabric internalnetwork show --resource-name $intnwName -g $rgFabric --l3domain $l3Isd

Включение домена изоляции

Используйте следующие команды, чтобы включить ISD:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Enable ISD, wait for 5 minutes and check the status is Enabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Enable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

Чтобы настроить маршрутизацию BGP и двунаправленного перенаправления (BFD) для внутренних сетей, используйте параметры по умолчанию. Сведения о описаниях параметров см. в документации по Nexus.

Создание сетей L3

Перед развертыванием кластера NAKS необходимо создать сетевые ресурсы NC L3, которые сопоставляются с ресурсами сетевой структуры (NF). Для интерфейса CNI по умолчанию необходимо создать ресурсы сети L3, включая префикс ISD/VLAN/IP соответствующей внутренней сети. Подключите эти ресурсы непосредственно к виртуальным машинам для выполнения тегов виртуальной локальной сети на уровне виртуальной функции (NIC) виртуальной функции (VF) вместо уровня приложения (доступа к портам с точки зрения приложения) и (или) если IP-адреса выделены Nexus (с помощью функций управление IP-адресами (ipam).

Сеть L3 используется для интерфейса CNI по умолчанию. Другие интерфейсы, требующие нескольких виртуальных ЛС на один интерфейс, должны быть магистральными интерфейсами.

Используйте следующие команды для создания сети L3:

Export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
export vlan=<VLAN-ID> 
export ipAllocationType="IPV4" // DualStack, IPV4, IPV6 
export ipv4ConnectedPrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" // if IPV4 or DualStack 
export ipv6ConnectedPrefix="<DEFAULT-CNI-IPV6-PREFIX>/<PREFIX-LEN>" // if IPV6 or DualStack 
 
 az networkcloud l3network create –l3-network-name $l3Name \ 
--l3-isolation-domain-id 
"/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3Isd" \ 
--vlan $vlan \ 
--ip-allocation-type $ipAllocationType \ 
--ipv4-connected-prefix $ipv4ConnectedPrefix \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--subscription $subscriptionId \ 
--interface-name "vlan-$vlan"

Чтобы просмотреть созданную сеть L3, введите следующие команды:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
 
az networkcloud l3network show -n $l3Name -g $rgCompute --subscription $subscriptionId

Магистральные сети

Сетевой облачный ресурс требуется, trunkednetwork если один порт или интерфейс, подключенный к виртуальной машине, должен содержать несколько виртуальных локальных сетей (VLAN). Теги выполняются на уровне приложения вместо сетевого адаптера. Интерфейс магистрали может содержать виртуальные локальные сети, которые являются частью различных идентификаторов ISD.

Необходимо создать магистральную сеть для функции access and Management Mobility Function (AMF) (N2) и UPF (N3, N6).

Используйте следующие команды для создания магистральной сети:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
export l3IsdUlb="<ISD-ULB-NAME>" 
export vlanUlb=<VLAN-ULB-ID> 
export region="<REGION>" 
 
az networkcloud trunkednetwork create --name $trunkName \ 
--isolation-domain-ids
 "/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3IsdUlb" \ 
--vlans $vlanUlb \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--interface-name "trunk-ulb" \ 
--subscription $subscriptionId

Чтобы просмотреть созданный магистральный сетевой ресурс, введите следующую команду:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
 
az networkcloud trunkednetwork show -n $trunkName -g $rgCompute --subscription $subscriptionId

Настройка прокси-сервера сети Облачные службы и разрешенных доменов

Для доступа к azure и интернет-назначениям используется Облачные службы сетевой прокси-сервер (прокси-сервер CSN). Эти домены необходимо явно добавить в список разрешений в конфигурации CSN для кластера NAKS для доступа к службам Azure и интеграции Arc.

Конечные точки Облачные службы Networks на основе диспетчера сетевых функций

Добавьте следующие точки исходящего трафика для поддержки развертывания диспетчера сетевых функций (NFM) (поставщик ресурсов HybridNetwork (RP), доступность RP CustomLocation RP, ACR, Arc):

  • .azurecr.io / порт 80
  • .azurecr.io / порт 443
  • .mecdevice.azure.com / порт 443
  • eastus-prod.mecdevice.azure.com / порт 443
  • .microsoftmetrics.com / порт 443
  • crprivatemobilenetwork.azurecr.io / порт 443
  • .guestconfiguration.azure.com / порт 443
  • .kubernetesconfiguration.azure.com / порт 443
  • eastus.obo.arc.azure.com / порт 8084
  • .windows.net / порт 80
  • .windows.net / порт 443
  • .k8connecthelm.azureedge.net / порт 80
  • .k8connecthelm.azureedge.net / порт 443
  • .k8sconnectcsp.azureedge.net / порт 80
  • .k8sconnectcsp.azureedge.net / порт 443
  • .arc.azure.net / порт 80
  • .arc.azure.net / порт 443

Конечные точки сетей Облачные службы Python

Для установки пакетов Python (часть списка команд pod-node_config fed-kube_addons pod-node_config, используемого для NAKS), добавьте следующие конечные точки:

  • pypi.org / порт 443
  • files.pythonhosted.org / порт 443

Примечание.

Дополнительные конечные точки Azure Detat Обозреватель (ADX) могут быть включены в список разрешений, если требуется внедрить данные в ADX.

Необязательные конечные точки Облачные службы Networks

Используйте следующее назначение для запуска контейнеров с конечными точками, хранящимися в общедоступных реестрах контейнеров, или для установки дополнительных пакетов для вспомогательных виртуальных машин:

  • .ghcr.io / порт 80
  • .ghcr.io / порт 443
  • .k8s.gcr.io / порт 80
  • .k8s.gcr.io / порт 443
  • .k8s.io / порт 80
  • .k8s.io / порт 443
  • .docker.io / порт 80
  • .docker.io / порт 443
  • .docker.com / порт 80
  • .docker.com / порт 443
  • .pkg.dev / порт 80
  • .pkg.dev / порт 443
  • .ubuntu.com / порт 80
  • .ubuntu.com / порт 443

Создание сетей Облачные службы

При развертывании предварительной версии оператора Azure 5G Core Preview на платформе Nexus необходимо создать отдельный экземпляр CSN для каждого кластера NAKS.

Примечание.

additional-egress-endpoints Настройте список на основе описания и списков, указанных в предыдущих разделах.

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
export region="<REGION>" 
 
az networkcloud cloudservicesnetwork create --cloud-services-network-name $csnName \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \06- \ 
--resource-group $rgCompute \ 
--location $region \ 
--enable-default-egress-endpoints True \ 
--subscription $subscriptionId \ 
--additional-egress-endpoints '[ 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 80 
        } 
      ] 
    }, 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 443 
        } 
      ] 
    } 
  ]'    07-

После создания CSN проверьте egress-endpoints использование следующих команд в командной строке:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
 
az networkcloud cloudservicesnetwork show -n $csnName -g $rgCompute --subscription $subscriptionId

Создание кластера Nexus Служба Azure Kubernetes s

Поставщики ресурсов, связанные с Nexus, должны развертывать автономные группы ресурсов, используемые для развертывания необходимых ресурсов, созданных клиентами. При подготовке кластеров Nexus AKS они должны быть включены в Arc. Поставщик облачных ресурсов сети создает собственную управляемую группу ресурсов и развертывает ее в ресурсе кластера Azure Arc Kubernetes. После этого развертывания этот ресурс кластера связан с ресурсом кластера NAKS.

Примечание.

После развертывания кластера NAKS и создания управляемой группы ресурсов может потребоваться предоставить привилегии всем пользователям, группе записей или субъекту-службе доступ к управляемой группе ресурсов. Это действие зависит от параметров управления доступом к удостоверениям (IAM) уровня подписки.

Используйте следующие команды Azure CLI для создания кластера NAKS:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export rgNcManaged="<RG-NETWORK-CLOUD-MANAGED>" 
export csnName="<CSN-NAME>" 
export defCniL3Net="<L3-NET-FOR-DEF-CNI>" 
export trunkName="<TRUNK-NAME>" 
export naksName="<NAKS-NAME>" 
export k8sVer="<K8S-VER>" 
export region="<REGION>" 
export regionRgNcManaged="<REGION-RG-NETWORK-CLOUD-MANAGED>" 
export sshPubKeys="<SSH-PUB-KEYS>"  
export adminUser="<ADMIN-USER>" // e.g. "azureuser" 
export controlVmSku="<CONTROL-NODE-SKU>" 
export controlVmCount="<CONTROL-NODE-COUNT>" 
export workerVmSku="<WORKER-NODE-SKU>" 
export workerVmCount="<WORKER-NODE-COUNT>" 
export nodePoolName="<NODE-POOL-NAME>" 
export lbIpv4Pool="<LOADBALANCER-IPV4-POOL>" 
export hugePages2MCount=<HUGEPAGES-2M-COUNT> 
export aadAdminGroupObjectId="<AAD-GROUP-TO-ACCESS-NAKS>" 
export maxSurge=1 // number of nodes added to the cluster during upgrade e.g. 1 or percentage "10%"   
 
 
az networkcloud kubernetescluster create --name $naksName \ 
--resource-group $rgCompute \ 
--location $region \ 
--kubernetes-version $k8sVer \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--admin-username $adminUser \ 
--ssh-key-values "$sshPubKeys" \ 
--initial-agent-pool-configurations "[{count:$workerVmCount,mode:'System',name:'$nodePoolName',vmSkuName:'$workerVmSku',agentOptions:{hugepagesCount:$hugePages2MCount,hugepagesSize:2M},upgradeSettings:{maxSurge:$maxSurge},adminUsername:'$adminUser',ssh-key-values:['$sshPubKeys']}]" \ 
--control-plane-node-configuration count=$workerVmCount vmSkuName=$controlVmSku adminUsername=$adminUser ssh-key-values=['$sshPubKeys'] \ 
--network-configuration cloud-services-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/cloudServicesNetworks/$csnName" cni-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/l3Networks/$defCniL3Net" pod-cidrs=["10.244.0.0/16"] service-cidrs=["10.96.0.0/16"] dns-service-ip="10.96.0.10" attached-network-configuration.trunked-networks="[{networkId:'/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/trunkedNetworks/$trunkName',pluginType:'SRIOV'}]" bgp-service-load-balancer-configuration.fabric-peering-enabled="True" bgp-service-load-balancer-configuration.ip-address-pools="[{addresses:['$lbIpv4Pool'],autoAssign:'True',name:'pool1',onlyUseHostIps:'True'}]" \ 
--managed-resource-group-configuration "{location:$regionRgNcManaged,name:$rgNcManaged}" \ 
--aad-configuration admin-group-object-ids=[$aadAdminGroupObjectId] \ 
--subscription $subscriptionId

Чтобы проверить список созданных кластеров Nexus, введите следующую команду:

export subscriptionId="<SUBSCRIPTION-ID>" 
 
az networkcloud kubernetescluster list -o table --subscription $subscriptionId

Чтобы проверить сведения о созданном кластере, введите следующую команду:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export naksName="<NAKS-NAME>" 
 
az networkcloud kubernetescluster show -n $naksName -g $rgCompute --subscription $subscriptionId

После создания кластера можно включить расширение NFM и задать пользовательское расположение, чтобы кластер можно было развернуть с помощью AOSM или NFM.

Доступ к кластеру Nexus Служба Azure Kubernetes s

Существует несколько способов доступа к серверу API кластера NAKS клиента:

  • Непосредственно из IP-адреса или порта (из прыжкового ящика с подключением к серверу API NAKS клиента)

  • Использование параметра прокси-сервера Azure CLI и connectedk8s, как описано в ссылке для доступа к кластерам напрямую. Во время подготовки кластера NAKS необходимо предоставить группу EntraID/AAD субъекта-службы (используемую с Azure CLI). Кроме того, необходимо назначить настраиваемую роль управляемой группе ресурсов, созданной сетевой облачной RP. В этой роли необходимо включить одно из следующих действий:

    • Microsoft.Kubernetes/connectedClusters/listClusterUserCredential/action
    • Пользователь или поставщик служб в качестве участник для управляемой группы ресурсов

Службы Azure Edge

Оператор Azure 5G Core — это рабочая нагрузка по телекоммуникациям, которая позволяет предлагать услуги потребителям и корпоративным конечным пользователям. Рабочие нагрузки 5G Core оператора Azure выполняются на уровне инфраструктуры виртуализации сетевых функций (NFVI) и могут зависеть от других служб NFVI.

Функции Edge NFVI (запущенные в Операторе Azure Nexus)

Примечание.

Связанные службы Edge NFVI могут обновляться иногда. Дополнительные сведения об этих службах см. в документации конкретной службы.

  • Оператор Azure Nexus — Оператор Azure Nexus — это гибридная облачная платформа следующего поколения для операторов телекоммуникаций. Оператор Azure Nexus предназначен для сетевых рабочих нагрузок и критически важных приложений операторов.

  • От любого другого оборудования и служб Оператора Azure Nexus может зависеть любой другой аппаратный и сервисный оператор Azure Nexus.

  • Azure Arc — предоставляет единую платформу управления и управления для приложений и служб Azure 5G Core для операторов Azure и служб в локальных средах Azure.

  • Azure Monitor — предоставляет комплексное решение для мониторинга производительности и работоспособности приложений и служб 5G Core оператора Azure в Azure и локальных средах.

  • EntraID — обеспечивает управление удостоверениями и доступом для пользователей и администраторов 5G Core оператора Azure в Azure и локальных средах.

  • Azure Key Vault — предоставляет безопасное и централизованное хранилище для управления ключами шифрования и секретами для оператора Azure 5G Core в Azure и локальных средах.