Операции с данными для операций автономного транспортного средства

Пакетная служба Azure
Azure Cosmos DB
Фабрика данных Azure
Azure Data Lake Storage
Azure Data Share

В этой статье представлено решение и руководство по разработке автономных операций с данными и управления данными (DataOps) для автоматизированной системы вождения. Решение DataOps основано на платформе, описанной в руководстве по проектированию автономных транспортных средств (AVOps). DataOps является одним из стандартных блоков AVOps. Другие стандартные блоки включают операции машинного обучения (MLOps), операции проверки (ValOps), DevOps и централизованные функции AVOps.

Apache, Apache® Spark и Apache Parquet являются зарегистрированными товарными знаками или товарными знаками Apache Software Foundation в США и/или других странах. Никакое одобрение Apache Software Foundation не подразумевается с помощью этих меток.

Архитектура

Схема архитектуры, демонстрирующая решение для приема, обработки и обогащения данных автономного транспортного средства.

Скачайте файл Visio, содержащий схемы архитектуры в этой статье.

Поток данных

  1. Данные измерения возникают в потоках данных транспортного средства. Источники включают камеры, телеметрию транспортных средств, а также радиолокационные, звуковые и лидарные датчики. Средства ведения журнала данных в транспортном средстве хранят данные измерения на устройствах хранения средства ведения журнала. Данные хранилища средства ведения журнала передаются в целевое озеро данных. Служба, например Azure Data Box или Azure Stack Edge, или выделенное подключение, например Azure ExpressRoute, отправляет данные в Azure. Данные измерения в следующих форматах хранятся в Azure Data Lake служба хранилища: формат данных измерений версии 4 (MDF4), технические системы управления данными (TDMS) и rosbag. Отправленные данные входят в выделенную учетную запись хранения с именем Landing , которая предназначена для получения и проверки данных.

  2. Конвейер Фабрика данных Azure активируется с запланированным интервалом для обработки данных в целевой учетной записи хранения. Конвейер обрабатывает следующие действия:

    • Выполняет проверка качества данных, например проверка sum. Этот шаг удаляет данные низкого качества, чтобы до следующего этапа проходили только высококачественные данные. служба приложение Azure используется для запуска кода проверка качества. Данные, которые считаются неполными, архивируются для дальнейшей обработки.
    • Для отслеживания происхождения вызывает API метаданных с помощью Служба приложений. На этом шаге обновляются метаданные, хранящиеся в Azure Cosmos DB, чтобы создать новый поток данных. Для каждого измерения существует необработанный поток данных.
    • Копирует данные в учетную запись хранения с именем Raw в Data Lake служба хранилища.
    • Вызывает API метаданных, чтобы пометить поток данных как полный, чтобы другие компоненты и службы могли использовать поток данных.
    • Архивирует измерения и удаляет их из целевой учетной записи хранения.
  3. Фабрика данных и пакетная служба Azure обрабатывают данные в необработанной зоне для извлечения информации, которую могут использовать подчиненные системы:

    • Пакет считывает данные из разделов в необработанном файле и выводит данные в выбранные разделы в соответствующих папках.
    • Так как файлы в необработанной зоне могут иметь размер более 2 ГБ, функции извлечения параллельной обработки выполняются в каждом файле. Эти функции извлекают данные об обработке изображений, лидаре, радаре и GPS. Они также выполняют обработку метаданных. Фабрика данных и пакетная служба позволяют выполнять параллелизм масштабируемым способом.
    • Данные сокращаются, чтобы уменьшить объем данных, которые необходимо пометить и заметить.
  4. Если данные из средства ведения журнала транспортных средств не синхронизируются между различными датчиками, конвейер фабрики данных активируется, который синхронизирует данные для создания допустимого набора данных. Алгоритм синхронизации выполняется в пакетной службе.

  5. Конвейер фабрики данных запускается для обогащения данных. Примеры улучшений включают данные телеметрии, данные средства ведения журнала транспортных средств и другие данные, такие как погода, карта или данные объекта. Обогащенные данные помогают специалистам по обработке и анализу данных предоставлять аналитические сведения, которые они могут использовать в разработке алгоритмов, например. Созданные данные хранятся в файлах Apache Parquet, совместимых с синхронизированными данными. Метаданные о обогащенных данных хранятся в хранилище метаданных в Azure Cosmos DB.

  6. Сторонние партнеры выполняют ручную или автоматическую маркировку. Данные передаются сторонним партнерам через Azure Data Share и интегрируются в Microsoft Purview. Для возврата помеченных данных в организацию используется выделенная учетная запись хранения с именем Labeled в Data Lake служба хранилища.

  7. Конвейер фабрики данных выполняет обнаружение сцены. Метаданные сцены хранятся в хранилище метаданных. Данные сцены хранятся в виде объектов в файлах Parquet или Delta.

  8. Помимо метаданных для данных обогащения и обнаруженных сцен, хранилище метаданных в Azure Cosmos DB хранит метаданные для измерений, таких как данные диска. Это хранилище также содержит метаданные для происхождения данных, так как он проходит через процессы извлечения, уменьшения, синхронизации, обогащения и обнаружения сцены. API метаданных используется для доступа к измерениям, происхождению и данным сцены и поиску места хранения данных. В результате API метаданных служит диспетчером уровней хранилища. Он распределяет данные между учетными записями хранения. Он также предоставляет разработчикам способ использовать поиск на основе метаданных для получения расположений данных. По этой причине хранилище метаданных является централизованным компонентом, который обеспечивает трассировку и происхождение в потоке данных решения.

  9. Azure Databricks и Azure Synapse Analytics используются для подключения к API метаданных и доступа к Data Lake служба хранилища и проведения исследований по данным.

Компоненты

  • Data Box предоставляет способ отправки терабайтов данных в Azure и из него быстрым, недорогим и надежным способом. В этом решении Data Box используется для передачи собранных данных транспортных средств в Azure через региональный перевозчик.
  • Устройства Azure Stack Edge предоставляют функции Azure в пограничных расположениях. Примерами возможностей Azure являются вычислительные ресурсы, хранилище, сеть и аппаратное ускорение машинного обучения.
  • ExpressRoute расширяет локальную сеть в облако Майкрософт через частное подключение.
  • Data Lake служба хранилища содержит большой объем данных в собственном, необработанном формате. В этом случае Data Lake служба хранилища хранит данные на основе этапов, например необработанных или извлеченных.
  • Фабрика данных — это полностью управляемое бессерверное решение для создания и планирования извлечения, преобразования, загрузки (ETL) и извлечения, загрузки, преобразования (ELT) рабочих процессов. Здесь фабрика данных выполняет ETL с помощью пакетных вычислений и создает рабочие процессы на основе данных для оркестрации перемещения данных и преобразования данных.
  • Пакетная служба эффективно выполняет крупномасштабные параллельные и высокопроизводительные вычислительные задания (HPC) в Azure. Это решение использует пакетную службу для выполнения крупномасштабных приложений для таких задач, как обработка данных, фильтрация и подготовка данных, а также извлечение метаданных.
  • Azure Cosmos DB — это глобально распределенная база данных с несколькими моделями. Здесь хранятся результаты метаданных, такие как сохраненные измерения.
  • Совместное использование данных совместно с партнерскими организациями с повышенной безопасностью. Используя общий доступ на месте, поставщики данных могут совместно использовать данные, в которых он находится, не копируя данные или выполняя моментальные снимки. В этом решении Data Share делится данными с компаниями по маркировке.
  • Azure Databricks предоставляет набор средств для поддержки решений данных корпоративного уровня в масштабе. Это необходимо для длительных операций с большими объемами данных транспортного средства. Инженеры данных используют Azure Databricks в качестве аналитики workbench.
  • Azure Synapse Analytics сокращает время для анализа между хранилищами данных и системами больших данных.
  • Когнитивный поиск Azure предоставляет службы поиска по каталогу данных.
  • Служба приложений предоставляет бессерверную службу веб-приложений. В этом случае Служба приложений размещает API метаданных.
  • Microsoft Purview обеспечивает управление данными в организациях.
  • Реестр контейнеров Azure — это служба, которая создает управляемый реестр образов контейнеров. Это решение использует реестр контейнеров для хранения контейнеров для обработки тем.
  • Приложение Аналитика — это расширение Azure Monitor, которое обеспечивает управление производительностью приложений. В этом сценарии приложение Аналитика помогает создавать наблюдаемость при извлечении измерений: вы можете использовать приложение Аналитика для регистрации пользовательских событий, пользовательских метрик и других сведений при обработке каждого измерения для извлечения решения. Вы также можете создавать запросы в log analytics, чтобы получить подробные сведения о каждом измерении.

Подробности сценария

Проектирование надежной платформы DataOps для автономных транспортных средств имеет решающее значение для использования данных, трассировки его происхождения и обеспечения его доступности во всей организации. Без хорошо разработанного процесса DataOps большое количество данных, создаваемых автономными автомобилями, может быстро стать подавляющим и трудным для управления.

При реализации эффективной стратегии DataOps вы помогаете убедиться, что данные правильно хранятся, легко доступны и имеют четкие происхождения. Вы также упрощаете управление и анализ данных, что приводит к более информированным принятию решений и повышению производительности транспортных средств.

Эффективный процесс DataOps позволяет легко распределять данные по всей организации. Затем различные команды могут получить доступ к информации, необходимой для оптимизации своих операций. DataOps упрощает совместную работу и совместное использование аналитических сведений, что помогает повысить общую эффективность вашей организации.

Типичные проблемы для операций с данными в контексте автономных транспортных средств:

  • Управление ежедневным объемом терабайтов или петабайтового масштаба данных измерения от исследовательских и разработки транспортных средств.
  • Обмен данными и совместная работа между несколькими командами и партнерами, например для маркировки, заметок и проверка качества.
  • Возможность трассировки и происхождения для стека критического восприятия безопасности, который фиксирует управление версиями и происхождение данных измерений.
  • Метаданные и обнаружение данных для улучшения семантической сегментации, классификации изображений и моделей обнаружения объектов.

Это решение AVOps DataOps предоставляет рекомендации по устранению этих проблем.

Потенциальные варианты использования

Это решение обеспечивает преимущества изготовителей автомобильного оборудования (OEM), поставщиков уровня 1 и независимых поставщиков программного обеспечения (ISV), которые разрабатывают решения для автоматического управления.

Федеративные операции с данными

В организации, реализующей AVOps, несколько команд участвуют в DataOps из-за сложности, необходимой для AVOps. Например, одна команда может отвечать за сбор данных и прием данных. Другая команда может отвечать за управление качеством данных лидарных данных. Поэтому для DataOps важно учитывать следующие принципы архитектуры сетки данных:

  • Ориентация на домены владения данными и архитектуры. Одна выделенная команда отвечает за один домен данных, предоставляющий продукты данных для этого домена, например помеченные наборы данных.
  • Данные как продукт. Каждый домен данных содержит различные зоны в контейнерах хранилища, реализованных в data lake. Существуют зоны для внутреннего использования. Существует также зона, содержащая опубликованные продукты данных для других доменов данных или внешнего использования, чтобы избежать дублирования данных.
  • Самостоятельное использование данных в качестве платформы для включения автономных групп данных, ориентированных на домен.
  • Федеративное управление для обеспечения взаимодействия и доступа между доменами данных AVOps, для которых требуется централизованное хранилище метаданных и каталог данных. Например, домену данных с метками может потребоваться доступ к домену сбора данных.

Дополнительные сведения о реализации сетки данных см. в статье "Аналитика в масштабе облака".

Пример структуры для доменов данных AVOps

В следующей таблице приведены некоторые идеи для структурирования доменов данных AVOps:

Домен данных Опубликованные продукты данных Шаг решения
сбор данных Отправленные и проверенные файлы измерений Посадка и сырая
Извлеченные изображения Выбранные и извлеченные изображения или кадры, лидар и радарные данные Извлеченные
Извлеченный радар или лидар Выбранные и извлеченные лидарные и радарные данные Извлеченные
Извлеченные данные телеметрии Выбранные и извлеченные данные телеметрии автомобиля Извлеченные
Помечены Помеченные наборы данных Помечены
Перекомпьютировать Созданные ключевые показатели производительности (ключевые показатели эффективности) на основе повторяющихся запусков имитации Перекомпьютировать

Каждый домен данных AVOps настраивается на основе структуры схемы. Эта структура включает фабрику данных, Data Lake служба хранилища, базы данных, пакетную службу и среды выполнения Apache Spark с помощью Azure Databricks или Azure Synapse Analytics.

Обнаружение метаданных и данных

Каждый домен данных децентрализован и управляет соответствующими продуктами данных AVOps. Для централизованного обнаружения данных и получения данных о расположении продуктов данных требуются два компонента:

  • Хранилище метаданных, которое сохраняет метаданные о обработанных файлах измерений и потоках данных, таких как последовательности видео. Этот компонент делает данные обнаруживаемыми и трассируемыми с помощью заметок, которые необходимо индексировать, например для поиска метаданных неназначенных файлов. Например, может потребоваться, чтобы хранилище метаданных возвращали все кадры для определенных идентификаторов транспортных средств (VIN) или кадров с пешеходами или другими объектами на основе обогащения.
  • Каталог данных, показывающий происхождение, зависимости между доменами данных AVOps и хранилищами данных, участвующими в цикле данных AVOps. Примером каталога данных является Microsoft Purview.

Вы можете использовать Обозреватель данных Azure или Когнитивный поиск Azure для расширения хранилища метаданных, основанного на Azure Cosmos DB. Выбор зависит от окончательного сценария, необходимого для обнаружения данных. Используйте Когнитивный поиск Azure для возможностей семантического поиска.

На следующей схеме модели метаданных показана стандартная унифицированная модель метаданных, используемая в нескольких основных элементах цикла данных AVOps:

Схема, показывающая, как решение преобразует необработанные данные измерения в производные потоки данных.

Общий доступ к данным

Общий доступ к данным — это распространенный сценарий в цикле данных AVOps. Используется включение общего доступа к данным между доменами данных и внешним общим доступом, например для интеграции партнеров по маркировке. Microsoft Purview предоставляет следующие возможности для эффективного совместного использования данных в цикле данных:

Рекомендуемые форматы для обмена данными меток включают общие объекты в наборах данных контекста (COCO) и Ассоциации для стандартизации наборов данных автоматизации и измерения (ASAM) OpenLABEL.

В этом решении помеченные наборы данных используются в процессах MLOps для создания специализированных алгоритмов, таких как восприятие и модели слияния датчиков. Алгоритмы могут обнаруживать сцены и объекты в среде, такие как изменение полосы движения автомобиля, заблокированные дороги, пешеходное движение, светофор и знаки дорожного движения.

Конвейер данных

В этом решении DataOps перемещение данных между разными этапами конвейера данных автоматизировано. Благодаря этому подходу процесс обеспечивает эффективность, масштабируемость, согласованность, воспроизводимость, адаптируемость и преимущества обработки ошибок. Он улучшает общий процесс разработки, ускоряет ход выполнения и поддерживает безопасное и эффективное развертывание автономных технологий вождения.

В следующих разделах описывается, как реализовать перемещение данных между этапами и структуру учетных записей хранения.

Иерархическая структура папок

Хорошо упорядоченная структура папок является жизненно важным компонентом конвейера данных в автономном управлении разработкой. Такая структура обеспечивает систематическую и легкодоступную структуру файлов данных, упрощая эффективное управление данными и получение.

В этом решении данные в необработанной папке имеют следующую иерархическую структуру:

region/raw/<measurement-ID/<data-stream-ID>>/YYYY/MM/DD

Данные в учетной записи хранения извлеченной зоны используют аналогичную иерархическую структуру:

region/extracted/<measurement-ID/data-stream-ID>>/<YYYY/MM/DD

Используя аналогичные иерархические структуры, вы можете воспользоваться преимуществами возможностей иерархического пространства имен Data Lake служба хранилища. Иерархические структуры помогают создавать масштабируемое и экономичное хранилище объектов. Эти структуры также повышают эффективность поиска объектов и извлечения. Секционирование по годам и VIN упрощает поиск соответствующих изображений из определенных транспортных средств. В озере данных контейнер хранилища создается для каждого датчика, например камеры, GPS-устройства или лидара или датчика радара.

Целевая учетная запись хранения в необработанной учетной записи хранения

Конвейер фабрики данных активируется на основе расписания. После активации конвейера данные копируются из целевой учетной записи хранения в учетную запись необработанного хранения.

Схема архитектуры, показывющая конвейер фабрики данных. Конвейер проверяет, копирует и архивирует данные. Он также создает потоки данных.

Конвейер извлекает все папки измерений и выполняет итерацию. При каждом измерении решение выполняет следующие действия:

  1. Функция проверяет измерение. Функция извлекает файл манифеста из манифеста измерения. Затем функция проверка, существуют ли все файлы измерений MDF4, TDMS и rosbag для текущего измерения в папке измерения. Если проверка выполнена успешно, функция переходит к следующему действию. Если проверка завершается ошибкой, функция пропускает текущее измерение и переходит в следующую папку измерения.

  2. Вызов веб-API выполняется в API, который создает измерение, а полезные данные JSON из JSON-файла манифеста измерения передаются в API. Если вызов выполнен успешно, ответ анализируется для получения идентификатора измерения. Если вызов завершается сбоем, измерение перемещается в действие on-error для обработки ошибок.

    Примечание.

    Это решение DataOps основано на предположении, что вы ограничиваете количество запросов к службе приложений. Если решение может сделать неопределенное количество запросов, рассмотрите шаблон ограничения скорости.

  3. Вызов веб-API выполняется в API, который создает поток данных, создавая необходимые полезные данные JSON. Если вызов выполнен успешно, ответ анализируется для получения идентификатора потока данных и расположения потока данных. Если вызов завершается ошибкой, измерение перемещается в действие по ошибке.

  4. Вызов веб-API выполняется для обновления состояния потока Start Copyданных до . Если вызов выполнен успешно, действие копирования копирует файлы измерений в расположение потока данных. Если вызов завершается ошибкой, измерение перемещается в действие по ошибке.

  5. Конвейер фабрики данных вызывает пакетную службу для копирования файлов измерений из целевой учетной записи хранения в учетную запись необработанного хранения. Модуль копирования приложения оркестратора создает задание со следующими задачами для каждого измерения:

    • Скопируйте файлы измерений в учетную запись хранения Raw.
    • Скопируйте файлы измерений в архивную учетную запись хранения.
    • Удалите файлы измерений из целевой учетной записи хранения.

    Примечание.

    В этих задачах пакетная служба использует пул оркестратора и средство AzCopy для копирования и удаления данных. AzCopy использует маркеры SAS для выполнения задач копирования или удаления. Маркеры SAS хранятся в хранилище ключей и ссылаются с помощью терминов landingsaskeyи archivesaskeyrawsaskey.

  6. Вызов веб-API выполняется для обновления состояния потока Copy Completeданных до . Если вызов выполнен успешно, последовательность переходит к следующему действию. Если вызов завершается ошибкой, измерение перемещается в действие по ошибке.

  7. Файлы измерений перемещаются из целевой учетной записи хранения в целевой архив. Это действие может повторно выполнить определенное измерение, переместив его обратно в учетную запись хранения Целевой платформы с помощью конвейера копирования гидрата. Управление жизненным циклом включается для этой зоны, чтобы измерения в этой зоне были автоматически удалены или архивированы.

  8. Если с измерением возникает ошибка, измерение перемещается в зону ошибок. Затем его можно переместить в целевую учетную запись хранения для повторного запуска. Кроме того, управление жизненным циклом может автоматически удалять или архивировать измерение.

Обратите внимание на следующие аспекты:

  • Эти конвейеры активируются на основе расписания. Этот подход помогает улучшить трассировку запусков конвейера и избежать ненужных запусков.
  • Каждый конвейер настроен со значением параллелизма одного, чтобы убедиться, что предыдущие запуски завершаются до следующего запланированного запуска.
  • Каждый конвейер настраивается для параллельного копирования измерений. Например, если запланированное выполнение выбирает 10 измерений для копирования, шаги конвейера можно выполнять одновременно для всех десяти измерений.
  • Каждый конвейер настроен для создания оповещения в Мониторе, если конвейер занимает больше времени завершения.
  • Действие по ошибке реализуется в последующих историях наблюдаемости.
  • Управление жизненным циклом автоматически удаляет частичные измерения, например измерения с отсутствующими файлами rosbag.

Пакетная разработка

Логика извлечения упаковывается в разные образы контейнеров с одним контейнером для каждого процесса извлечения. Пакетная служба параллельно запускает рабочие нагрузки контейнера при извлечении сведений из файлов измерений.

Схема архитектуры, на которой показано, как пакетная служба извлекает образы из реестра контейнеров и выполняет задания извлечения.

Пакетная служба использует пул оркестратора и пул выполнения для обработки рабочих нагрузок:

  • Пул оркестраторов имеет узлы Linux без поддержки среды выполнения контейнеров. Пул запускает код Python, использующий API пакетной службы для создания заданий и задач для пула выполнения. Этот пул также отслеживает эти задачи. Фабрика данных вызывает пул оркестратора, который управляет рабочими нагрузками контейнера, извлекающими данные.
  • Пул выполнения содержит узлы Linux с средами выполнения контейнеров для поддержки рабочих нагрузок контейнеров. Для этого пула задания и задачи запланированы с помощью пула оркестратора. Все образы контейнеров, необходимые для обработки в пуле выполнения, отправляются в реестр контейнеров с помощью JFrog. Пул выполнения настроен для подключения к этому реестру и извлечения необходимых образов.

служба хранилища учетные записи, из которых данные считываются и записываются с помощью NFS 3.0 на узлах пакетной службы и контейнерах, выполняемых на узлах. Этот подход помогает пакетным узлам и контейнерам быстро обрабатывать данные без необходимости скачивать файлы данных локально на узлы пакетной службы.

Примечание.

Учетные записи пакетной службы и хранения должны находиться в одной виртуальной сети для подключения.

Вызов пакетной службы из фабрики данных

В конвейере извлечения триггер передает путь файла метаданных и путь к потоку необработанных данных в параметрах конвейера. Фабрика данных использует действие подстановки для анализа JSON из файла манифеста. Идентификатор потока необработанных данных можно извлечь из пути потока необработанных данных, проанализировав переменную конвейера.

Фабрика данных вызывает API для создания потока данных. API возвращает путь для извлеченного потока данных. Извлеченный путь добавляется к текущему объекту, а фабрика данных вызывает пакетную службу через настраиваемое действие, передав текущий объект после добавления пути к извлеченной потоку данных:

{
"measurementId":"210b1ba7-9184-4840-a1c8-eb£397b7c686",
"rawDataStreamPath":"raw/2022/09/30/KA123456/210b1ba7-9184-4840-
alc8-ebf39767c68b/57472a44-0886-475-865a-ca32{c851207",
"extractedDatastreamPath":"extracted/2022/09/30/KA123456
/210bIba7-9184-4840-a1c8-ebf39767c68b/87404c9-0549-4a18-93ff-d1cc55£d8b78",
"extractedDataStreamId":"87404bc9-0549-4a18-93ff-d1cc55fd8b78"
}

Пошаговый процесс извлечения

Схема архитектуры, демонстрирующая шаги задания, извлекающего сведения из данных измерения.

  1. Фабрика данных планирует задание с одной задачей для пула оркестраторов для обработки измерения для извлечения. Фабрика данных передает следующие сведения в пул оркестратора:

    • Идентификатор измерения
    • Расположение файлов измерений типа MDF4, TDMS или rosbag, которые необходимо извлечь
    • Путь к целевому расположению хранилища извлеченного содержимого
    • Идентификатор извлеченного потока данных
  2. Пул оркестратора вызывает API для обновления потока данных и задания его состояния Processing.

  3. Пул оркестратора создает задание для каждого файла измерения, который является частью измерения. Каждое задание содержит следующие задачи:

    Задача Характер использования Примечание.
    Проверка Проверяет, можно ли извлечь данные из файла измерения. Все остальные задачи зависят от этой задачи.
    Метаданные процесса Извлекает метаданные из файла измерения и дополняет метаданные файла с помощью API для обновления метаданных файла.
    Процесс StructuredTopics Извлекает структурированные данные из заданного файла измерения. Список разделов для извлечения структурированных данных передается в виде объекта конфигурации.
    Процесс CameraTopics Извлекает данные изображения из заданного файла измерения. Список разделов для извлечения изображений из объекта конфигурации передается в виде объекта конфигурации.
    Процесс LidarTopics Извлекает данные lidar из заданного файла измерения. Список разделов для извлечения данных lidar из передается в виде объекта конфигурации.
    Процесс CANTopics Извлекает данные сети области контроллера (CAN) из заданного файла измерения. Список разделов для извлечения данных из объекта конфигурации передается в виде объекта конфигурации.
  4. Пул оркестраторов отслеживает ход выполнения каждой задачи. После завершения всех заданий для всех файлов измерений пул вызывает API для обновления потока данных и задания его состояния Completed.

  5. Оркестратор завершается корректно.

    Примечание.

    Каждая задача — это отдельный образ контейнера с логикой, которая правильно определена для своей цели. Задачи принимают объекты конфигурации в качестве входных данных. Например, входные данные указывают, где записывать выходные данные и какой файл измерения для обработки. Массив типов разделов, например sensor_msgs/Image, является другим примером входных данных. Так как все остальные задачи зависят от задачи проверки, для нее создается зависимое задание. Все остальные задачи могут обрабатываться независимо и выполняться параллельно.

Рекомендации

Эти рекомендации реализуют основные принципы платформы Azure Well-Architected Framework, которая является набором руководящих принципов, которые можно использовать для улучшения качества рабочей нагрузки. Дополнительные сведения см. в статье Microsoft Azure Well-Architected Framework.

Надежность

Надежность гарантирует, что ваше приложение позволит вам выполнить ваши обязательства перед клиентами. Дополнительные сведения см. в разделе "Обзор основы надежности".

  • В решении рекомендуется использовать зоны доступности Azure, которые являются уникальными физическими расположениями в одном регионе Azure.
  • Планирование аварийного восстановления и отработки отказа учетной записи.

Безопасность

Безопасность обеспечивает гарантии от преднамеренного нападения и злоупотребления ценными данными и системами. Дополнительные сведения см. в разделе "Общие сведения о компоненте безопасности".

Важно понимать разделение ответственности между автомобильным изготовителем оборудования и корпорацией Майкрософт. В транспортном средстве OEM владеет целым стеком, но по мере перемещения данных в облако некоторые обязанности передаются в Корпорацию Майкрософт. Уровни платформы Azure как услуги (PaaS) обеспечивают встроенную безопасность в физическом стеке, включая операционную систему. Вы можете добавить следующие возможности в существующие компоненты безопасности инфраструктуры:

  • Управление удостоверениями и доступом, использующими удостоверения Microsoft Entra и политики условного доступа Microsoft Entra.
  • Управление инфраструктурой, использующее Политика Azure.
  • Управление данными, использующее Microsoft Purview.
  • Шифрование неактивных данных, использующее собственные службы хранилища Azure и баз данных. Дополнительные сведения см. в рекомендациях по защите данных.
  • Защита криптографических ключей и секретов. Используйте Azure Key Vault для этой цели.

Оптимизация затрат

Оптимизация затрат рассматривает способы сокращения ненужных расходов и повышения эффективности работы. Дополнительные сведения см. в разделе Обзор критерия "Оптимизация затрат".

Ключевой проблемой для изготовителей оборудования и поставщиков уровня 1, работающих с DataOps для автоматизированных транспортных средств, является стоимость эксплуатации. Это решение использует следующие методики для оптимизации затрат:

Соавторы

Эта статья поддерживается корпорацией Майкрософт. Первоначально он был написан следующими участник.

Основные авторы:

Чтобы просмотреть неопубликованные профили LinkedIn, войдите в LinkedIn.

Следующие шаги