Transforms - Create Or Update

Erstellen oder Aktualisieren der Transformation
Erstellt oder aktualisiert eine neue Transformation.

PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}?api-version=2022-07-01

URI-Parameter

Name In Erforderlich Typ Beschreibung
accountName
path True

string

Der Name des Media Services-Kontos.

resourceGroupName
path True

string

Der Name der Ressourcengruppe innerhalb des Azure-Abonnements.

subscriptionId
path True

string

Der eindeutige Bezeichner für ein Microsoft Azure-Abonnement.

transformName
path True

string

Der Transformationsname.

api-version
query True

string

Die Version der API, die mit der Clientanforderung verwendet werden soll.

Anforderungstext

Name Erforderlich Typ Beschreibung
properties.outputs True

TransformOutput[]

Ein Array von mindestens einem TransformOutput-Objekt, das die Transformation generieren soll.

properties.description

string

Eine ausführliche Beschreibung der Transformation.

Antworten

Name Typ Beschreibung
200 OK

Transform

OK

201 Created

Transform

Erstellt

Other Status Codes

ErrorResponse

Detaillierte Fehlerinformationen.

Beispiele

Create or update a Transform

Sample Request

PUT https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/createdTransform?api-version=2022-07-01

{
  "properties": {
    "description": "Example Transform to illustrate create and update.",
    "outputs": [
      {
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  }
}

Sample Response

{
  "name": "createdTransform",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
  "type": "Microsoft.Media/mediaservices/transforms",
  "properties": {
    "created": "2022-10-17T23:14:31.7664818Z",
    "description": "Example Transform to illustrate create and update.",
    "lastModified": "2022-10-17T23:14:31.7664818Z",
    "outputs": [
      {
        "onError": "StopProcessingJob",
        "relativePriority": "Normal",
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2022-10-17T23:14:31.7664818Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
  }
}
{
  "name": "createdTransform",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
  "type": "Microsoft.Media/mediaservices/transforms",
  "properties": {
    "created": "2022-10-17T23:14:31.7664818Z",
    "description": "Example Transform to illustrate create and update.",
    "lastModified": "2022-10-17T23:14:31.7664818Z",
    "outputs": [
      {
        "onError": "StopProcessingJob",
        "relativePriority": "Normal",
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2022-10-17T23:14:31.7664818Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
  }
}

Definitionen

Name Beschreibung
AacAudio

Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll.

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

Audio

Definiert die allgemeinen Eigenschaften für alle Audiocodecs.

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

AudioAnalyzerPreset

Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz von KI-basierten Analysevorgängen an, einschließlich der Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.

AudioOverlay

Beschreibt die Eigenschaften einer Audioüberlagerung.

BlurType

Weichzeichnertyp

BuiltInStandardEncoderPreset

Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

CopyAudio

Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.

CopyVideo

Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

DDAudio

Beschreibt die Audiocodierungseinstellungen für Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((Mono), 2(Stereo), 6(5.1side); Audio-Sampling-Frequenzfrequenzen bei: 32K/44,1K/48K Hz; Audiobitratewerte wie ac3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Deinterlace

Beschreibt die De-Interlacing-Einstellungen.

DeinterlaceMode

Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.

DeinterlaceParity

Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

ErrorAdditionalInfo

Zusätzliche Informationen zum Ressourcenverwaltungsfehler.

ErrorDetail

Die Fehlerdetails.

ErrorResponse

Fehlerantwort

FaceDetectorPreset

Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

Filters

Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

H264Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.

H264RateControlMode

Der Modus zur Steuerung der Videorate

H264Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

H265Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.

H265Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

Image

Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.

ImageFormat

Beschreibt die Eigenschaften für eine Ausgabebilddatei.

InsightsType

Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.

JpgFormat

Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.

JpgImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.

JpgLayer

Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.

Mp4Format

Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.

MultiBitrateFormat

Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Multi-Bitrate-Dateien. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erzeugen, die zusammen mit allen Audiodaten muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.

OnErrorType

Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob".

OutputFile

Stellt eine generierte Ausgabedatei dar.

PngFormat

Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.

PngImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.

PngLayer

Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.

PresetConfigurations

Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.

Priority

Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.

Rectangle

Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.

StandardEncoderPreset

Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

systemData

Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.

Transform

Eine Transformation kapselt die Regeln oder Anweisungen zum Generieren gewünschter Ausgaben aus Eingabemedien, z. B. durch Transcodierung oder durch Extrahieren von Erkenntnissen. Nachdem die Transformation erstellt wurde, kann sie auf Eingabemedien angewendet werden, indem Aufträge erstellt werden.

TransformOutput

Beschreibt die Eigenschaften eines TransformOutput, bei denen es sich um die Regeln handelt, die beim Generieren der gewünschten Ausgabe angewendet werden sollen.

TransportStreamFormat

Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en).

Video

Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.

VideoAnalyzerPreset

Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.

VideoOverlay

Beschreibt die Eigenschaften einer Videoüberlagerung.

VideoSyncMode

Videosynchronisierungsmodus

AacAudio

Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AacAudio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

profile

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll.

Name Typ Beschreibung
AacLc

string

Gibt an, dass die Ausgabeaudio in AAC Low Complexity Profile (AAC-LC) codiert werden soll.

HeAacV1

string

Gibt an, dass die Ausgabeaudio in das HE-AAC v1-Profil codiert werden soll.

HeAacV2

string

Gibt an, dass die Ausgabeaudio in das HE-AAC v2-Profil codiert werden soll.

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

Name Typ Beschreibung
SourceResolution

string

StandardDefinition

string

Audio

Definiert die allgemeinen Eigenschaften für alle Audiocodecs.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Audio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

Name Typ Beschreibung
Basic

string

In diesem Modus werden Transkriptionen von gesprochenen Texten erstellt und VTT-Dateien mit Untertiteln und Beschriftungstexten generiert. Die Ausgabe in diesem Modus beinhaltet eine Insights JSON-Datei, die nur die Stichwörter, die Transkription und Zeitinformationen enthält. Eine automatische Spracherkennung und Sprecherdiarisierung sind nicht Bestandteil dieses Modus.

Standard

string

Führt alle Vorgänge aus, die im Basic-Modus enthalten sind, und führt zusätzlich spracherkennung und Sprecherdurchdung durch.

AudioAnalyzerPreset

Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz von KI-basierten Analysevorgängen an, einschließlich der Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Der Diskriminator für abgeleitete Typen.

audioLanguage

string

Die Sprache für die Audionutzlast in der Eingabe im BCP-47-Format von "language tag-region" (z. B. "en-US"). Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss für AudioAnalysisMode::Basic explizit angegeben werden, da die automatische Spracherkennung nicht im Einfachen Modus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten mit Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf 'en-US' zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden

mode

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn sie nicht angegeben ist, wird der Standard-AudioAnalysisMode ausgewählt.

AudioOverlay

Beschreibt die Eigenschaften einer Audioüberlagerung.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AudioOverlay

Der Diskriminator für abgeleitete Typen.

audioGainLevel

number

Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0.

end

string

Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer.

fadeInDuration

string

Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S).

fadeOutDuration

string

Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S).

inputLabel

string

Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter.

start

string

Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos.

BlurType

Weichzeichnertyp

Name Typ Beschreibung
Black

string

Schwarz: Verdunkelungsfilter

Box

string

Box: Debugfilter, nur Begrenzungsfeld

High

string

Hoch: Verwechslungsfilter

Low

string

Niedrig: Box-Car-Unschärfefilter

Med

string

Med: Gaußsche Unschärfefilter

BuiltInStandardEncoderPreset

Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Der Diskriminator für abgeleitete Typen.

configurations

PresetConfigurations

Optionale Konfigurationseinstellungen für Encoder. Konfigurationen werden nur für ContentAwareEncoding und H265ContentAwareEncoding BuiltInStandardEncoderPreset unterstützt.

presetName

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

Name Typ Beschreibung
Balanced

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die für die Ausgabe mit höherer Qualität optimiert sind, und das zu Lasten einer geringeren Gesamtcodierungszeit.

Speed

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verringern.

CopyAudio

Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.CopyAudio

Der Diskriminator für abgeleitete Typen.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

CopyVideo

Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.CopyVideo

Der Diskriminator für abgeleitete Typen.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

Name Typ Beschreibung
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Beschreibt die Audiocodierungseinstellungen für Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((Mono), 2(Stereo), 6(5.1side); Audio-Sampling-Frequenzfrequenzen bei: 32K/44,1K/48K Hz; Audiobitratewerte wie ac3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.DDAudio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

Deinterlace

Beschreibt die De-Interlacing-Einstellungen.

Name Typ Beschreibung
mode

DeinterlaceMode

Der Deinterlacing-Modus. Der Standardwert ist AutoPixelAdaptive.

parity

DeinterlaceParity

Die Feldparität für die De-Interlacing-Funktion ist standardmäßig auf Auto festgelegt.

DeinterlaceMode

Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.

Name Typ Beschreibung
AutoPixelAdaptive

string

Wenden Sie die automatische adaptive Pixel-Entflechtung auf jeden Frame im Eingabevideo an.

Off

string

Deaktiviert das De-Interlacing des Quellvideos.

DeinterlaceParity

Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.

Name Typ Beschreibung
Auto

string

Automatisches Erkennen der Reihenfolge der Felder

BottomFieldFirst

string

Wenden Sie die erste Verarbeitung des Eingabevideos im unteren Feld an.

TopFieldFirst

string

Wenden Sie die erste Verarbeitung des Eingabevideos im oberen Feld an.

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

Name Typ Beschreibung
AACGoodQualityAudio

string

Erzeugt eine einzelne MP4-Datei, die nur AAC-Stereoaudio enthält, das mit 192 KBit/s codiert ist.

AdaptiveStreaming

string

Erzeugt eine Reihe von GOP-ausgerichteten MP4-Dateien mit H.264-Video und Stereo-AAC-Audio. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p.

ContentAwareEncoding

string

Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

ContentAwareEncodingExperimental

string

Macht eine experimentelle Voreinstellung für inhaltsbasierte Codierung verfügbar. Anhand der eingegebenen Inhalte versucht der Dienst, automatisch die optimale Anzahl der Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming zu bestimmen. Die zugrunde liegenden Algorithmen werden im Laufe der Zeit weiter entwickelt. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

CopyAllBitrateNonInterleaved

string

Kopieren Sie alle Video- und Audiostreams aus dem Eingabemedienobjekt als nicht verschachtelte Video- und Audioausgabedateien. Diese Voreinstellung kann verwendet werden, um ein vorhandenes Medienobjekt zu beschneiden oder eine Gruppe von MP4-Dateien mit Keyframeausrichtung (GOP) als Medienobjekt zu konvertieren, das gestreamt werden kann.

DDGoodQualityAudio

string

Erzeugt eine einzelne MP4-Datei, die nur DD(Digital Dolby)-Stereoaudio enthält, das mit 192 KBit/s codiert ist.

H264MultipleBitrate1080p

string

Erzeugt einen Satz von 8 GOP-ausgerichteten MP4-Dateien, die von 6000 KBit/s bis 400 KBit/s reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 1080p und geht auf 180p herunter.

H264MultipleBitrate720p

string

Erzeugt einen Satz von 6 GOP-orientierten MP4-Dateien, die von 3400 kbps bis 400 kbps reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 720p und geht auf 180p herunter.

H264MultipleBitrateSD

string

Erzeugt einen Satz von 5 GOP-orientierten MP4-Dateien, die von 1900 kbps bis 400 kbps reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 480p und geht auf 240p herunter.

H264SingleBitrate1080p

string

Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 6750 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H264SingleBitrate720p

string

Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 4500 KBit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H264SingleBitrateSD

string

Erzeugt eine MP4-Datei, bei der das Video mit H.264-Codec mit 2200 KBit/s und einer Bildhöhe von 480 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist.

H265AdaptiveStreaming

string

Erzeugt mehrere auf GOP ausgerichtete MP4-Dateien mit Video- und Stereo-AAC-Audio für H.265. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p.

H265ContentAwareEncoding

string

Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

H265SingleBitrate1080p

string

Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 3500 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H265SingleBitrate4K

string

Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 9500 KBit/s und einer Bildhöhe von 2160 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H265SingleBitrate720p

string

Erzeugt eine MP4-Datei, in der das Video mit H.265-Codec mit 1800 Kbit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist.

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

Name Typ Beschreibung
Cabac

string

Cabac-Entropiecodierung (Adaptive Binary Arithmetische Arithmetikcoder) des Kontexts.

Cavlc

string

CAVLC-Entropiecodierung (Context Adaptive Variable Length Coder)

ErrorAdditionalInfo

Zusätzliche Informationen zum Ressourcenverwaltungsfehler.

Name Typ Beschreibung
info

object

Zusätzliche Informationen.

type

string

Typ der zusätzlichen Informationen.

ErrorDetail

Die Fehlerdetails.

Name Typ Beschreibung
additionalInfo

ErrorAdditionalInfo[]

Die zusätzlichen Fehlerinformationen.

code

string

Der Fehlercode.

details

ErrorDetail[]

Die Fehlerdetails.

message

string

Die Fehlermeldung.

target

string

Das Fehlerziel.

ErrorResponse

Fehlerantwort

Name Typ Beschreibung
error

ErrorDetail

Das Fehlerobjekt.

FaceDetectorPreset

Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Der Diskriminator für abgeleitete Typen.

blurType

BlurType

Weichzeichnertyp

experimentalOptions

object

Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden

mode

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video markiert. Wenn möglich, wird dem Erscheinungsbild der gleichen Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter rot (Weichzeichner) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaktion einer Teilmenge der erkannten Gesichter ermöglicht. Die Metadatendatei aus einem vorherigen Analysedurchlauf wird zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs übernommen, die eine Bearbeitung erfordern.

resolution

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution", das das Eingabevideo bei der Analyse in seiner ursprünglichen Auflösung behält. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, während das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert. Wenn Sie zu "StandardDefinition" wechseln, wird die Zeit für die Verarbeitung von Videos mit hoher Auflösung reduziert. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.

Name Typ Beschreibung
Analyze

string

Der Analysemodus erkennt Gesichter und gibt eine Metadatendatei mit den Ergebnissen aus. Ermöglicht das Bearbeiten der Metadatendatei, bevor Gesichter im Redact-Modus verwischt werden.

Combined

string

Der kombinierte Modus führt die Schritte Analysieren und Redact in einem Durchgang durch, wenn das Bearbeiten der analysierten Gesichter nicht erwünscht ist.

Redact

string

Der Redact-Modus nutzt die Metadatendatei aus dem Analysemodus und redigiert die gefundenen Gesichter.

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

Name Typ Beschreibung
duration

string

Die Dauer des Einblendeffekts im Video. Der Wert kann im ISO 8601-Format (z. B. PT05S, um eine Farbe während von 5 Sekunden ein-/ausblenden) oder eine Frameanzahl (z. B. 10 bis 10 Frames aus der Startzeit) oder einen relativen Wert zur Streamdauer (z. B. 10 % bis 10 % der Streamdauer) sein.

fadeColor

string

Die Farbe für das Ein-/Ausblenden. Es kann sich um die CSS Level1-Farben https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords oder einen RGB/Hexadezim-Wert: z. B. rgb(255,0,0), 0xFF0000 oder #FF0000

start

string

Die Position im Eingabevideo, ab der mit dem Einblenden begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Der Standardwert ist 0.

Filters

Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.

Name Typ Beschreibung
crop

Rectangle

Die Parameter für das rechteckige Fenster, mit dem das Eingabevideo zugeschnitten werden soll.

deinterlace

Deinterlace

Die De-Interlacing-Einstellungen.

fadeIn

Fade

Beschreibt die Eigenschaften eines Fade-Effekts, der auf das Eingabemedium angewendet wird.

fadeOut

Fade

Beschreibt die Eigenschaften eines Fade-Effekts, der auf das Eingabemedium angewendet wird.

overlays Overlay[]:

Die Eigenschaften von Overlays, die auf das Eingabevideo angewendet werden sollen. Dies können Audio-, Bild- oder Videoüberlagerungen sein.

rotation

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Die Standardeinstellung ist Auto

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

Name Typ Beschreibung
Balanced

string

Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen.

Speed

string

Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen.

H264Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.

Name Typ Beschreibung
adaptiveBFrame

boolean

Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen oder nicht. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt.

bFrames

integer

Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus.

bitrate

integer

Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Dies ist ein Pflichtfeld.

bufferWindow

string

Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S).

crf

number

Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 23.

entropyMode

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

frameRate

string

Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo.

height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

level

string

Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.264-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann.

maxBitrate

integer

Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet.

profile

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

referenceFrames

integer

Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders.

slices

integer

Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

H264RateControlMode

Der Modus zur Steuerung der Videorate

Name Typ Beschreibung
ABR

string

AbR-Modus (Average Bitrate), der die Zielbitrate erreicht: Standardmodus.

CBR

string

Der CBR-Modus (Constant Bitrate) strafft Bitratenvariationen um die Zielbitrate.

CRF

string

CrF-Modus (Constant Rate Factor), der auf konstante subjektive Qualität abzielt.

H264Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.H264Video

Der Diskriminator für abgeleitete Typen.

complexity

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

H264Layer[]

Die Auflistung der H.264-Ausgabeebenen, die vom Encoder erzeugt werden sollen.

rateControlMode

H264RateControlMode

Der Modus zur Steuerung der Videorate

sceneChangeDetection

boolean

Gibt an, ob der Encoder Keyframes bei Szenenänderungen einfügen soll oder nicht. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur dann auf true festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Weist den Encoder an, das entsprechende H.264-Profil automatisch zu ermitteln.

Baseline

string

Baselineprofil

High

string

High Profile.

High422

string

Hohes 4:2:2-Profil.

High444

string

Hohes Vorhersageprofil von 4:4:4.

Main

string

Hauptprofil

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

Name Typ Beschreibung
Balanced

string

Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen.

Speed

string

Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen.

H265Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.

Name Typ Beschreibung
adaptiveBFrame

boolean

Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt.

bFrames

integer

Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus.

bitrate

integer

Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Beispiel: Eine Zielbitrate von 3000 KBit/s oder 3 Mbit/s bedeutet, dass dieser Wert 30000000 sein sollte. Dies ist ein erforderliches Feld.

bufferWindow

string

Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S).

crf

number

Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 28.

frameRate

string

Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo.

height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

level

string

Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.265-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann.

maxBitrate

integer

Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet.

profile

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

referenceFrames

integer

Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders.

slices

integer

Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

H265Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.H265Video

Der Diskriminator für abgeleitete Typen.

complexity

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Die Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

H265Layer[]

Die Sammlung der H.265-Ausgabeebenen, die vom Encoder erzeugt werden sollen.

sceneChangeDetection

boolean

Gibt an, ob der Encoder keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird.

stretchMode

StretchMode

Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Weist den Encoder an, automatisch das entsprechende H.265-Profil zu ermitteln.

Main

string

Hauptprofil (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Hauptprofil 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Image

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

start

string

Die Position im Eingabevideo, von der aus mit dem Generieren von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

ImageFormat

Beschreibt die Eigenschaften für eine Ausgabebilddatei.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.ImageFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

InsightsType

Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.

Name Typ Beschreibung
AllInsights

string

Generieren Von Audio- und Videoerkenntnissen Tritt ein Fehler auf, wenn Audio- oder Videoeinblicke fehlschlagen.

AudioInsightsOnly

string

Generieren sie Nur-Audio-Erkenntnisse. Video ignorieren, auch wenn vorhanden. Tritt ein Fehler auf, wenn keine Audiodaten vorhanden sind.

VideoInsightsOnly

string

Generieren sie nur Video-Erkenntnisse. Audio ignorieren, falls vorhanden. Schlägt fehl, wenn kein Video vorhanden ist.

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.

Name Typ Beschreibung
InterleavedOutput

string

Die Ausgabe umfasst sowohl Audio als auch Video.

NonInterleavedOutput

string

Die Ausgabe ist nur Video oder nur Audio.

JpgFormat

Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JpgFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

JpgImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JpgImage

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

JpgLayer[]

Eine Sammlung von JPEG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

spriteColumn

integer

Legt die Anzahl der Spalten fest, die im Miniaturansichts-Sprite-Bild verwendet werden. Die Anzahl der Zeilen wird automatisch berechnet, und eine VTT-Datei mit den Koordinatenzuordnungen für jede Miniaturansicht im Sprite wird generiert. Hinweis: Dieser Wert sollte eine positive ganze Zahl sein, und ein korrekter Wert wird empfohlen, damit die Auflösung des Ausgabebilds nicht über das maximale JPEG-Pixelauflösungslimit von 65535 x 655535 hinausgeht.

start

string

Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

JpgLayer

Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.

Name Typ Beschreibung
height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

quality

integer

Die Komprimierungsqualität der JPEG-Ausgabe. Der Bereich liegt zwischen 0 und 100, der Standardwert ist 70.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

Mp4Format

Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Mp4Format

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

MultiBitrateFormat

Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Multi-Bitrate-Dateien. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erzeugen, die zusammen mit allen Audiodaten muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

OnErrorType

Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob".

Name Typ Beschreibung
ContinueJob

string

Teilt dem Dienst mit, dass, wenn dieser TransformOutput fehlschlägt, alle anderen TransformOutput-Vorgänge fortgesetzt werden können.

StopProcessingJob

string

Teilt dem Dienst mit, dass alle anderen unvollständigen TransformOutputs beendet werden können, wenn dieser TransformOutput fehlschlägt.

OutputFile

Stellt eine generierte Ausgabedatei dar.

Name Typ Beschreibung
labels

string[]

Die Liste der Bezeichnungen, die beschreiben, wie der Encoder Video und Audio in eine Ausgabedatei multiplexen soll. Wenn der Encoder beispielsweise zwei Videoebenen mit den Bezeichnungen v1 und v2 und eine Audioebene mit der Bezeichnung a1 erzeugt, teilt ein Array wie "[v1, a1]" dem Encoder mit, eine Ausgabedatei mit der durch v1 dargestellten Videospur und der durch a1 dargestellten Audiospur zu erstellen.

PngFormat

Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.PngFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt.

PngImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.PngImage

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

PngLayer[]

Eine Sammlung von PNG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

start

string

Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

PngLayer

Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.

Name Typ Beschreibung
height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

PresetConfigurations

Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.

Name Typ Beschreibung
complexity

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

interleaveOutput

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um audio- und videogeschützte Ausgaben in separaten MP4-Dateien zu erzeugen.

keyFrameIntervalInSeconds

number

Das Keyframeintervall in Sekunden. Beispiel: Legen Sie KeyFrameIntervalInSeconds auf 2 fest, um den Wiedergabepuffer für einige Spieler zu verringern.

maxBitrateBps

integer

Die maximale Bitrate in Bits pro Sekunde (Schwellenwert für die oberste Videoebene). Beispiel: Legen Sie MaxBitrateBps auf 6000000 fest, um die Ausgabe sehr hoher Bitrate für Inhalte mit hoher Komplexität zu vermeiden.

maxHeight

integer

Die maximale Höhe der Ausgabevideoebenen. Beispiel: Legen Sie MaxHeight auf 720 fest, um Ausgabeebenen bis zu 720P zu erzeugen, auch wenn die Eingabe 4K ist.

maxLayers

integer

Die maximale Anzahl von Ausgabevideoebenen. Beispiel: Legen Sie MaxLayers auf 4 fest, um sicherzustellen, dass maximal 4 Ausgabeebenen erstellt werden, um die Gesamtkosten des Codierungsauftrags zu steuern.

minBitrateBps

integer

Die minimale Bitrate in Bits pro Sekunde (Schwellenwert für die untere Videoebene). Beispiel: Legen Sie MinBitrateBps auf 200000 fest, um eine untere Ebene zu erhalten, die Benutzer mit geringer Netzwerkbandbreite abdeckt.

minHeight

integer

Die Mindesthöhe der Ausgabevideoebenen. Beispiel: Legen Sie MinHeight auf 360 fest, um Ausgabeebenen kleinerer Auflösungen wie 180P zu vermeiden.

Priority

Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.

Name Typ Beschreibung
High

string

Wird für TransformOutputs verwendet, die Vorrang vor anderen haben sollten.

Low

string

Wird für TransformOutputs verwendet, die nach TransformOutputs mit normaler und hoher Priorität generiert werden können.

Normal

string

Wird für TransformOutputs verwendet, die mit normaler Priorität generiert werden können.

Rectangle

Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.

Name Typ Beschreibung
height

string

Die Höhe des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

left

string

Die Anzahl der Pixel vom linken Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

top

string

Die Anzahl der Pixel vom oberen Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

width

string

Die Breite des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Automatische Erkennung und Drehung nach Bedarf.

None

string

Drehen Sie das Video nicht. Wenn das Ausgabeformat dies unterstützt, bleiben alle Metadaten zur Rotation intakt.

Rotate0

string

Drehen Sie das Video nicht, sondern entfernen Sie alle Metadaten zur Drehung.

Rotate180

string

Drehen Sie sich um 180 Grad im Uhrzeigersinn.

Rotate270

string

Drehen Sie sich um 270 Grad im Uhrzeigersinn.

Rotate90

string

Drehen Sie sich um 90 Grad im Uhrzeigersinn.

StandardEncoderPreset

Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Der Diskriminator für abgeleitete Typen.

codecs Codec[]:

Die Liste der Codecs, die beim Codieren des Eingabevideos verwendet werden sollen.

experimentalOptions

object

Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden

filters

Filters

Mindestens ein Filtervorgänge, der vor der Codierung auf die Eingabemedien angewendet wird.

formats Format[]:

Die Liste der Ausgaben, die vom Encoder erzeugt werden sollen.

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

Name Typ Beschreibung
AutoFit

string

Binden Sie die Ausgabe (entweder mit Briefkasten oder Säulenfeld) ein, um die Ausgabeauflösung zu berücksichtigen, und stellen Sie sicher, dass der aktive Videobereich in der Ausgabe das gleiche Seitenverhältnis wie die Eingabe aufweist. Wenn die Eingabe beispielsweise 1920x1080 ist und die Codierungsvoreinstellung nach 1280 x 1280 fragt, liegt die Ausgabe bei 1280 x 1280, die ein inneres Rechteck von 1280x720 im Seitenverhältnis von 16:9 und Säulenfeldbereiche mit einer Breite von 280 Pixeln links und rechts enthält.

AutoSize

string

Überschreiben Sie die Ausgabeauflösung, und ändern Sie sie so, dass sie dem Anzeigeseitenverhältnis der Eingabe ohne Auffüllung entspricht. Wenn die Auflösung der Eingabe beispielsweise 1920 × 1080 ist und die Codierungsvoreinstellung 1280 × 1280 fordert, wird der Wert in der Voreinstellung außer Kraft gesetzt, und die Ausgabe erfolgt in 1280 × 720, sodass das Eingabeseitenverhältnis von 16 : 9 beibehalten wird.

None

string

Achten Sie streng auf die Ausgabeauflösung, ohne das Pixelseitenverhältnis oder das Anzeigeseitenverhältnis des Eingabevideos zu berücksichtigen.

systemData

Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.

Name Typ Beschreibung
createdAt

string

Der Zeitstempel der Ressourcenerstellung (UTC).

createdBy

string

Die Identität, die die Ressource erstellt hat.

createdByType

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

lastModifiedAt

string

Der Zeitstempel der letzten Änderung der Ressource (UTC)

lastModifiedBy

string

Die Identität, die die Ressource zuletzt geändert hat.

lastModifiedByType

createdByType

Der Identitätstyp, der die Ressource zuletzt geändert hat.

Transform

Eine Transformation kapselt die Regeln oder Anweisungen zum Generieren gewünschter Ausgaben aus Eingabemedien, z. B. durch Transcodierung oder durch Extrahieren von Erkenntnissen. Nachdem die Transformation erstellt wurde, kann sie auf Eingabemedien angewendet werden, indem Aufträge erstellt werden.

Name Typ Beschreibung
id

string

Vollqualifizierte Ressourcen-ID für die Ressource. Beispiel: /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

Der Name der Ressource

properties.created

string

Das Datum und die Uhrzeit (in UTC), an dem die Transformation erstellt wurde, im Format „JJJJ-MM-TTThh:mm:ssZ“.

properties.description

string

Eine ausführliche Beschreibung der Transformation.

properties.lastModified

string

Das Datum und die Uhrzeit (in UTC), an dem die Transformation zuletzt aktualisiert wurde, im Format „JJJJ-MM-TTTss:mm:ssZ“.

properties.outputs

TransformOutput[]

Ein Array von mindestens einem TransformOutput-Objekt, das die Transformation generieren soll.

systemData

systemData

Die Systemmetadaten, die sich auf diese Ressource beziehen.

type

string

Der Typ der Ressource. Z.B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts"

TransformOutput

Beschreibt die Eigenschaften eines TransformOutput, bei denen es sich um die Regeln handelt, die beim Generieren der gewünschten Ausgabe angewendet werden sollen.

Name Typ Beschreibung
onError

OnErrorType

Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob".

preset Preset:

Voreinstellung, die die Vorgänge beschreibt, die zum Ändern, Transcodieren oder Extrahieren von Erkenntnissen aus der Quelldatei verwendet werden, um die Ausgabe zu generieren.

relativePriority

Priority

Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.

TransportStreamFormat

Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

Video

Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Video

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

stretchMode

StretchMode

Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

VideoAnalyzerPreset

Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Der Diskriminator für abgeleitete Typen.

audioLanguage

string

Die Sprache für die Audionutzlast in der Eingabe im BCP-47-Format von "language tag-region" (z. B. "en-US"). Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss für AudioAnalysisMode::Basic explizit angegeben werden, da die automatische Spracherkennung nicht im Einfachen Modus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden

insightsToExtract

InsightsType

Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.

mode

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

VideoOverlay

Beschreibt die Eigenschaften einer Videoüberlagerung.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.VideoOverlay

Der Diskriminator für abgeleitete Typen.

audioGainLevel

number

Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0.

cropRectangle

Rectangle

Ein optionales rechteckiges Fenster, das zum Zuschneiden des Überlagerungsbilds oder Videos verwendet wird.

end

string

Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer.

fadeInDuration

string

Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S).

fadeOutDuration

string

Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S).

inputLabel

string

Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter.

opacity

number

Die Deckkraft der Überlagerung. Dies ist ein Wert im Bereich [0 - 1,0]. Der Standardwert ist 1.0, was bedeutet, dass die Überlagerung undurchsichtig ist.

position

Rectangle

Die Position im Eingabevideo, an der das Overlay angewendet wird.

start

string

Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos.

VideoSyncMode

Videosynchronisierungsmodus

Name Typ Beschreibung
Auto

string

Dies ist die Standardmethode. Wählt je nach Muxer-Funktionen zwischen Cfr und Vfr aus. Für das Ausgabeformat MP4 ist der Standardmodus Cfr.

Cfr

string

Eingabeframes werden bei Bedarf wiederholt und/oder gelöscht, um genau die angeforderte konstante Bildrate zu erreichen. Empfohlen, wenn die Ausgabebildrate explizit auf einen angegebenen Wert festgelegt wird

Passthrough

string

Die Präsentationszeitstempel für Frames werden von der Eingabedatei an den Ausgabedateischreiber übergeben. Empfohlen, wenn die Eingabequelle über eine variable Framerate verfügt und versucht, mehrere Ebenen für adaptives Streaming in der Ausgabe mit abgestimmten GOP-Grenzen zu erzeugen. Hinweis: Wenn mindestens zwei Frames in der Eingabe doppelte Zeitstempel aufweisen, weist auch die Ausgabe das gleiche Verhalten auf.

Vfr

string

Ähnlich wie der Passthrough-Modus, aber wenn die Eingabe Über Frames mit doppelten Zeitstempeln verfügt, wird nur ein Frame an die Ausgabe übergeben, und andere werden gelöscht. Empfohlen, wenn die Anzahl der Ausgabeframes der Anzahl der Eingabeframes entspricht. Die Ausgabe wird beispielsweise verwendet, um eine Qualitätsmetrik wie PSNR für die Eingabe zu berechnen.