Freigeben über


DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC-Struktur (directml.h)

Berechnet das bitweise NOT für jedes Element des Eingabe tensors und schreibt das Ergebnis in den Ausgabe tensor.

Der bitweise Vorgang wird in der nativen Codierung auf Tensordaten angewendet. Daher wird der Tensordatentyp ignoriert, mit Ausnahme der Bestimmung der Breite der einzelnen Elemente.

Dieser Operator unterstützt die direkte Ausführung, was bedeutet, dass der Ausgabe-Tensor den Eingabe-Tensor während der Bindung aliasieren darf.

Syntax

struct DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Member

InputTensor

Typ: const DML_TENSOR_DESC*

Der Eingabe tensor, aus dem gelesen werden soll.

OutputTensor

Typ: const DML_TENSOR_DESC*

Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.

Beispiel

InputTensor: (Sizes:{2,2}, DataType:UINT8)
[[0,  128], // 0b00000000, 0b10000000
 [42, 255]] // 0b00101010, 0b11111111

OutputTensor: (Sizes:{2,2}, DataType:UINT8)
[[255, 127], // 0b11111111, 0b01111111
 [213, 0  ]] // 0b11010101, 0b00000000

Verfügbarkeit

Dieser Operator wurde in DML_FEATURE_LEVEL_3_0eingeführt.

Tensoreinschränkungen

InputTensor und OutputTensor müssen denselben DataType, DimensionCount und Sizes aufweisen.

Tensorunterstützung

DML_FEATURE_LEVEL_4_1 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 und höher

Tensor Typ Unterstützte Dimensionsanzahl Unterstützte Datentypen
InputTensor Eingabe 1 bis 8 UINT32, UINT16, UINT8
OutputTensor Ausgabe 1 bis 8 UINT32, UINT16, UINT8

Anforderungen

   
Unterstützte Mindestversion (Client) Windows 10 Build 20348
Unterstützte Mindestversion (Server) Windows 10 Build 20348
Kopfzeile directml.h