Share via


estructura DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC (directml.h)

Calcula not bit a bit para cada elemento del tensor de entrada y escribe el resultado en el tensor de salida.

La operación bit a bit se aplica a los datos tensor en su codificación nativa. Por lo tanto, se omite el tipo de datos tensor, excepto para determinar el ancho de cada elemento.

Este operador admite la ejecución en contexto, lo que significa que el tensor de salida puede establecer el alias del tensor de entrada durante el enlace.

Sintaxis

struct DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Miembros

InputTensor

Tipo: const DML_TENSOR_DESC*

Tensor de entrada del que se va a leer.

OutputTensor

Tipo: const DML_TENSOR_DESC*

Tensor de salida en el que se van a escribir los resultados.

Ejemplo

InputTensor: (Sizes:{2,2}, DataType:UINT8)
[[0,  128], // 0b00000000, 0b10000000
 [42, 255]] // 0b00101010, 0b11111111

OutputTensor: (Sizes:{2,2}, DataType:UINT8)
[[255, 127], // 0b11111111, 0b01111111
 [213, 0  ]] // 0b11010101, 0b00000000

Disponibilidad

Este operador se introdujo en DML_FEATURE_LEVEL_3_0.

Restricciones tensor

InputTensor y OutputTensor deben tener el mismo DataType, DimensionCount y Sizes.

Compatibilidad con Tensor

DML_FEATURE_LEVEL_4_1 y versiones posteriores

Tensor Kind Recuentos de dimensiones admitidos Tipos de datos admitidos
InputTensor Entrada De 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor Resultados De 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 y versiones posteriores

Tensor Kind Recuentos de dimensiones admitidos Tipos de datos admitidos
InputTensor Entrada De 1 a 8 UINT32, UINT16, UINT8
OutputTensor Resultados De 1 a 8 UINT32, UINT16, UINT8

Requisitos

   
Cliente mínimo compatible Compilación 20348 de Windows 10
Servidor mínimo compatible Compilación 20348 de Windows 10
Encabezado directml.h