DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC 構造体 (directml.h)

修正された線形単位 (ReLU) のバックプロパティ グラデーションを計算します。 この演算子は、次の要素ごとの計算を実行します。

X = InputTensor
dY = InputGradientTensor

OutputGradientTensor = (X > 0 ? dY : 0)

対応する前方パス演算子が DML_ACTIVATION_RELU_OPERATOR_DESC

構文

struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *InputGradientTensor;
  const DML_TENSOR_DESC *OutputGradientTensor;
};

メンバー

InputTensor

型: const DML_TENSOR_DESC*

入力 (機能) テンソル。 これは通常、前方パス中に指定されたものと同じ入力です ( DML_ACTIVATION_RELU_OPERATOR_DESCを参照)。

InputGradientTensor

型: const DML_TENSOR_DESC*

入力されるグラデーションテンソル。 これは通常、前のレイヤーのバックプロパティの出力から取得されます。 このテンソルの サイズDataType、InputTensor のものと完全に一致している必要があります。

OutputGradientTensor

要件

要件
サポートされている最小のクライアント Windows 10 ビルド 20348
サポートされている最小のサーバー Windows 10 ビルド 20348
Header directml.h

こちらもご覧ください

DML_ACTIVATION_RELU_OPERATOR_DESC