Intrínsecos ARM
El compilador de Microsoft C++ (MSVC) hace que los siguientes intrínsecos estén disponibles en la arquitectura arm. Para obtener más información sobre ARM, consulte las secciones Herramientas de desarrollo de arquitectura y software del sitio web de documentación para desarrolladores de ARM.
NEON
Las extensiones de conjunto de instrucciones vectoriales NEON para ARM proporcionan funcionalidades de Single Instruction Multiple Data (SIMD) similares a las de los conjuntos de instrucciones vectoriales MMX y SSE que son comunes a los procesadores de arquitectura x86 y x64.
Se admiten intrínsecos NEON, como se dispone en el archivo de encabezado arm_neon.h. La MSVC compatibilidad con intrínsecos NEON es similar a la del compilador de ARM, que se documenta en el Apéndice G de la cadena de herramientas del compilador de ARM, Referencia del compilador de la versión 4.1 en el sitio web de ARM Infocenter.
La diferencia principal entre MSVC y el compilador de ARM es que el MSVC agrega variantes de las instrucciones de carga _exvldX y vector y vstX almacenamiento. Las variantes _ex toman un parámetro adicional que especifica la alineación del argumento de puntero, pero por lo demás son idénticas a sus equivalentes que no son _ex.
Lista de intrínsecos específicos de ARM
| Nombre de la función | Instrucción | Prototipo de función |
|---|---|---|
| _arm_smlal | SMLAL | __int64 _arm_smlal(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_umlal | UMLAL | unsigned __int64 _arm_umlal(unsigned __int64 _RdHiLo, unsigned int _Rn, unsigned int _Rm) |
| _arm_clz | CLZ | unsigned int _arm_clz(unsigned int _Rm) |
| _arm_qadd | QADD | int _arm_qadd(int _Rm, int _Rn) |
| _arm_qdadd | QDADD | int _arm_qdadd(int _Rm, int _Rn) |
| _arm_qdsub | QDSUB | int _arm_qdsub(int _Rm, int _Rn) |
| _arm_qsub | QSUB | int _arm_qsub(int _Rm, int _Rn) |
| _arm_smlabb | SMLABB | int _arm_smlabb(int _Rn, int _Rm, int _Ra) |
| _arm_smlabt | SMLABT | int _arm_smlabt(int _Rn, int _Rm, int _Ra) |
| _arm_smlatb | SMLATB | int _arm_smlatb(int _Rn, int _Rm, int _Ra) |
| _arm_smlatt | SMLATT | int _arm_smlatt(int _Rn, int _Rm, int _Ra) |
| _arm_smlalbb | SMLALBB | __int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlalbt | SMLALBT | __int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaltb | SMLALTB | __int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaltt | SMLALTT | __int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlawb | SMLAWB | int _arm_smlawb(int _Rn, int _Rm, int _Ra) |
| _arm_smlawt | SMLAWT | int _arm_smlawt(int _Rn, int _Rm, int _Ra) |
| _arm_smulbb | SMULBB | int _arm_smulbb(int _Rn, int _Rm) |
| _arm_smulbt | SMULBT | int _arm_smulbt(int _Rn, int _Rm) |
| _arm_smultb | SMULTB | int _arm_smultb(int _Rn, int _Rm) |
| _arm_smultt | SMULTT | int _arm_smultt(int _Rn, int _Rm) |
| _arm_smulwb | SMULWB | int _arm_smulwb(int _Rn, int _Rm) |
| _arm_smulwt | SMULWT | int _arm_smulwt(int _Rn, int _Rm) |
| _arm_sadd16 | SADD16 | int _arm_sadd16(int _Rn, int _Rm) |
| _arm_sadd8 | SADD8 | int _arm_sadd8(int _Rn, int _Rm) |
| _arm_sasx | SASX | int _arm_sasx(int _Rn, int _Rm) |
| _arm_ssax | SSAX | int _arm_ssax(int _Rn, int _Rm) |
| _arm_ssub16 | SSUB16 | int _arm_ssub16(int _Rn, int _Rm) |
| _arm_ssub8 | SSUB8 | int _arm_ssub8(int _Rn, int _Rm) |
| _arm_shadd16 | SHADD16 | int _arm_shadd16(int _Rn, int _Rm) |
| _arm_shadd8 | SHADD8 | int _arm_shadd8(int _Rn, int _Rm) |
| _arm_shasx | SHASX | int _arm_shasx(int _Rn, int _Rm) |
| _arm_shsax | SHSAX | int _arm_shsax(int _Rn, int _Rm) |
| _arm_shsub16 | SHSUB16 | int _arm_shsub16(int _Rn, int _Rm) |
| _arm_shsub8 | SHSUB8 | int _arm_shsub8(int _Rn, int _Rm) |
| _arm_qadd16 | QADD16 | int _arm_qadd16(int _Rn, int _Rm) |
| _arm_qadd8 | QADD8 | int _arm_qadd8(int _Rn, int _Rm) |
| _arm_qasx | QASX | int _arm_qasx(int _Rn, int _Rm) |
| _arm_qsax | QSAX | int _arm_qsax(int _Rn, int _Rm) |
| _arm_qsub16 | QSUB16 | int _arm_qsub16(int _Rn, int _Rm) |
| _arm_qsub8 | QSUB8 | int _arm_qsub8(int _Rn, int _Rm) |
| _arm_uadd16 | UADD16 | unsigned int _arm_uadd16(unsigned int _Rn, unsigned int _Rm) |
| _arm_uadd8 | UADD8 | unsigned int _arm_uadd8(unsigned int _Rn, unsigned int _Rm) |
| _arm_uasx | UASX | unsigned int _arm_uasx(unsigned int _Rn, unsigned int _Rm) |
| _arm_usax | USAX | unsigned int _arm_usax(unsigned int _Rn, unsigned int _Rm) |
| _arm_usub16 | USUB16 | unsigned int _arm_usub16(unsigned int _Rn, unsigned int _Rm) |
| _arm_usub8 | USUB8 | unsigned int _arm_usub8(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhadd16 | UHADD16 | unsigned int _arm_uhadd16(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhadd8 | UHADD8 | unsigned int _arm_uhadd8(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhasx | UHASX | unsigned int _arm_uhasx(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhsax | UHSAX | unsigned int _arm_uhsax(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhsub16 | UHSUB16 | unsigned int _arm_uhsub16(unsigned int _Rn, unsigned int _Rm) |
| _arm_uhsub8 | UHSUB8 | unsigned int _arm_uhsub8(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqadd16 | UQADD16 | unsigned int _arm_uqadd16(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqadd8 | UQADD8 | unsigned int _arm_uqadd8(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqasx | UQASX | unsigned int _arm_uqasx(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqsax | UQSAX | unsigned int _arm_uqsax(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqsub16 | UQSUB16 | unsigned int _arm_uqsub16(unsigned int _Rn, unsigned int _Rm) |
| _arm_uqsub8 | UQSUB8 | unsigned int _arm_uqsub8(unsigned int _Rn, unsigned int _Rm) |
| _arm_sxtab | SXTAB | int _arm_sxtab(int _Rn, int _Rm, unsigned int _Rotation) |
| _arm_sxtab16 | SXTAB16 | int _arm_sxtab16(int _Rn, int _Rm, unsigned int _Rotation) |
| _arm_sxtah | SXTAH | int _arm_sxtah(int _Rn, int _Rm, unsigned int _Rotation) |
| _arm_uxtab | UXTAB | unsigned int _arm_uxtab(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
| _arm_uxtab16 | UXTAB16 | unsigned int _arm_uxta16b(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
| _arm_uxtah | UXTAH | unsigned int _arm_uxtah(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
| _arm_sxtb | SXTB | int _arm_sxtb(int _Rn, unsigned int _Rotation) |
| _arm_sxtb16 | SXTB16 | int _arm_sxtb16(int _Rn, unsigned int _Rotation) |
| _arm_sxth | SXTH | int _arm_sxth(int _Rn, unsigned int _Rotation) |
| _arm_uxtb | UXTB | unsigned int _arm_uxtb(unsigned int _Rn, unsigned int _Rotation) |
| _arm_uxtb16 | UXTB16 | unsigned int _arm_uxtb16(unsigned int _Rn, unsigned int _Rotation) |
| _arm_uxth | UXTH | unsigned int _arm_uxth(unsigned int _Rn, unsigned int _Rotation) |
| _arm_pkhbt | PKHBT | int _arm_pkhbt(int _Rn, int _Rm, unsigned int _Lsl_imm) |
| _arm_pkhtb | PKHTB | int _arm_pkhtb(int _Rn, int _Rm, unsigned int _Asr_imm) |
| _arm_usad8 | USAD8 | unsigned int _arm_usad8(unsigned int _Rn, unsigned int _Rm) |
| _arm_usada8 | USADA8 | unsigned int _arm_usada8(unsigned int _Rn, unsigned int _Rm, unsigned int _Ra) |
| _arm_ssat | SSAT | int _arm_ssat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
| _arm_usat | USAT | int _arm_usat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
| _arm_ssat16 | SSAT16 | int _arm_ssat16(unsigned int _Sat_imm, _int _Rn) |
| _arm_usat16 | USAT16 | int _arm_usat16(unsigned int _Sat_imm, _int _Rn) |
| _arm_rev | REV | unsigned int _arm_rev(unsigned int _Rm) |
| _arm_rev16 | REV16 | unsigned int _arm_rev16(unsigned int _Rm) |
| _arm_revsh | REVSH | unsigned int _arm_revsh(unsigned int _Rm) |
| _arm_smlad | SMLAD | int _arm_smlad(int _Rn, int _Rm, int _Ra) |
| _arm_smladx | SMLADX | int _arm_smladx(int _Rn, int _Rm, int _Ra) |
| _arm_smlsd | SMLSD | int _arm_smlsd(int _Rn, int _Rm, int _Ra) |
| _arm_smlsdx | SMLSDX | int _arm_smlsdx(int _Rn, int _Rm, int _Ra) |
| _arm_smmla | SMMLA | int _arm_smmla(int _Rn, int _Rm, int _Ra) |
| _arm_smmlar | SMMLAR | int _arm_smmlar(int _Rn, int _Rm, int _Ra) |
| _arm_smmls | SMMLS | int _arm_smmls(int _Rn, int _Rm, int _Ra) |
| _arm_smmlsr | SMMLSR | int _arm_smmlsr(int _Rn, int _Rm, int _Ra) |
| _arm_smmul | SMMUL | int _arm_smmul(int _Rn, int _Rm) |
| _arm_smmulr | SMMULR | int _arm_smmulr(int _Rn, int _Rm) |
| _arm_smlald | SMLALD | __int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaldx | SMLALDX | __int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlsld | SMLSLD | __int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlsldx | SMLSLDX | __int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smuad | SMUAD | int _arm_smuad(int _Rn, int _Rm) |
| _arm_smuadx | SMUADX | int _arm_muadxs(int _Rn, int _Rm) |
| _arm_smusd | SMUSD | int _arm_smusd(int _Rn, int _Rm) |
| _arm_smusdx | SMUSDX | int _arm_smusdx(int _Rn, int _Rm) |
| _arm_smull | SMULL | __int64 _arm_smull(int _Rn, int _Rm) |
| _arm_umull | UMULL | unsigned __int64 _arm_umull(unsigned int _Rn, unsigned int _Rm) |
| _arm_umaal | UMAAL | unsigned __int64 _arm_umaal(unsigned int _RdLo, unsigned int _RdHi, unsigned int _Rn, unsigned int _Rm) |
| _arm_bfc | BFC | unsigned int _arm_bfc(unsigned int _Rd, unsigned int _Lsb, unsigned int _Width) |
| _arm_bfi | BFI | unsigned int _arm_bfi(unsigned int _Rd, unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
| _arm_rbit | RBIT | unsigned int _arm_rbit(unsigned int _Rm) |
| _arm_sbfx | SBFX | int _arm_sbfx(int _Rn, unsigned int _Lsb, unsigned int _Width) |
| _arm_ubfx | UBFX | unsigned int _arm_ubfx(unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
| _arm_sdiv | SDIV | int _arm_sdiv(int _Rn, int _Rm) |
| _arm_udiv | UDIV | unsigned int _arm_udiv(unsigned int _Rn, unsigned int _Rm) |
| __cps | CPS | void __cps(unsigned int _Ops, unsigned int _Flags, unsigned int _Mode) |
| __dmb | DMB | void __dmb(unsigned int _Type)Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.Para obtener más información sobre los tipos de restricciones que se pueden aplicar, vea Restriccionesde barrera de memoria . |
| __dsb | DSB | void __dsb(unsigned int _Type) Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.Para obtener más información sobre los tipos de restricciones que se pueden aplicar, vea Restriccionesde barrera de memoria . |
| __isb | ISB | void __isb(unsigned int _Type) Inserta una operación de barrera de memoria en la secuencia de instrucciones. El parámetro _Type especifica el tipo de restricción que impone la barrera.Para obtener más información sobre los tipos de restricciones que se pueden aplicar, vea Restriccionesde barrera de memoria . |
| __emit | void __emit(unsigned __int32 opcode) Inserta una instrucción especificada en la secuencia de instrucciones generada por el compilador. El valor de opcode debe ser una expresión constante que se conozca en el momento de la compilación. El tamaño de una palabra de instrucción es de 16 bits y los 16 bits más significativos de opcode se omiten.El compilador no intenta interpretar el contenido de y no garantiza un estado de CPU o memoria antes de que opcode se ejecute la instrucción insertada.El compilador supone que los estados de CPU y de memoria no se modifican después de ejecutarse la instrucción insertada. Por lo tanto, las instrucciones que cambian el estado pueden tener un impacto perjudicial en el código normal generado por el compilador. Por este motivo, use solo para insertar instrucciones que afecten a un estado de CPU que el compilador no procesa normalmente (por ejemplo, el estado del coprocesador) o para implementar funciones declaradas mediante emitdeclspec(naked) . |
|
| __hvc | HVC | unsigned int __hvc(unsigned int, ...) |
| __iso_volatile_load16 | __int16 __iso_volatile_load16(const volatile __int16 *) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load32 | __int32 __iso_volatile_load32(const volatile __int32 *) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load64 | __int64 __iso_volatile_load64(const volatile __int64 *) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load8 | __int8 __iso_volatile_load8(const volatile __int8 *) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store16 | void __iso_volatile_store16(volatile __int16 *, __int16) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store32 | void __iso_volatile_store32(volatile __int32 *, __int32) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store64 | void __iso_volatile_store64(volatile __int64 *, __int64) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store8 | void __iso_volatile_store8(volatile __int8 *, __int8) Para obtener más información, vea __iso_volatile_load/store intrinsics. |
|
| __ldrexd | LDREXD | __int64 __ldrexd(const volatile __int64 *) |
| __prefetch | PLD | void __cdecl __prefetch(const void *) Proporciona una sugerencia de memoria PLD al sistema para indicarle que pronto podría accederse a la memoria en la dirección especificada, o cerca de ella. Algunos sistemas pueden optar por optimizarse para que ese modelo de acceso a memoria aumente el rendimiento en tiempo de ejecución. Sin embargo, desde el punto de vista del lenguaje C++, la función no tiene ningún efecto observable y podría no hacer nada. |
| __rdpmccntr64 | unsigned __int64 __rdpmccntr64(void) | |
| __sev | SEV | void __sev(void) |
| __static_assert | void __static_assert(int, const char *) | |
| __swi | SVC | unsigned int __swi(unsigned int, ...) |
| __trap | BKPT | int __trap(int, ...) |
| __wfe | WFE | void __wfe(void) |
| __wfi | WFI | void __wfi(void) |
| _AddSatInt | QADD | int _AddSatInt(int, int) |
| _CopyDoubleFromInt64 | double _CopyDoubleFromInt64(__int64) | |
| _CopyFloatFromInt32 | float _CopyFloatFromInt32(__int32) | |
| _CopyInt32FromFloat | __int32 _CopyInt32FromFloat(float) | |
| _CopyInt64FromDouble | __int64 _CopyInt64FromDouble(double) | |
| _CountLeadingOnes | unsigned int _CountLeadingOnes(unsigned long) | |
| _CountLeadingOnes64 | unsigned int _CountLeadingOnes64(unsigned __int64) | |
| _CountLeadingSigns | unsigned int _CountLeadingSigns(long) | |
| _CountLeadingSigns64 | unsigned int _CountLeadingSigns64(__int64) | |
| _CountLeadingZeros | unsigned int _CountLeadingZeros(unsigned long) | |
| _CountLeadingZeros64 | unsigned int _CountLeadingZeros64(unsigned __int64) | |
| _CountOneBits | unsigned int _CountOneBits(unsigned long) | |
| _CountOneBits64 | unsigned int _CountOneBits64(unsigned __int64) | |
| _DAddSatInt | QDADD | int _DAddSatInt(int, int) |
| _DSubSatInt | QDSUB | int _DSubSatInt(int, int) |
| _isunordered | int _isunordered(double, double) | |
| _isunorderedf | int _isunorderedf(float, float) | |
| _MoveFromCoprocessor | MRC | unsigned int _MoveFromCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor, _MoveFromCoprocessor2. |
| _MoveFromCoprocessor2 | MRC2 | unsigned int _MoveFromCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor, _MoveFromCoprocessor2. |
| _MoveFromCoprocessor64 | MRRC | unsigned __int64 _MoveFromCoprocessor64(unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveFromCoprocessor64. |
| _MoveToCoprocessor | MCR | void _MoveToCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor, _MoveToCoprocessor2. |
| _MoveToCoprocessor2 | MCR2 | void _MoveToCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor, _MoveToCoprocessor2. |
| _MoveToCoprocessor64 | MCRR | void _MoveToCoprocessor64(unsigned __int64, unsigned int, unsigned int, unsigned int) Lee datos de un coprocesador ARM mediante las instrucciones de transferencia de datos del coprocesador. Para obtener más información, vea _MoveToCoprocessor64. |
| _MulHigh | long _MulHigh(long, long) | |
| _MulUnsignedHigh | unsigned long _MulUnsignedHigh(unsigned long, unsigned long) | |
| _ReadBankedReg | MRS | int _ReadBankedReg(int _Reg) |
| _ReadStatusReg | MRS | int _ReadStatusReg(int) |
| _SubSatInt | QSUB | int _SubSatInt(int, int) |
| _WriteBankedReg | MSR | void _WriteBankedReg(int _Value, int _Reg) |
| _WriteStatusReg | MSR | void _WriteStatusReg(int, int, int) |
Restricciones de la barrera de memoria
Las funciones intrínsecas (barrera de memoria de datos), (barrera de sincronización de datos) y (barrera de sincronización de instrucciones) usan los siguientes valores predefinidos para especificar la restricción de barrera de memoria en términos del dominio de uso compartido y el tipo de acceso que se ve afectado por la __dmb__dsb__isb operación.
| Valor de restricción | Descripción |
|---|---|
| _ARM_BARRIER_SY | Todo el sistema, lectura y escritura. |
| _ARM_BARRIER_ST | Todo el sistema, solo escritura. |
| _ARM_BARRIER_ISH | Puede compartirse internamente, lectura y escritura. |
| _ARM_BARRIER_ISHST | Puede compartirse internamente, solo escritura. |
| _ARM_BARRIER_NSH | No puede compartirse, lectura y escritura. |
| _ARM_BARRIER_NSHST | No puede compartirse, solo escritura. |
| _ARM_BARRIER_OSH | Puede compartirse externamente, lectura y escritura. |
| _ARM_BARRIER_OSHST | Puede compartirse externamente, solo escritura. |
Para el intrínseco __isb, la única restricción válida actualmente es _ARM_BARRIER_SY; todos los demás valores se los reserva la arquitectura.
__iso_volatile_load o intrínsecos del almacén
Estas funciones intrínsecas realizan explícitamente cargas y almacenes que no están sujetos a optimizaciones del compilador.
__int16 __iso_volatile_load16(const volatile __int16 * Location);
__int32 __iso_volatile_load32(const volatile __int32 * Location);
__int64 __iso_volatile_load64(const volatile __int64 * Location);
__int8 __iso_volatile_load8(const volatile __int8 * Location);
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value);
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value);
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value);
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value);
Parámetros
Ubicación
La dirección de una ubicación de memoria para leer o escribir.
Valor
Valor que se escribirá en la ubicación de memoria especificada (almacenar solo intrínsecos).
Valor devuelto (solo intrínsecos de carga)
El valor de la ubicación de memoria especificado por Location.
Comentarios
Puede usar los intrínsecos y para realizar explícitamente accesos a memoria que no están sujetos a __iso_volatile_load8/16/32/64__iso_volatile_store8/16/32/64 optimizaciones del compilador. El compilador no puede quitar, sintetizar ni cambiar el orden relativo de estas operaciones, pero no genera barreras implícitas de memoria de hardware. Por lo tanto, el hardware todavía puede reordenar los accesos de memoria observables en varios subprocesos. Más concretamente, estos intrínsecos son equivalentes a las expresiones siguientes, tal como se compilan en /volatile:iso.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Observe que los intrínsecos tienen punteros volátiles para dar cabida a variables volátiles. Sin embargo, no hay ningún requisito ni recomendación para usar punteros volátiles como argumentos. La semántica de estas operaciones es exactamente la misma si se usa un tipo normal y no volátil.
Para obtener más información sobre el argumento de línea de comandos /volatile:iso, vea /volatile (interpretación de palabras clave volátiles).
_MoveFromCoprocessor, _MoveFromCoprocessor2
Estas funciones intrínsecas leen datos del coprocesadores ARM siguiendo las instrucciones de transferencia de datos de coprocesador.
int _MoveFromCoprocessor(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
int _MoveFromCoprocessor2(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parámetros
coproc
Número de coprocesador comprendido entre 0 y 15.
opcode1
Código de operación específicos del coprocesador entre 0 y 7.
Crn
Número de registro del coprocesador, entre 0 y 15, que especifica el primer operando de la instrucción.
crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.
opcode2
Código de operación específico del coprocesador adicional entre 0 y 7.
Valor devuelto
El valor que se lee desde el coprocesador.
Comentarios
Los valores de los cinco parámetros del intrínseco deben ser expresiones constantes que se conocen en tiempo de compilación.
_MoveFromCoprocessor utiliza la instrucción MRC; _MoveFromCoprocessor2 utiliza MRC2. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.
_MoveFromCoprocessor64
Lee datos de coprocesadores ARM mediante las instrucciones de transferencia de datos del coprocesador.
unsigned __int64 _MoveFromCoprocessor64(
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parámetros
coproc
Número de coprocesador comprendido entre 0 y 15.
opcode1
Código de operación específico del coprocesador entre 0 y 15.
crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.
Valor devuelto
El valor que se lee desde el coprocesador.
Comentarios
Los valores de los tres parámetros del intrínseco deben ser expresiones constantes que se conocen en tiempo de compilación.
_MoveFromCoprocessor64 utiliza la instrucción MRRC. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.
_MoveToCoprocessor, _MoveToCoprocessor2
Estas funciones intrínsecas escriben datos en coprocesadores ARM siguiendo las instrucciones de transferencia de datos del coprocesador.
void _MoveToCoprocessor(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
void _MoveToCoprocessor2(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parámetros
value
El que se va a escribir en el coprocesador.
coproc
Número de coprocesador comprendido entre 0 y 15.
opcode1
Código de operación específico del coprocesador entre 0 y 7.
Crn
Número de registro del coprocesador, entre 0 y 15, que especifica el primer operando de la instrucción.
Crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.
opcode2
Código de operación específico del coprocesador adicional entre 0 y 7.
Valor devuelto
Ninguno.
Comentarios
Los valores de los parámetros , , , y del intrínseco deben ser expresiones constantes coprocopcode1crncrmopcode2 conocidas en tiempo de compilación.
_MoveToCoprocessor utiliza la instrucción MCR; _MoveToCoprocessor2 utiliza MCR2. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.
_MoveToCoprocessor64
Estas funciones intrínsecas escriben datos en coprocesadores ARM siguiendo las instrucciones de transferencia de datos del coprocesador.
void _MoveFromCoprocessor64(
unsigned __int64 value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parámetros
coproc
Número de coprocesador comprendido entre 0 y 15.
opcode1
Código de operación específico del coprocesador entre 0 y 15.
Crm
Número de registro del coprocesador, entre 0 y 15, que especifica un operando adicional de origen o de destino.
Valor devuelto
Ninguno.
Comentarios
Los valores de los parámetros , y del intrínseco coprocopcode1 deben ser crm expresiones constantes conocidas en tiempo de compilación.
_MoveFromCoprocessor64 utiliza la instrucción MCRR. Los parámetros corresponden a los campos de bits que se codifican directamente en la palabra de instrucción. La interpretación de los parámetros depende del coprocesador. Para obtener más información, vea el manual del coprocesador en cuestión.
Compatibilidad de ARM con intrínsecos de otras arquitecturas
La siguiente tabla enumera los intrínsecos de otras arquitecturas que son compatibles con las plataformas ARM. Se incluyen detalles adicionales en los casos en que el comportamiento de un intrínseco en ARM difiere de su comportamiento en otras arquitecturas de hardware.
| Nombre de la función | Prototipo de función |
|---|---|
| __assume | void __assume(int) |
| __code_seg | void __code_seg(const char *) |
| __debugbreak | void __cdecl __debugbreak(void) |
| __fastfail | __declspec(noreturn) void __fastfail(unsigned int) |
| __nop | void __nop(void) Nota: En las plataformas ARM, esta función genera una instrucción NOP si se implementa una en la arquitectura de destino; De lo contrario, se genera una instrucción alternativa que no cambia el estado del programa o la CPU, por ejemplo, . Es funcionalmente equivalente al intrínseco __nop para otras arquitecturas de hardware. Dado que una instrucción que no tiene ningún efecto en el estado del programa o la CPU podría ser omitida por la arquitectura de destino como una optimización, la instrucción no consume necesariamente ciclos de CPU. Por lo tanto, no use el __nop intrínseco para manipular el tiempo de ejecución de una secuencia de código a menos que esté seguro de cómo se comportará la CPU. En su lugar, puede utilizar el intrínseco __nop para alinear la siguiente instrucción con una dirección de límites específicos de 32 bits. |
| __yield | void __yield(void) Nota: En las plataformas ARM, esta función genera la instrucción YIELD, que indica que el subproceso está realizando una tarea que se puede suspender temporalmente de la ejecución (por ejemplo, un bloqueo por subproceso) sin afectar negativamente al programa. Permite que la CPU ejecute otras tareas durante los ciclos de ejecución que, de lo contrario, se desperdiciarán. |
| _AddressOfReturnAddress | void * _AddressOfReturnAddress(void) |
| _BitScanForward | unsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask) |
| _BitScanReverse | unsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask) |
| _bittest | unsigned char _bittest(long const *, long) |
| _bittestandcomplement | unsigned char _bittestandcomplement(long *, long) |
| _bittestandreset | unsigned char _bittestandreset(long *, long) |
| _bittestandset | unsigned char _bittestandset(long *, long) |
| _byteswap_uint64 | unsigned __int64 __cdecl _byteswap_uint64(unsigned __int64) |
| _byteswap_ulong | unsigned long __cdecl _byteswap_ulong(unsigned long) |
| _byteswap_ushort | unsigned short __cdecl _byteswap_ushort(unsigned short) |
| _disable | void __cdecl _disable(void) Nota: En las plataformas ARM, esta función genera la instrucción CPSID; solo está disponible como intrínseco. |
| _enable | void __cdecl _enable(void) Nota: En las plataformas ARM, esta función genera la instrucción CPSIE; solo está disponible como intrínseco. |
| _lrotl | unsigned long __cdecl _lrotl(unsigned long, int) |
| _lrotr | unsigned long __cdecl _lrotr(unsigned long, int) |
| _ReadBarrier | void _ReadBarrier(void) |
| _ReadWriteBarrier | void _ReadWriteBarrier(void) |
| _ReturnAddress | void * _ReturnAddress(void) |
| _rotl | unsigned int __cdecl _rotl(unsigned int _Value, int _Shift) |
| _rotl16 | unsigned short _rotl16(unsigned short _Value, unsigned char _Shift) |
| _rotl64 | unsigned __int64 __cdecl _rotl64(unsigned __int64 _Value, int _Shift) |
| _rotl8 | unsigned char _rotl8(unsigned char _Value, unsigned char _Shift) |
| _rotr | unsigned int __cdecl _rotr(unsigned int _Value, int _Shift) |
| _rotr16 | unsigned short _rotr16(unsigned short _Value, unsigned char _Shift) |
| _rotr64 | unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift) |
| _rotr8 | unsigned char _rotr8(unsigned char _Value, unsigned char _Shift) |
| _setjmpex | int __cdecl _setjmpex(jmp_buf) |
| _WriteBarrier | void _WriteBarrier(void) |
Intrínsecos entrelazados
Los intrínsecos entrelazados son un conjunto de intrínsecos que se usan para realizar operaciones atómicas de lectura-modificación-escritura. Algunos de ellos son comunes a todas las plataformas. Aquí se enumeran por separado porque hay un gran número de ellas, pero como sus definiciones son principalmente redundantes, es más fácil pensar en ellas en términos generales. Sus nombres pueden utilizarse para derivar los comportamientos exactos.
En la tabla siguiente se resume la compatibilidad con ARM de los intrínsecos entrelazados que no son bittest. Cada celda de la tabla corresponde a un nombre que se crea agregando el nombre de la operación de la celda del extremo izquierdo de la fila y el nombre de tipo de la celda de la parte superior de la columna a _Interlocked. Por ejemplo, la celda en la intersección de la fila y la Xor columna corresponde a y es totalmente 8_InterlockedXor8 compatible. La mayoría de las funciones admitidas ofrecen estos sufijos opcionales: _acq, _rel y _nf. El sufijo _acq indica una semántica de "adquisición" y el sufijo _rel indica una semántica de "versión". El _nf sufijo o "sin barrera" es único para ARM y se describe en la sección siguiente.
| Operación | 8 | 16 | 32 | 64 | P |
|---|---|---|---|---|---|
| Sumar | None | None | Completo | Completo | Ninguno |
| And | Completo | Completo | Completo | Completo | Ninguno |
| CompareExchange | Completo | Completo | Completo | Completo | Completo |
| Decremento | Ninguno | Completo | Completo | Completo | Ninguno |
| Exchange | Parcial | Parcial | Parcial | Parcial | Parcial |
| ExchangeAdd | Completo | Completo | Completo | Completo | Ninguno |
| Incremento | Ninguno | Completo | Completo | Completo | Ninguno |
| Or | Completo | Completo | Completo | Completo | Ninguno |
| Xor | Completo | Completo | Completo | Completo | Ninguno |
Clave:
Full:admite formularios sin
_relformato, , y_nf.Parcial:admite formularios sin formato, y
_nf.Ninguno:no compatible
Sufijo _nf (sin límite)
El sufijo o "sin barrera" indica que la operación no se comporta como ningún tipo de barrera de memoria, a diferencia de las otras tres formas (sin formato, y ), que se comportan como algún tipo de _nf_acq_rel barrera. Un posible uso de los formularios es mantener un contador estadístico que varios subprocesos actualizan al mismo tiempo pero cuyo valor no se usa de otro modo mientras se ejecutan varios _nf subprocesos.
Lista de intrínsecos entrelazados
| Nombre de la función | Prototipo de función |
|---|---|
| _InterlockedAdd | long _InterlockedAdd(long _volatile *, long) |
| _InterlockedAdd64 | __int64 _InterlockedAdd64(__int64 volatile *, __int64) |
| _InterlockedAdd64_acq | __int64 _InterlockedAdd64_acq(__int64 volatile *, __int64) |
| _InterlockedAdd64_nf | __int64 _InterlockedAdd64_nf(__int64 volatile *, __int64) |
| _InterlockedAdd64_rel | __int64 _InterlockedAdd64_rel(__int64 volatile *, __int64) |
| _InterlockedAdd_acq | long _InterlockedAdd_acq(long volatile *, long) |
| _InterlockedAdd_nf | long _InterlockedAdd_nf(long volatile *, long) |
| _InterlockedAdd_rel | long _InterlockedAdd_rel(long volatile *, long) |
| _InterlockedAnd | long _InterlockedAnd(long volatile *, long) |
| _InterlockedAnd16 | short _InterlockedAnd16(short volatile *, short) |
| _InterlockedAnd16_acq | short _InterlockedAnd16_acq(short volatile *, short) |
| _InterlockedAnd16_nf | short _InterlockedAnd16_nf(short volatile *, short) |
| _InterlockedAnd16_rel | short _InterlockedAnd16_rel(short volatile *, short) |
| _InterlockedAnd64 | __int64 _InterlockedAnd64(__int64 volatile *, __int64) |
| _InterlockedAnd64_acq | __int64 _InterlockedAnd64_acq(__int64 volatile *, __int64) |
| _InterlockedAnd64_nf | __int64 _InterlockedAnd64_nf(__int64 volatile *, __int64) |
| _InterlockedAnd64_rel | __int64 _InterlockedAnd64_rel(__int64 volatile *, __int64) |
| _InterlockedAnd8 | char _InterlockedAnd8(char volatile *, char) |
| _InterlockedAnd8_acq | char _InterlockedAnd8_acq(char volatile *, char) |
| _InterlockedAnd8_nf | char _InterlockedAnd8_nf(char volatile *, char) |
| _InterlockedAnd8_rel | char _InterlockedAnd8_rel(char volatile *, char) |
| _InterlockedAnd_acq | long _InterlockedAnd_acq(long volatile *, long) |
| _InterlockedAnd_nf | long _InterlockedAnd_nf(long volatile *, long) |
| _InterlockedAnd_rel | long _InterlockedAnd_rel(long volatile *, long) |
| _InterlockedCompareExchange | long __cdecl _InterlockedCompareExchange(long volatile *, long, long) |
| _InterlockedCompareExchange16 | short _InterlockedCompareExchange16(short volatile *, short, short) |
| _InterlockedCompareExchange16_acq | short _InterlockedCompareExchange16_acq(short volatile *, short, short) |
| _InterlockedCompareExchange16_nf | short _InterlockedCompareExchange16_nf(short volatile *, short, short) |
| _InterlockedCompareExchange16_rel | short _InterlockedCompareExchange16_rel(short volatile *, short, short) |
| _InterlockedCompareExchange64 | __int64 _InterlockedCompareExchange64(__int64 volatile *, __int64, __int64) |
| _InterlockedCompareExchange64_acq | __int64 _InterlockedCompareExchange64_acq(__int64 volatile *, __int64, __int64) |
| _InterlockedCompareExchange64_nf | __int64 _InterlockedCompareExchange64_nf(__int64 volatile *, __int64, __int64) |
| _InterlockedCompareExchange64_rel | __int64 _InterlockedCompareExchange64_rel(__int64 volatile *, __int64, __int64) |
| _InterlockedCompareExchange8 | char _InterlockedCompareExchange8(char volatile *, char, char) |
| _InterlockedCompareExchange8_acq | char _InterlockedCompareExchange8_acq(char volatile *, char, char) |
| _InterlockedCompareExchange8_nf | char _InterlockedCompareExchange8_nf(char volatile *, char, char) |
| _InterlockedCompareExchange8_rel | char _InterlockedCompareExchange8_rel(char volatile *, char, char) |
| _InterlockedCompareExchangePointer | void * _InterlockedCompareExchangePointer(void * volatile *, void *, void *) |
| _InterlockedCompareExchangePointer_acq | void * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *) |
| _InterlockedCompareExchangePointer_nf | void * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *) |
| _InterlockedCompareExchangePointer_rel | void * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *) |
| _InterlockedCompareExchange_acq | long _InterlockedCompareExchange_acq(long volatile *, long, long) |
| _InterlockedCompareExchange_nf | long _InterlockedCompareExchange_nf(long volatile *, long, long) |
| _InterlockedCompareExchange_rel | long _InterlockedCompareExchange_rel(long volatile *, long, long) |
| _InterlockedDecrement | long __cdecl _InterlockedDecrement(long volatile *) |
| _InterlockedDecrement16 | short _InterlockedDecrement16(short volatile *) |
| _InterlockedDecrement16_acq | short _InterlockedDecrement16_acq(short volatile *) |
| _InterlockedDecrement16_nf | short _InterlockedDecrement16_nf(short volatile *) |
| _InterlockedDecrement16_rel | short _InterlockedDecrement16_rel(short volatile *) |
| _InterlockedDecrement64 | __int64 _InterlockedDecrement64(__int64 volatile *) |
| _InterlockedDecrement64_acq | __int64 _InterlockedDecrement64_acq(__int64 volatile *) |
| _InterlockedDecrement64_nf | __int64 _InterlockedDecrement64_nf(__int64 volatile *) |
| _InterlockedDecrement64_rel | __int64 _InterlockedDecrement64_rel(__int64 volatile *) |
| _InterlockedDecrement_acq | long _InterlockedDecrement_acq(long volatile *) |
| _InterlockedDecrement_nf | long _InterlockedDecrement_nf(long volatile *) |
| _InterlockedDecrement_rel | long _InterlockedDecrement_rel(long volatile *) |
| _InterlockedExchange | long __cdecl _InterlockedExchange(long volatile * _Target, long) |
| _InterlockedExchange16 | short _InterlockedExchange16(short volatile * _Target, short) |
| _InterlockedExchange16_acq | short _InterlockedExchange16_acq(short volatile * _Target, short) |
| _InterlockedExchange16_nf | short _InterlockedExchange16_nf(short volatile * _Target, short) |
| _InterlockedExchange64 | __int64 _InterlockedExchange64(__int64 volatile * _Target, __int64) |
| _InterlockedExchange64_acq | __int64 _InterlockedExchange64_acq(__int64 volatile * _Target, __int64) |
| _InterlockedExchange64_nf | __int64 _InterlockedExchange64_nf(__int64 volatile * _Target, __int64) |
| _InterlockedExchange8 | char _InterlockedExchange8(char volatile * _Target, char) |
| _InterlockedExchange8_acq | char _InterlockedExchange8_acq(char volatile * _Target, char) |
| _InterlockedExchange8_nf | char _InterlockedExchange8_nf(char volatile * _Target, char) |
| _InterlockedExchangeAdd | long __cdecl _InterlockedExchangeAdd(long volatile *, long) |
| _InterlockedExchangeAdd16 | short _InterlockedExchangeAdd16(short volatile *, short) |
| _InterlockedExchangeAdd16_acq | short _InterlockedExchangeAdd16_acq(short volatile *, short) |
| _InterlockedExchangeAdd16_nf | short _InterlockedExchangeAdd16_nf(short volatile *, short) |
| _InterlockedExchangeAdd16_rel | short _InterlockedExchangeAdd16_rel(short volatile *, short) |
| _InterlockedExchangeAdd64 | __int64 _InterlockedExchangeAdd64(__int64 volatile *, __int64) |
| _InterlockedExchangeAdd64_acq | __int64 _InterlockedExchangeAdd64_acq(__int64 volatile *, __int64) |
| _InterlockedExchangeAdd64_nf | __int64 _InterlockedExchangeAdd64_nf(__int64 volatile *, __int64) |
| _InterlockedExchangeAdd64_rel | __int64 _InterlockedExchangeAdd64_rel(__int64 volatile *, __int64) |
| _InterlockedExchangeAdd8 | char _InterlockedExchangeAdd8(char volatile *, char) |
| _InterlockedExchangeAdd8_acq | char _InterlockedExchangeAdd8_acq(char volatile *, char) |
| _InterlockedExchangeAdd8_nf | char _InterlockedExchangeAdd8_nf(char volatile *, char) |
| _InterlockedExchangeAdd8_rel | char _InterlockedExchangeAdd8_rel(char volatile *, char) |
| _InterlockedExchangeAdd_acq | long _InterlockedExchangeAdd_acq(long volatile *, long) |
| _InterlockedExchangeAdd_nf | long _InterlockedExchangeAdd_nf(long volatile *, long) |
| _InterlockedExchangeAdd_rel | long _InterlockedExchangeAdd_rel(long volatile *, long) |
| _InterlockedExchangePointer | void * _InterlockedExchangePointer(void * volatile * _Target, void *) |
| _InterlockedExchangePointer_acq | void * _InterlockedExchangePointer_acq(void * volatile * _Target, void *) |
| _InterlockedExchangePointer_nf | void * _InterlockedExchangePointer_nf(void * volatile * _Target, void *) |
| _InterlockedExchange_acq | long _InterlockedExchange_acq(long volatile * _Target, long) |
| _InterlockedExchange_nf | long _InterlockedExchange_nf(long volatile * _Target, long) |
| _InterlockedIncrement | long __cdecl _InterlockedIncrement(long volatile *) |
| _InterlockedIncrement16 | short _InterlockedIncrement16(short volatile *) |
| _InterlockedIncrement16_acq | short _InterlockedIncrement16_acq(short volatile *) |
| _InterlockedIncrement16_nf | short _InterlockedIncrement16_nf(short volatile *) |
| _InterlockedIncrement16_rel | short _InterlockedIncrement16_rel(short volatile *) |
| _InterlockedIncrement64 | __int64 _InterlockedIncrement64(__int64 volatile *) |
| _InterlockedIncrement64_acq | __int64 _InterlockedIncrement64_acq(__int64 volatile *) |
| _InterlockedIncrement64_nf | __int64 _InterlockedIncrement64_nf(__int64 volatile *) |
| _InterlockedIncrement64_rel | __int64 _InterlockedIncrement64_rel(__int64 volatile *) |
| _InterlockedIncrement_acq | long _InterlockedIncrement_acq(long volatile *) |
| _InterlockedIncrement_nf | long _InterlockedIncrement_nf(long volatile *) |
| _InterlockedIncrement_rel | long _InterlockedIncrement_rel(long volatile *) |
| _InterlockedOr | long _InterlockedOr(long volatile *, long) |
| _InterlockedOr16 | short _InterlockedOr16(short volatile *, short) |
| _InterlockedOr16_acq | short _InterlockedOr16_acq(short volatile *, short) |
| _InterlockedOr16_nf | short _InterlockedOr16_nf(short volatile *, short) |
| _InterlockedOr16_rel | short _InterlockedOr16_rel(short volatile *, short) |
| _InterlockedOr64 | __int64 _InterlockedOr64(__int64 volatile *, __int64) |
| _InterlockedOr64_acq | __int64 _InterlockedOr64_acq(__int64 volatile *, __int64) |
| _InterlockedOr64_nf | __int64 _InterlockedOr64_nf(__int64 volatile *, __int64) |
| _InterlockedOr64_rel | __int64 _InterlockedOr64_rel(__int64 volatile *, __int64) |
| _InterlockedOr8 | char _InterlockedOr8(char volatile *, char) |
| _InterlockedOr8_acq | char _InterlockedOr8_acq(char volatile *, char) |
| _InterlockedOr8_nf | char _InterlockedOr8_nf(char volatile *, char) |
| _InterlockedOr8_rel | char _InterlockedOr8_rel(char volatile *, char) |
| _InterlockedOr_acq | long _InterlockedOr_acq(long volatile *, long) |
| _InterlockedOr_nf | long _InterlockedOr_nf(long volatile *, long) |
| _InterlockedOr_rel | long _InterlockedOr_rel(long volatile *, long) |
| _InterlockedXor | long _InterlockedXor(long volatile *, long) |
| _InterlockedXor16 | short _InterlockedXor16(short volatile *, short) |
| _InterlockedXor16_acq | short _InterlockedXor16_acq(short volatile *, short) |
| _InterlockedXor16_nf | short _InterlockedXor16_nf(short volatile *, short) |
| _InterlockedXor16_rel | short _InterlockedXor16_rel(short volatile *, short) |
| _InterlockedXor64 | __int64 _InterlockedXor64(__int64 volatile *, __int64) |
| _InterlockedXor64_acq | __int64 _InterlockedXor64_acq(__int64 volatile *, __int64) |
| _InterlockedXor64_nf | __int64 _InterlockedXor64_nf(__int64 volatile *, __int64) |
| _InterlockedXor64_rel | __int64 _InterlockedXor64_rel(__int64 volatile *, __int64) |
| _InterlockedXor8 | char _InterlockedXor8(char volatile *, char) |
| _InterlockedXor8_acq | char _InterlockedXor8_acq(char volatile *, char) |
| _InterlockedXor8_nf | char _InterlockedXor8_nf(char volatile *, char) |
| _InterlockedXor8_rel | char _InterlockedXor8_rel(char volatile *, char) |
| _InterlockedXor_acq | long _InterlockedXor_acq(long volatile *, long) |
| _InterlockedXor_nf | long _InterlockedXor_nf(long volatile *, long) |
| _InterlockedXor_rel | long _InterlockedXor_rel(long volatile *, long) |
_interlockedbittest intrínsecos
Los intrínsecos de prueba de bits sin formato entrelazados son comunes a todas las plataformas. ARM agrega variantes , y , que simplemente modifican la semántica de barrera de una operación, como se describe en _nf _acq_rel sufijo _nf_acq anteriormente en este artículo.
| Nombre de la función | Prototipo de función |
|---|---|
| _interlockedbittestandreset | unsigned char _interlockedbittestandreset(long volatile *, long) |
| _interlockedbittestandreset_acq | unsigned char _interlockedbittestandreset_acq(long volatile *, long) |
| _interlockedbittestandreset_nf | unsigned char _interlockedbittestandreset_nf(long volatile *, long) |
| _interlockedbittestandreset_rel | unsigned char _interlockedbittestandreset_rel(long volatile *, long) |
| _interlockedbittestandset | unsigned char _interlockedbittestandset(long volatile *, long) |
| _interlockedbittestandset_acq | unsigned char _interlockedbittestandset_acq(long volatile *, long) |
| _interlockedbittestandset_nf | unsigned char _interlockedbittestandset_nf(long volatile *, long) |
| _interlockedbittestandset_rel | unsigned char _interlockedbittestandset_rel(long volatile *, long) |
Vea también
Intrínsecos del compilador
Intrínsecos de ARM64
Referencia del ensamblador de ARM
Referencia del lenguaje C++