Returns the logical xor of the arguments.
#define vxorl(a0, a1, type)
#define vxorl_e(a0, a1, type, simd_ext)
#define nsimd_xorl(a0, a1)
template <NSIMD_CONCEPT_VALUE_TYPE T> typename simd_traits<T, NSIMD_SIMD>::simd_vectorl NSIMD_VECTORCALL xorl(typename simd_traits<T, NSIMD_SIMD>::simd_vectorl a0, typename simd_traits<T, NSIMD_SIMD>::simd_vectorl a1, T);
template <NSIMD_CONCEPT_VALUE_TYPE T, NSIMD_CONCEPT_SIMD_EXT SimdExt> packl<T, 1, SimdExt> xorl(packl<T, 1, SimdExt> const& a0, packl<T, 1, SimdExt> const& a1);
template <NSIMD_CONCEPT_VALUE_TYPE T, int N, NSIMD_CONCEPT_SIMD_EXT SimdExt> packl<T, N, SimdExt> xorl(packl<T, N, SimdExt> const& a0, packl<T, N, SimdExt> const& a1);
nsimd_avx2_vlf64 NSIMD_VECTORCALL nsimd_xorl_avx2_f64(nsimd_avx2_vlf64 a0, nsimd_avx2_vlf64 a1);
nsimd_avx2_vlf32 NSIMD_VECTORCALL nsimd_xorl_avx2_f32(nsimd_avx2_vlf32 a0, nsimd_avx2_vlf32 a1);
nsimd_avx2_vlf16 NSIMD_VECTORCALL nsimd_xorl_avx2_f16(nsimd_avx2_vlf16 a0, nsimd_avx2_vlf16 a1);
nsimd_avx2_vli64 NSIMD_VECTORCALL nsimd_xorl_avx2_i64(nsimd_avx2_vli64 a0, nsimd_avx2_vli64 a1);
nsimd_avx2_vli32 NSIMD_VECTORCALL nsimd_xorl_avx2_i32(nsimd_avx2_vli32 a0, nsimd_avx2_vli32 a1);
nsimd_avx2_vli16 NSIMD_VECTORCALL nsimd_xorl_avx2_i16(nsimd_avx2_vli16 a0, nsimd_avx2_vli16 a1);
nsimd_avx2_vli8 NSIMD_VECTORCALL nsimd_xorl_avx2_i8(nsimd_avx2_vli8 a0, nsimd_avx2_vli8 a1);
nsimd_avx2_vlu64 NSIMD_VECTORCALL nsimd_xorl_avx2_u64(nsimd_avx2_vlu64 a0, nsimd_avx2_vlu64 a1);
nsimd_avx2_vlu32 NSIMD_VECTORCALL nsimd_xorl_avx2_u32(nsimd_avx2_vlu32 a0, nsimd_avx2_vlu32 a1);
nsimd_avx2_vlu16 NSIMD_VECTORCALL nsimd_xorl_avx2_u16(nsimd_avx2_vlu16 a0, nsimd_avx2_vlu16 a1);
nsimd_avx2_vlu8 NSIMD_VECTORCALL nsimd_xorl_avx2_u8(nsimd_avx2_vlu8 a0, nsimd_avx2_vlu8 a1);
nsimd_sve512_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve512_f64(nsimd_sve512_vlf64 a0, nsimd_sve512_vlf64 a1);
nsimd_sve512_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve512_f32(nsimd_sve512_vlf32 a0, nsimd_sve512_vlf32 a1);
nsimd_sve512_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve512_f16(nsimd_sve512_vlf16 a0, nsimd_sve512_vlf16 a1);
nsimd_sve512_vli64 NSIMD_VECTORCALL nsimd_xorl_sve512_i64(nsimd_sve512_vli64 a0, nsimd_sve512_vli64 a1);
nsimd_sve512_vli32 NSIMD_VECTORCALL nsimd_xorl_sve512_i32(nsimd_sve512_vli32 a0, nsimd_sve512_vli32 a1);
nsimd_sve512_vli16 NSIMD_VECTORCALL nsimd_xorl_sve512_i16(nsimd_sve512_vli16 a0, nsimd_sve512_vli16 a1);
nsimd_sve512_vli8 NSIMD_VECTORCALL nsimd_xorl_sve512_i8(nsimd_sve512_vli8 a0, nsimd_sve512_vli8 a1);
nsimd_sve512_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve512_u64(nsimd_sve512_vlu64 a0, nsimd_sve512_vlu64 a1);
nsimd_sve512_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve512_u32(nsimd_sve512_vlu32 a0, nsimd_sve512_vlu32 a1);
nsimd_sve512_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve512_u16(nsimd_sve512_vlu16 a0, nsimd_sve512_vlu16 a1);
nsimd_sve512_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve512_u8(nsimd_sve512_vlu8 a0, nsimd_sve512_vlu8 a1);
nsimd_sve_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve_f64(nsimd_sve_vlf64 a0, nsimd_sve_vlf64 a1);
nsimd_sve_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve_f32(nsimd_sve_vlf32 a0, nsimd_sve_vlf32 a1);
nsimd_sve_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve_f16(nsimd_sve_vlf16 a0, nsimd_sve_vlf16 a1);
nsimd_sve_vli64 NSIMD_VECTORCALL nsimd_xorl_sve_i64(nsimd_sve_vli64 a0, nsimd_sve_vli64 a1);
nsimd_sve_vli32 NSIMD_VECTORCALL nsimd_xorl_sve_i32(nsimd_sve_vli32 a0, nsimd_sve_vli32 a1);
nsimd_sve_vli16 NSIMD_VECTORCALL nsimd_xorl_sve_i16(nsimd_sve_vli16 a0, nsimd_sve_vli16 a1);
nsimd_sve_vli8 NSIMD_VECTORCALL nsimd_xorl_sve_i8(nsimd_sve_vli8 a0, nsimd_sve_vli8 a1);
nsimd_sve_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve_u64(nsimd_sve_vlu64 a0, nsimd_sve_vlu64 a1);
nsimd_sve_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve_u32(nsimd_sve_vlu32 a0, nsimd_sve_vlu32 a1);
nsimd_sve_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve_u16(nsimd_sve_vlu16 a0, nsimd_sve_vlu16 a1);
nsimd_sve_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve_u8(nsimd_sve_vlu8 a0, nsimd_sve_vlu8 a1);
nsimd_cpu_vlf64 NSIMD_VECTORCALL nsimd_xorl_cpu_f64(nsimd_cpu_vlf64 a0, nsimd_cpu_vlf64 a1);
nsimd_cpu_vlf32 NSIMD_VECTORCALL nsimd_xorl_cpu_f32(nsimd_cpu_vlf32 a0, nsimd_cpu_vlf32 a1);
nsimd_cpu_vlf16 NSIMD_VECTORCALL nsimd_xorl_cpu_f16(nsimd_cpu_vlf16 a0, nsimd_cpu_vlf16 a1);
nsimd_cpu_vli64 NSIMD_VECTORCALL nsimd_xorl_cpu_i64(nsimd_cpu_vli64 a0, nsimd_cpu_vli64 a1);
nsimd_cpu_vli32 NSIMD_VECTORCALL nsimd_xorl_cpu_i32(nsimd_cpu_vli32 a0, nsimd_cpu_vli32 a1);
nsimd_cpu_vli16 NSIMD_VECTORCALL nsimd_xorl_cpu_i16(nsimd_cpu_vli16 a0, nsimd_cpu_vli16 a1);
nsimd_cpu_vli8 NSIMD_VECTORCALL nsimd_xorl_cpu_i8(nsimd_cpu_vli8 a0, nsimd_cpu_vli8 a1);
nsimd_cpu_vlu64 NSIMD_VECTORCALL nsimd_xorl_cpu_u64(nsimd_cpu_vlu64 a0, nsimd_cpu_vlu64 a1);
nsimd_cpu_vlu32 NSIMD_VECTORCALL nsimd_xorl_cpu_u32(nsimd_cpu_vlu32 a0, nsimd_cpu_vlu32 a1);
nsimd_cpu_vlu16 NSIMD_VECTORCALL nsimd_xorl_cpu_u16(nsimd_cpu_vlu16 a0, nsimd_cpu_vlu16 a1);
nsimd_cpu_vlu8 NSIMD_VECTORCALL nsimd_xorl_cpu_u8(nsimd_cpu_vlu8 a0, nsimd_cpu_vlu8 a1);
nsimd_sve2048_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve2048_f64(nsimd_sve2048_vlf64 a0, nsimd_sve2048_vlf64 a1);
nsimd_sve2048_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve2048_f32(nsimd_sve2048_vlf32 a0, nsimd_sve2048_vlf32 a1);
nsimd_sve2048_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve2048_f16(nsimd_sve2048_vlf16 a0, nsimd_sve2048_vlf16 a1);
nsimd_sve2048_vli64 NSIMD_VECTORCALL nsimd_xorl_sve2048_i64(nsimd_sve2048_vli64 a0, nsimd_sve2048_vli64 a1);
nsimd_sve2048_vli32 NSIMD_VECTORCALL nsimd_xorl_sve2048_i32(nsimd_sve2048_vli32 a0, nsimd_sve2048_vli32 a1);
nsimd_sve2048_vli16 NSIMD_VECTORCALL nsimd_xorl_sve2048_i16(nsimd_sve2048_vli16 a0, nsimd_sve2048_vli16 a1);
nsimd_sve2048_vli8 NSIMD_VECTORCALL nsimd_xorl_sve2048_i8(nsimd_sve2048_vli8 a0, nsimd_sve2048_vli8 a1);
nsimd_sve2048_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve2048_u64(nsimd_sve2048_vlu64 a0, nsimd_sve2048_vlu64 a1);
nsimd_sve2048_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve2048_u32(nsimd_sve2048_vlu32 a0, nsimd_sve2048_vlu32 a1);
nsimd_sve2048_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve2048_u16(nsimd_sve2048_vlu16 a0, nsimd_sve2048_vlu16 a1);
nsimd_sve2048_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve2048_u8(nsimd_sve2048_vlu8 a0, nsimd_sve2048_vlu8 a1);
nsimd_neon128_vlf64 NSIMD_VECTORCALL nsimd_xorl_neon128_f64(nsimd_neon128_vlf64 a0, nsimd_neon128_vlf64 a1);
nsimd_neon128_vlf32 NSIMD_VECTORCALL nsimd_xorl_neon128_f32(nsimd_neon128_vlf32 a0, nsimd_neon128_vlf32 a1);
nsimd_neon128_vlf16 NSIMD_VECTORCALL nsimd_xorl_neon128_f16(nsimd_neon128_vlf16 a0, nsimd_neon128_vlf16 a1);
nsimd_neon128_vli64 NSIMD_VECTORCALL nsimd_xorl_neon128_i64(nsimd_neon128_vli64 a0, nsimd_neon128_vli64 a1);
nsimd_neon128_vli32 NSIMD_VECTORCALL nsimd_xorl_neon128_i32(nsimd_neon128_vli32 a0, nsimd_neon128_vli32 a1);
nsimd_neon128_vli16 NSIMD_VECTORCALL nsimd_xorl_neon128_i16(nsimd_neon128_vli16 a0, nsimd_neon128_vli16 a1);
nsimd_neon128_vli8 NSIMD_VECTORCALL nsimd_xorl_neon128_i8(nsimd_neon128_vli8 a0, nsimd_neon128_vli8 a1);
nsimd_neon128_vlu64 NSIMD_VECTORCALL nsimd_xorl_neon128_u64(nsimd_neon128_vlu64 a0, nsimd_neon128_vlu64 a1);
nsimd_neon128_vlu32 NSIMD_VECTORCALL nsimd_xorl_neon128_u32(nsimd_neon128_vlu32 a0, nsimd_neon128_vlu32 a1);
nsimd_neon128_vlu16 NSIMD_VECTORCALL nsimd_xorl_neon128_u16(nsimd_neon128_vlu16 a0, nsimd_neon128_vlu16 a1);
nsimd_neon128_vlu8 NSIMD_VECTORCALL nsimd_xorl_neon128_u8(nsimd_neon128_vlu8 a0, nsimd_neon128_vlu8 a1);
nsimd_avx512_skylake_vlf64 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_f64(nsimd_avx512_skylake_vlf64 a0, nsimd_avx512_skylake_vlf64 a1);
nsimd_avx512_skylake_vlf32 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_f32(nsimd_avx512_skylake_vlf32 a0, nsimd_avx512_skylake_vlf32 a1);
nsimd_avx512_skylake_vlf16 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_f16(nsimd_avx512_skylake_vlf16 a0, nsimd_avx512_skylake_vlf16 a1);
nsimd_avx512_skylake_vli64 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_i64(nsimd_avx512_skylake_vli64 a0, nsimd_avx512_skylake_vli64 a1);
nsimd_avx512_skylake_vli32 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_i32(nsimd_avx512_skylake_vli32 a0, nsimd_avx512_skylake_vli32 a1);
nsimd_avx512_skylake_vli16 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_i16(nsimd_avx512_skylake_vli16 a0, nsimd_avx512_skylake_vli16 a1);
nsimd_avx512_skylake_vli8 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_i8(nsimd_avx512_skylake_vli8 a0, nsimd_avx512_skylake_vli8 a1);
nsimd_avx512_skylake_vlu64 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_u64(nsimd_avx512_skylake_vlu64 a0, nsimd_avx512_skylake_vlu64 a1);
nsimd_avx512_skylake_vlu32 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_u32(nsimd_avx512_skylake_vlu32 a0, nsimd_avx512_skylake_vlu32 a1);
nsimd_avx512_skylake_vlu16 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_u16(nsimd_avx512_skylake_vlu16 a0, nsimd_avx512_skylake_vlu16 a1);
nsimd_avx512_skylake_vlu8 NSIMD_VECTORCALL nsimd_xorl_avx512_skylake_u8(nsimd_avx512_skylake_vlu8 a0, nsimd_avx512_skylake_vlu8 a1);
nsimd_aarch64_vlf64 NSIMD_VECTORCALL nsimd_xorl_aarch64_f64(nsimd_aarch64_vlf64 a0, nsimd_aarch64_vlf64 a1);
nsimd_aarch64_vlf32 NSIMD_VECTORCALL nsimd_xorl_aarch64_f32(nsimd_aarch64_vlf32 a0, nsimd_aarch64_vlf32 a1);
nsimd_aarch64_vlf16 NSIMD_VECTORCALL nsimd_xorl_aarch64_f16(nsimd_aarch64_vlf16 a0, nsimd_aarch64_vlf16 a1);
nsimd_aarch64_vli64 NSIMD_VECTORCALL nsimd_xorl_aarch64_i64(nsimd_aarch64_vli64 a0, nsimd_aarch64_vli64 a1);
nsimd_aarch64_vli32 NSIMD_VECTORCALL nsimd_xorl_aarch64_i32(nsimd_aarch64_vli32 a0, nsimd_aarch64_vli32 a1);
nsimd_aarch64_vli16 NSIMD_VECTORCALL nsimd_xorl_aarch64_i16(nsimd_aarch64_vli16 a0, nsimd_aarch64_vli16 a1);
nsimd_aarch64_vli8 NSIMD_VECTORCALL nsimd_xorl_aarch64_i8(nsimd_aarch64_vli8 a0, nsimd_aarch64_vli8 a1);
nsimd_aarch64_vlu64 NSIMD_VECTORCALL nsimd_xorl_aarch64_u64(nsimd_aarch64_vlu64 a0, nsimd_aarch64_vlu64 a1);
nsimd_aarch64_vlu32 NSIMD_VECTORCALL nsimd_xorl_aarch64_u32(nsimd_aarch64_vlu32 a0, nsimd_aarch64_vlu32 a1);
nsimd_aarch64_vlu16 NSIMD_VECTORCALL nsimd_xorl_aarch64_u16(nsimd_aarch64_vlu16 a0, nsimd_aarch64_vlu16 a1);
nsimd_aarch64_vlu8 NSIMD_VECTORCALL nsimd_xorl_aarch64_u8(nsimd_aarch64_vlu8 a0, nsimd_aarch64_vlu8 a1);
nsimd_avx512_knl_vlf64 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_f64(nsimd_avx512_knl_vlf64 a0, nsimd_avx512_knl_vlf64 a1);
nsimd_avx512_knl_vlf32 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_f32(nsimd_avx512_knl_vlf32 a0, nsimd_avx512_knl_vlf32 a1);
nsimd_avx512_knl_vlf16 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_f16(nsimd_avx512_knl_vlf16 a0, nsimd_avx512_knl_vlf16 a1);
nsimd_avx512_knl_vli64 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_i64(nsimd_avx512_knl_vli64 a0, nsimd_avx512_knl_vli64 a1);
nsimd_avx512_knl_vli32 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_i32(nsimd_avx512_knl_vli32 a0, nsimd_avx512_knl_vli32 a1);
nsimd_avx512_knl_vli16 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_i16(nsimd_avx512_knl_vli16 a0, nsimd_avx512_knl_vli16 a1);
nsimd_avx512_knl_vli8 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_i8(nsimd_avx512_knl_vli8 a0, nsimd_avx512_knl_vli8 a1);
nsimd_avx512_knl_vlu64 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_u64(nsimd_avx512_knl_vlu64 a0, nsimd_avx512_knl_vlu64 a1);
nsimd_avx512_knl_vlu32 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_u32(nsimd_avx512_knl_vlu32 a0, nsimd_avx512_knl_vlu32 a1);
nsimd_avx512_knl_vlu16 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_u16(nsimd_avx512_knl_vlu16 a0, nsimd_avx512_knl_vlu16 a1);
nsimd_avx512_knl_vlu8 NSIMD_VECTORCALL nsimd_xorl_avx512_knl_u8(nsimd_avx512_knl_vlu8 a0, nsimd_avx512_knl_vlu8 a1);
nsimd_sse2_vlf64 NSIMD_VECTORCALL nsimd_xorl_sse2_f64(nsimd_sse2_vlf64 a0, nsimd_sse2_vlf64 a1);
nsimd_sse2_vlf32 NSIMD_VECTORCALL nsimd_xorl_sse2_f32(nsimd_sse2_vlf32 a0, nsimd_sse2_vlf32 a1);
nsimd_sse2_vlf16 NSIMD_VECTORCALL nsimd_xorl_sse2_f16(nsimd_sse2_vlf16 a0, nsimd_sse2_vlf16 a1);
nsimd_sse2_vli64 NSIMD_VECTORCALL nsimd_xorl_sse2_i64(nsimd_sse2_vli64 a0, nsimd_sse2_vli64 a1);
nsimd_sse2_vli32 NSIMD_VECTORCALL nsimd_xorl_sse2_i32(nsimd_sse2_vli32 a0, nsimd_sse2_vli32 a1);
nsimd_sse2_vli16 NSIMD_VECTORCALL nsimd_xorl_sse2_i16(nsimd_sse2_vli16 a0, nsimd_sse2_vli16 a1);
nsimd_sse2_vli8 NSIMD_VECTORCALL nsimd_xorl_sse2_i8(nsimd_sse2_vli8 a0, nsimd_sse2_vli8 a1);
nsimd_sse2_vlu64 NSIMD_VECTORCALL nsimd_xorl_sse2_u64(nsimd_sse2_vlu64 a0, nsimd_sse2_vlu64 a1);
nsimd_sse2_vlu32 NSIMD_VECTORCALL nsimd_xorl_sse2_u32(nsimd_sse2_vlu32 a0, nsimd_sse2_vlu32 a1);
nsimd_sse2_vlu16 NSIMD_VECTORCALL nsimd_xorl_sse2_u16(nsimd_sse2_vlu16 a0, nsimd_sse2_vlu16 a1);
nsimd_sse2_vlu8 NSIMD_VECTORCALL nsimd_xorl_sse2_u8(nsimd_sse2_vlu8 a0, nsimd_sse2_vlu8 a1);
nsimd_sse42_vlf64 NSIMD_VECTORCALL nsimd_xorl_sse42_f64(nsimd_sse42_vlf64 a0, nsimd_sse42_vlf64 a1);
nsimd_sse42_vlf32 NSIMD_VECTORCALL nsimd_xorl_sse42_f32(nsimd_sse42_vlf32 a0, nsimd_sse42_vlf32 a1);
nsimd_sse42_vlf16 NSIMD_VECTORCALL nsimd_xorl_sse42_f16(nsimd_sse42_vlf16 a0, nsimd_sse42_vlf16 a1);
nsimd_sse42_vli64 NSIMD_VECTORCALL nsimd_xorl_sse42_i64(nsimd_sse42_vli64 a0, nsimd_sse42_vli64 a1);
nsimd_sse42_vli32 NSIMD_VECTORCALL nsimd_xorl_sse42_i32(nsimd_sse42_vli32 a0, nsimd_sse42_vli32 a1);
nsimd_sse42_vli16 NSIMD_VECTORCALL nsimd_xorl_sse42_i16(nsimd_sse42_vli16 a0, nsimd_sse42_vli16 a1);
nsimd_sse42_vli8 NSIMD_VECTORCALL nsimd_xorl_sse42_i8(nsimd_sse42_vli8 a0, nsimd_sse42_vli8 a1);
nsimd_sse42_vlu64 NSIMD_VECTORCALL nsimd_xorl_sse42_u64(nsimd_sse42_vlu64 a0, nsimd_sse42_vlu64 a1);
nsimd_sse42_vlu32 NSIMD_VECTORCALL nsimd_xorl_sse42_u32(nsimd_sse42_vlu32 a0, nsimd_sse42_vlu32 a1);
nsimd_sse42_vlu16 NSIMD_VECTORCALL nsimd_xorl_sse42_u16(nsimd_sse42_vlu16 a0, nsimd_sse42_vlu16 a1);
nsimd_sse42_vlu8 NSIMD_VECTORCALL nsimd_xorl_sse42_u8(nsimd_sse42_vlu8 a0, nsimd_sse42_vlu8 a1);
nsimd_sve256_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve256_f64(nsimd_sve256_vlf64 a0, nsimd_sve256_vlf64 a1);
nsimd_sve256_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve256_f32(nsimd_sve256_vlf32 a0, nsimd_sve256_vlf32 a1);
nsimd_sve256_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve256_f16(nsimd_sve256_vlf16 a0, nsimd_sve256_vlf16 a1);
nsimd_sve256_vli64 NSIMD_VECTORCALL nsimd_xorl_sve256_i64(nsimd_sve256_vli64 a0, nsimd_sve256_vli64 a1);
nsimd_sve256_vli32 NSIMD_VECTORCALL nsimd_xorl_sve256_i32(nsimd_sve256_vli32 a0, nsimd_sve256_vli32 a1);
nsimd_sve256_vli16 NSIMD_VECTORCALL nsimd_xorl_sve256_i16(nsimd_sve256_vli16 a0, nsimd_sve256_vli16 a1);
nsimd_sve256_vli8 NSIMD_VECTORCALL nsimd_xorl_sve256_i8(nsimd_sve256_vli8 a0, nsimd_sve256_vli8 a1);
nsimd_sve256_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve256_u64(nsimd_sve256_vlu64 a0, nsimd_sve256_vlu64 a1);
nsimd_sve256_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve256_u32(nsimd_sve256_vlu32 a0, nsimd_sve256_vlu32 a1);
nsimd_sve256_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve256_u16(nsimd_sve256_vlu16 a0, nsimd_sve256_vlu16 a1);
nsimd_sve256_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve256_u8(nsimd_sve256_vlu8 a0, nsimd_sve256_vlu8 a1);
nsimd_sve1024_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve1024_f64(nsimd_sve1024_vlf64 a0, nsimd_sve1024_vlf64 a1);
nsimd_sve1024_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve1024_f32(nsimd_sve1024_vlf32 a0, nsimd_sve1024_vlf32 a1);
nsimd_sve1024_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve1024_f16(nsimd_sve1024_vlf16 a0, nsimd_sve1024_vlf16 a1);
nsimd_sve1024_vli64 NSIMD_VECTORCALL nsimd_xorl_sve1024_i64(nsimd_sve1024_vli64 a0, nsimd_sve1024_vli64 a1);
nsimd_sve1024_vli32 NSIMD_VECTORCALL nsimd_xorl_sve1024_i32(nsimd_sve1024_vli32 a0, nsimd_sve1024_vli32 a1);
nsimd_sve1024_vli16 NSIMD_VECTORCALL nsimd_xorl_sve1024_i16(nsimd_sve1024_vli16 a0, nsimd_sve1024_vli16 a1);
nsimd_sve1024_vli8 NSIMD_VECTORCALL nsimd_xorl_sve1024_i8(nsimd_sve1024_vli8 a0, nsimd_sve1024_vli8 a1);
nsimd_sve1024_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve1024_u64(nsimd_sve1024_vlu64 a0, nsimd_sve1024_vlu64 a1);
nsimd_sve1024_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve1024_u32(nsimd_sve1024_vlu32 a0, nsimd_sve1024_vlu32 a1);
nsimd_sve1024_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve1024_u16(nsimd_sve1024_vlu16 a0, nsimd_sve1024_vlu16 a1);
nsimd_sve1024_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve1024_u8(nsimd_sve1024_vlu8 a0, nsimd_sve1024_vlu8 a1);
nsimd_vsx_vlf64 NSIMD_VECTORCALL nsimd_xorl_vsx_f64(nsimd_vsx_vlf64 a0, nsimd_vsx_vlf64 a1);
nsimd_vsx_vlf32 NSIMD_VECTORCALL nsimd_xorl_vsx_f32(nsimd_vsx_vlf32 a0, nsimd_vsx_vlf32 a1);
nsimd_vsx_vlf16 NSIMD_VECTORCALL nsimd_xorl_vsx_f16(nsimd_vsx_vlf16 a0, nsimd_vsx_vlf16 a1);
nsimd_vsx_vli64 NSIMD_VECTORCALL nsimd_xorl_vsx_i64(nsimd_vsx_vli64 a0, nsimd_vsx_vli64 a1);
nsimd_vsx_vli32 NSIMD_VECTORCALL nsimd_xorl_vsx_i32(nsimd_vsx_vli32 a0, nsimd_vsx_vli32 a1);
nsimd_vsx_vli16 NSIMD_VECTORCALL nsimd_xorl_vsx_i16(nsimd_vsx_vli16 a0, nsimd_vsx_vli16 a1);
nsimd_vsx_vli8 NSIMD_VECTORCALL nsimd_xorl_vsx_i8(nsimd_vsx_vli8 a0, nsimd_vsx_vli8 a1);
nsimd_vsx_vlu64 NSIMD_VECTORCALL nsimd_xorl_vsx_u64(nsimd_vsx_vlu64 a0, nsimd_vsx_vlu64 a1);
nsimd_vsx_vlu32 NSIMD_VECTORCALL nsimd_xorl_vsx_u32(nsimd_vsx_vlu32 a0, nsimd_vsx_vlu32 a1);
nsimd_vsx_vlu16 NSIMD_VECTORCALL nsimd_xorl_vsx_u16(nsimd_vsx_vlu16 a0, nsimd_vsx_vlu16 a1);
nsimd_vsx_vlu8 NSIMD_VECTORCALL nsimd_xorl_vsx_u8(nsimd_vsx_vlu8 a0, nsimd_vsx_vlu8 a1);
nsimd_sve128_vlf64 NSIMD_VECTORCALL nsimd_xorl_sve128_f64(nsimd_sve128_vlf64 a0, nsimd_sve128_vlf64 a1);
nsimd_sve128_vlf32 NSIMD_VECTORCALL nsimd_xorl_sve128_f32(nsimd_sve128_vlf32 a0, nsimd_sve128_vlf32 a1);
nsimd_sve128_vlf16 NSIMD_VECTORCALL nsimd_xorl_sve128_f16(nsimd_sve128_vlf16 a0, nsimd_sve128_vlf16 a1);
nsimd_sve128_vli64 NSIMD_VECTORCALL nsimd_xorl_sve128_i64(nsimd_sve128_vli64 a0, nsimd_sve128_vli64 a1);
nsimd_sve128_vli32 NSIMD_VECTORCALL nsimd_xorl_sve128_i32(nsimd_sve128_vli32 a0, nsimd_sve128_vli32 a1);
nsimd_sve128_vli16 NSIMD_VECTORCALL nsimd_xorl_sve128_i16(nsimd_sve128_vli16 a0, nsimd_sve128_vli16 a1);
nsimd_sve128_vli8 NSIMD_VECTORCALL nsimd_xorl_sve128_i8(nsimd_sve128_vli8 a0, nsimd_sve128_vli8 a1);
nsimd_sve128_vlu64 NSIMD_VECTORCALL nsimd_xorl_sve128_u64(nsimd_sve128_vlu64 a0, nsimd_sve128_vlu64 a1);
nsimd_sve128_vlu32 NSIMD_VECTORCALL nsimd_xorl_sve128_u32(nsimd_sve128_vlu32 a0, nsimd_sve128_vlu32 a1);
nsimd_sve128_vlu16 NSIMD_VECTORCALL nsimd_xorl_sve128_u16(nsimd_sve128_vlu16 a0, nsimd_sve128_vlu16 a1);
nsimd_sve128_vlu8 NSIMD_VECTORCALL nsimd_xorl_sve128_u8(nsimd_sve128_vlu8 a0, nsimd_sve128_vlu8 a1);
nsimd_vmx_vlf64 NSIMD_VECTORCALL nsimd_xorl_vmx_f64(nsimd_vmx_vlf64 a0, nsimd_vmx_vlf64 a1);
nsimd_vmx_vlf32 NSIMD_VECTORCALL nsimd_xorl_vmx_f32(nsimd_vmx_vlf32 a0, nsimd_vmx_vlf32 a1);
nsimd_vmx_vlf16 NSIMD_VECTORCALL nsimd_xorl_vmx_f16(nsimd_vmx_vlf16 a0, nsimd_vmx_vlf16 a1);
nsimd_vmx_vli64 NSIMD_VECTORCALL nsimd_xorl_vmx_i64(nsimd_vmx_vli64 a0, nsimd_vmx_vli64 a1);
nsimd_vmx_vli32 NSIMD_VECTORCALL nsimd_xorl_vmx_i32(nsimd_vmx_vli32 a0, nsimd_vmx_vli32 a1);
nsimd_vmx_vli16 NSIMD_VECTORCALL nsimd_xorl_vmx_i16(nsimd_vmx_vli16 a0, nsimd_vmx_vli16 a1);
nsimd_vmx_vli8 NSIMD_VECTORCALL nsimd_xorl_vmx_i8(nsimd_vmx_vli8 a0, nsimd_vmx_vli8 a1);
nsimd_vmx_vlu64 NSIMD_VECTORCALL nsimd_xorl_vmx_u64(nsimd_vmx_vlu64 a0, nsimd_vmx_vlu64 a1);
nsimd_vmx_vlu32 NSIMD_VECTORCALL nsimd_xorl_vmx_u32(nsimd_vmx_vlu32 a0, nsimd_vmx_vlu32 a1);
nsimd_vmx_vlu16 NSIMD_VECTORCALL nsimd_xorl_vmx_u16(nsimd_vmx_vlu16 a0, nsimd_vmx_vlu16 a1);
nsimd_vmx_vlu8 NSIMD_VECTORCALL nsimd_xorl_vmx_u8(nsimd_vmx_vlu8 a0, nsimd_vmx_vlu8 a1);
nsimd_avx_vlf64 NSIMD_VECTORCALL nsimd_xorl_avx_f64(nsimd_avx_vlf64 a0, nsimd_avx_vlf64 a1);
nsimd_avx_vlf32 NSIMD_VECTORCALL nsimd_xorl_avx_f32(nsimd_avx_vlf32 a0, nsimd_avx_vlf32 a1);
nsimd_avx_vlf16 NSIMD_VECTORCALL nsimd_xorl_avx_f16(nsimd_avx_vlf16 a0, nsimd_avx_vlf16 a1);
nsimd_avx_vli64 NSIMD_VECTORCALL nsimd_xorl_avx_i64(nsimd_avx_vli64 a0, nsimd_avx_vli64 a1);
nsimd_avx_vli32 NSIMD_VECTORCALL nsimd_xorl_avx_i32(nsimd_avx_vli32 a0, nsimd_avx_vli32 a1);
nsimd_avx_vli16 NSIMD_VECTORCALL nsimd_xorl_avx_i16(nsimd_avx_vli16 a0, nsimd_avx_vli16 a1);
nsimd_avx_vli8 NSIMD_VECTORCALL nsimd_xorl_avx_i8(nsimd_avx_vli8 a0, nsimd_avx_vli8 a1);
nsimd_avx_vlu64 NSIMD_VECTORCALL nsimd_xorl_avx_u64(nsimd_avx_vlu64 a0, nsimd_avx_vlu64 a1);
nsimd_avx_vlu32 NSIMD_VECTORCALL nsimd_xorl_avx_u32(nsimd_avx_vlu32 a0, nsimd_avx_vlu32 a1);
nsimd_avx_vlu16 NSIMD_VECTORCALL nsimd_xorl_avx_u16(nsimd_avx_vlu16 a0, nsimd_avx_vlu16 a1);
nsimd_avx_vlu8 NSIMD_VECTORCALL nsimd_xorl_avx_u8(nsimd_avx_vlu8 a0, nsimd_avx_vlu8 a1);
nsimd_avx2_vlf64 NSIMD_VECTORCALL xorl(nsimd_avx2_vlf64 a0, nsimd_avx2_vlf64 a1, f64, avx2);
nsimd_avx2_vlf32 NSIMD_VECTORCALL xorl(nsimd_avx2_vlf32 a0, nsimd_avx2_vlf32 a1, f32, avx2);
nsimd_avx2_vlf16 NSIMD_VECTORCALL xorl(nsimd_avx2_vlf16 a0, nsimd_avx2_vlf16 a1, f16, avx2);
nsimd_avx2_vli64 NSIMD_VECTORCALL xorl(nsimd_avx2_vli64 a0, nsimd_avx2_vli64 a1, i64, avx2);
nsimd_avx2_vli32 NSIMD_VECTORCALL xorl(nsimd_avx2_vli32 a0, nsimd_avx2_vli32 a1, i32, avx2);
nsimd_avx2_vli16 NSIMD_VECTORCALL xorl(nsimd_avx2_vli16 a0, nsimd_avx2_vli16 a1, i16, avx2);
nsimd_avx2_vli8 NSIMD_VECTORCALL xorl(nsimd_avx2_vli8 a0, nsimd_avx2_vli8 a1, i8, avx2);
nsimd_avx2_vlu64 NSIMD_VECTORCALL xorl(nsimd_avx2_vlu64 a0, nsimd_avx2_vlu64 a1, u64, avx2);
nsimd_avx2_vlu32 NSIMD_VECTORCALL xorl(nsimd_avx2_vlu32 a0, nsimd_avx2_vlu32 a1, u32, avx2);
nsimd_avx2_vlu16 NSIMD_VECTORCALL xorl(nsimd_avx2_vlu16 a0, nsimd_avx2_vlu16 a1, u16, avx2);
nsimd_avx2_vlu8 NSIMD_VECTORCALL xorl(nsimd_avx2_vlu8 a0, nsimd_avx2_vlu8 a1, u8, avx2);
nsimd_sve512_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve512_vlf64 a0, nsimd_sve512_vlf64 a1, f64, sve512);
nsimd_sve512_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve512_vlf32 a0, nsimd_sve512_vlf32 a1, f32, sve512);
nsimd_sve512_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve512_vlf16 a0, nsimd_sve512_vlf16 a1, f16, sve512);
nsimd_sve512_vli64 NSIMD_VECTORCALL xorl(nsimd_sve512_vli64 a0, nsimd_sve512_vli64 a1, i64, sve512);
nsimd_sve512_vli32 NSIMD_VECTORCALL xorl(nsimd_sve512_vli32 a0, nsimd_sve512_vli32 a1, i32, sve512);
nsimd_sve512_vli16 NSIMD_VECTORCALL xorl(nsimd_sve512_vli16 a0, nsimd_sve512_vli16 a1, i16, sve512);
nsimd_sve512_vli8 NSIMD_VECTORCALL xorl(nsimd_sve512_vli8 a0, nsimd_sve512_vli8 a1, i8, sve512);
nsimd_sve512_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve512_vlu64 a0, nsimd_sve512_vlu64 a1, u64, sve512);
nsimd_sve512_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve512_vlu32 a0, nsimd_sve512_vlu32 a1, u32, sve512);
nsimd_sve512_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve512_vlu16 a0, nsimd_sve512_vlu16 a1, u16, sve512);
nsimd_sve512_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve512_vlu8 a0, nsimd_sve512_vlu8 a1, u8, sve512);
nsimd_sve_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve_vlf64 a0, nsimd_sve_vlf64 a1, f64, sve);
nsimd_sve_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve_vlf32 a0, nsimd_sve_vlf32 a1, f32, sve);
nsimd_sve_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve_vlf16 a0, nsimd_sve_vlf16 a1, f16, sve);
nsimd_sve_vli64 NSIMD_VECTORCALL xorl(nsimd_sve_vli64 a0, nsimd_sve_vli64 a1, i64, sve);
nsimd_sve_vli32 NSIMD_VECTORCALL xorl(nsimd_sve_vli32 a0, nsimd_sve_vli32 a1, i32, sve);
nsimd_sve_vli16 NSIMD_VECTORCALL xorl(nsimd_sve_vli16 a0, nsimd_sve_vli16 a1, i16, sve);
nsimd_sve_vli8 NSIMD_VECTORCALL xorl(nsimd_sve_vli8 a0, nsimd_sve_vli8 a1, i8, sve);
nsimd_sve_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve_vlu64 a0, nsimd_sve_vlu64 a1, u64, sve);
nsimd_sve_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve_vlu32 a0, nsimd_sve_vlu32 a1, u32, sve);
nsimd_sve_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve_vlu16 a0, nsimd_sve_vlu16 a1, u16, sve);
nsimd_sve_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve_vlu8 a0, nsimd_sve_vlu8 a1, u8, sve);
nsimd_cpu_vlf64 NSIMD_VECTORCALL xorl(nsimd_cpu_vlf64 a0, nsimd_cpu_vlf64 a1, f64, cpu);
nsimd_cpu_vlf32 NSIMD_VECTORCALL xorl(nsimd_cpu_vlf32 a0, nsimd_cpu_vlf32 a1, f32, cpu);
nsimd_cpu_vlf16 NSIMD_VECTORCALL xorl(nsimd_cpu_vlf16 a0, nsimd_cpu_vlf16 a1, f16, cpu);
nsimd_cpu_vli64 NSIMD_VECTORCALL xorl(nsimd_cpu_vli64 a0, nsimd_cpu_vli64 a1, i64, cpu);
nsimd_cpu_vli32 NSIMD_VECTORCALL xorl(nsimd_cpu_vli32 a0, nsimd_cpu_vli32 a1, i32, cpu);
nsimd_cpu_vli16 NSIMD_VECTORCALL xorl(nsimd_cpu_vli16 a0, nsimd_cpu_vli16 a1, i16, cpu);
nsimd_cpu_vli8 NSIMD_VECTORCALL xorl(nsimd_cpu_vli8 a0, nsimd_cpu_vli8 a1, i8, cpu);
nsimd_cpu_vlu64 NSIMD_VECTORCALL xorl(nsimd_cpu_vlu64 a0, nsimd_cpu_vlu64 a1, u64, cpu);
nsimd_cpu_vlu32 NSIMD_VECTORCALL xorl(nsimd_cpu_vlu32 a0, nsimd_cpu_vlu32 a1, u32, cpu);
nsimd_cpu_vlu16 NSIMD_VECTORCALL xorl(nsimd_cpu_vlu16 a0, nsimd_cpu_vlu16 a1, u16, cpu);
nsimd_cpu_vlu8 NSIMD_VECTORCALL xorl(nsimd_cpu_vlu8 a0, nsimd_cpu_vlu8 a1, u8, cpu);
nsimd_sve2048_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlf64 a0, nsimd_sve2048_vlf64 a1, f64, sve2048);
nsimd_sve2048_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlf32 a0, nsimd_sve2048_vlf32 a1, f32, sve2048);
nsimd_sve2048_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlf16 a0, nsimd_sve2048_vlf16 a1, f16, sve2048);
nsimd_sve2048_vli64 NSIMD_VECTORCALL xorl(nsimd_sve2048_vli64 a0, nsimd_sve2048_vli64 a1, i64, sve2048);
nsimd_sve2048_vli32 NSIMD_VECTORCALL xorl(nsimd_sve2048_vli32 a0, nsimd_sve2048_vli32 a1, i32, sve2048);
nsimd_sve2048_vli16 NSIMD_VECTORCALL xorl(nsimd_sve2048_vli16 a0, nsimd_sve2048_vli16 a1, i16, sve2048);
nsimd_sve2048_vli8 NSIMD_VECTORCALL xorl(nsimd_sve2048_vli8 a0, nsimd_sve2048_vli8 a1, i8, sve2048);
nsimd_sve2048_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlu64 a0, nsimd_sve2048_vlu64 a1, u64, sve2048);
nsimd_sve2048_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlu32 a0, nsimd_sve2048_vlu32 a1, u32, sve2048);
nsimd_sve2048_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlu16 a0, nsimd_sve2048_vlu16 a1, u16, sve2048);
nsimd_sve2048_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve2048_vlu8 a0, nsimd_sve2048_vlu8 a1, u8, sve2048);
nsimd_neon128_vlf64 NSIMD_VECTORCALL xorl(nsimd_neon128_vlf64 a0, nsimd_neon128_vlf64 a1, f64, neon128);
nsimd_neon128_vlf32 NSIMD_VECTORCALL xorl(nsimd_neon128_vlf32 a0, nsimd_neon128_vlf32 a1, f32, neon128);
nsimd_neon128_vlf16 NSIMD_VECTORCALL xorl(nsimd_neon128_vlf16 a0, nsimd_neon128_vlf16 a1, f16, neon128);
nsimd_neon128_vli64 NSIMD_VECTORCALL xorl(nsimd_neon128_vli64 a0, nsimd_neon128_vli64 a1, i64, neon128);
nsimd_neon128_vli32 NSIMD_VECTORCALL xorl(nsimd_neon128_vli32 a0, nsimd_neon128_vli32 a1, i32, neon128);
nsimd_neon128_vli16 NSIMD_VECTORCALL xorl(nsimd_neon128_vli16 a0, nsimd_neon128_vli16 a1, i16, neon128);
nsimd_neon128_vli8 NSIMD_VECTORCALL xorl(nsimd_neon128_vli8 a0, nsimd_neon128_vli8 a1, i8, neon128);
nsimd_neon128_vlu64 NSIMD_VECTORCALL xorl(nsimd_neon128_vlu64 a0, nsimd_neon128_vlu64 a1, u64, neon128);
nsimd_neon128_vlu32 NSIMD_VECTORCALL xorl(nsimd_neon128_vlu32 a0, nsimd_neon128_vlu32 a1, u32, neon128);
nsimd_neon128_vlu16 NSIMD_VECTORCALL xorl(nsimd_neon128_vlu16 a0, nsimd_neon128_vlu16 a1, u16, neon128);
nsimd_neon128_vlu8 NSIMD_VECTORCALL xorl(nsimd_neon128_vlu8 a0, nsimd_neon128_vlu8 a1, u8, neon128);
nsimd_avx512_skylake_vlf64 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlf64 a0, nsimd_avx512_skylake_vlf64 a1, f64, avx512_skylake);
nsimd_avx512_skylake_vlf32 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlf32 a0, nsimd_avx512_skylake_vlf32 a1, f32, avx512_skylake);
nsimd_avx512_skylake_vlf16 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlf16 a0, nsimd_avx512_skylake_vlf16 a1, f16, avx512_skylake);
nsimd_avx512_skylake_vli64 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vli64 a0, nsimd_avx512_skylake_vli64 a1, i64, avx512_skylake);
nsimd_avx512_skylake_vli32 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vli32 a0, nsimd_avx512_skylake_vli32 a1, i32, avx512_skylake);
nsimd_avx512_skylake_vli16 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vli16 a0, nsimd_avx512_skylake_vli16 a1, i16, avx512_skylake);
nsimd_avx512_skylake_vli8 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vli8 a0, nsimd_avx512_skylake_vli8 a1, i8, avx512_skylake);
nsimd_avx512_skylake_vlu64 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlu64 a0, nsimd_avx512_skylake_vlu64 a1, u64, avx512_skylake);
nsimd_avx512_skylake_vlu32 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlu32 a0, nsimd_avx512_skylake_vlu32 a1, u32, avx512_skylake);
nsimd_avx512_skylake_vlu16 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlu16 a0, nsimd_avx512_skylake_vlu16 a1, u16, avx512_skylake);
nsimd_avx512_skylake_vlu8 NSIMD_VECTORCALL xorl(nsimd_avx512_skylake_vlu8 a0, nsimd_avx512_skylake_vlu8 a1, u8, avx512_skylake);
nsimd_aarch64_vlf64 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlf64 a0, nsimd_aarch64_vlf64 a1, f64, aarch64);
nsimd_aarch64_vlf32 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlf32 a0, nsimd_aarch64_vlf32 a1, f32, aarch64);
nsimd_aarch64_vlf16 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlf16 a0, nsimd_aarch64_vlf16 a1, f16, aarch64);
nsimd_aarch64_vli64 NSIMD_VECTORCALL xorl(nsimd_aarch64_vli64 a0, nsimd_aarch64_vli64 a1, i64, aarch64);
nsimd_aarch64_vli32 NSIMD_VECTORCALL xorl(nsimd_aarch64_vli32 a0, nsimd_aarch64_vli32 a1, i32, aarch64);
nsimd_aarch64_vli16 NSIMD_VECTORCALL xorl(nsimd_aarch64_vli16 a0, nsimd_aarch64_vli16 a1, i16, aarch64);
nsimd_aarch64_vli8 NSIMD_VECTORCALL xorl(nsimd_aarch64_vli8 a0, nsimd_aarch64_vli8 a1, i8, aarch64);
nsimd_aarch64_vlu64 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlu64 a0, nsimd_aarch64_vlu64 a1, u64, aarch64);
nsimd_aarch64_vlu32 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlu32 a0, nsimd_aarch64_vlu32 a1, u32, aarch64);
nsimd_aarch64_vlu16 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlu16 a0, nsimd_aarch64_vlu16 a1, u16, aarch64);
nsimd_aarch64_vlu8 NSIMD_VECTORCALL xorl(nsimd_aarch64_vlu8 a0, nsimd_aarch64_vlu8 a1, u8, aarch64);
nsimd_avx512_knl_vlf64 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlf64 a0, nsimd_avx512_knl_vlf64 a1, f64, avx512_knl);
nsimd_avx512_knl_vlf32 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlf32 a0, nsimd_avx512_knl_vlf32 a1, f32, avx512_knl);
nsimd_avx512_knl_vlf16 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlf16 a0, nsimd_avx512_knl_vlf16 a1, f16, avx512_knl);
nsimd_avx512_knl_vli64 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vli64 a0, nsimd_avx512_knl_vli64 a1, i64, avx512_knl);
nsimd_avx512_knl_vli32 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vli32 a0, nsimd_avx512_knl_vli32 a1, i32, avx512_knl);
nsimd_avx512_knl_vli16 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vli16 a0, nsimd_avx512_knl_vli16 a1, i16, avx512_knl);
nsimd_avx512_knl_vli8 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vli8 a0, nsimd_avx512_knl_vli8 a1, i8, avx512_knl);
nsimd_avx512_knl_vlu64 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlu64 a0, nsimd_avx512_knl_vlu64 a1, u64, avx512_knl);
nsimd_avx512_knl_vlu32 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlu32 a0, nsimd_avx512_knl_vlu32 a1, u32, avx512_knl);
nsimd_avx512_knl_vlu16 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlu16 a0, nsimd_avx512_knl_vlu16 a1, u16, avx512_knl);
nsimd_avx512_knl_vlu8 NSIMD_VECTORCALL xorl(nsimd_avx512_knl_vlu8 a0, nsimd_avx512_knl_vlu8 a1, u8, avx512_knl);
nsimd_sse2_vlf64 NSIMD_VECTORCALL xorl(nsimd_sse2_vlf64 a0, nsimd_sse2_vlf64 a1, f64, sse2);
nsimd_sse2_vlf32 NSIMD_VECTORCALL xorl(nsimd_sse2_vlf32 a0, nsimd_sse2_vlf32 a1, f32, sse2);
nsimd_sse2_vlf16 NSIMD_VECTORCALL xorl(nsimd_sse2_vlf16 a0, nsimd_sse2_vlf16 a1, f16, sse2);
nsimd_sse2_vli64 NSIMD_VECTORCALL xorl(nsimd_sse2_vli64 a0, nsimd_sse2_vli64 a1, i64, sse2);
nsimd_sse2_vli32 NSIMD_VECTORCALL xorl(nsimd_sse2_vli32 a0, nsimd_sse2_vli32 a1, i32, sse2);
nsimd_sse2_vli16 NSIMD_VECTORCALL xorl(nsimd_sse2_vli16 a0, nsimd_sse2_vli16 a1, i16, sse2);
nsimd_sse2_vli8 NSIMD_VECTORCALL xorl(nsimd_sse2_vli8 a0, nsimd_sse2_vli8 a1, i8, sse2);
nsimd_sse2_vlu64 NSIMD_VECTORCALL xorl(nsimd_sse2_vlu64 a0, nsimd_sse2_vlu64 a1, u64, sse2);
nsimd_sse2_vlu32 NSIMD_VECTORCALL xorl(nsimd_sse2_vlu32 a0, nsimd_sse2_vlu32 a1, u32, sse2);
nsimd_sse2_vlu16 NSIMD_VECTORCALL xorl(nsimd_sse2_vlu16 a0, nsimd_sse2_vlu16 a1, u16, sse2);
nsimd_sse2_vlu8 NSIMD_VECTORCALL xorl(nsimd_sse2_vlu8 a0, nsimd_sse2_vlu8 a1, u8, sse2);
nsimd_sse42_vlf64 NSIMD_VECTORCALL xorl(nsimd_sse42_vlf64 a0, nsimd_sse42_vlf64 a1, f64, sse42);
nsimd_sse42_vlf32 NSIMD_VECTORCALL xorl(nsimd_sse42_vlf32 a0, nsimd_sse42_vlf32 a1, f32, sse42);
nsimd_sse42_vlf16 NSIMD_VECTORCALL xorl(nsimd_sse42_vlf16 a0, nsimd_sse42_vlf16 a1, f16, sse42);
nsimd_sse42_vli64 NSIMD_VECTORCALL xorl(nsimd_sse42_vli64 a0, nsimd_sse42_vli64 a1, i64, sse42);
nsimd_sse42_vli32 NSIMD_VECTORCALL xorl(nsimd_sse42_vli32 a0, nsimd_sse42_vli32 a1, i32, sse42);
nsimd_sse42_vli16 NSIMD_VECTORCALL xorl(nsimd_sse42_vli16 a0, nsimd_sse42_vli16 a1, i16, sse42);
nsimd_sse42_vli8 NSIMD_VECTORCALL xorl(nsimd_sse42_vli8 a0, nsimd_sse42_vli8 a1, i8, sse42);
nsimd_sse42_vlu64 NSIMD_VECTORCALL xorl(nsimd_sse42_vlu64 a0, nsimd_sse42_vlu64 a1, u64, sse42);
nsimd_sse42_vlu32 NSIMD_VECTORCALL xorl(nsimd_sse42_vlu32 a0, nsimd_sse42_vlu32 a1, u32, sse42);
nsimd_sse42_vlu16 NSIMD_VECTORCALL xorl(nsimd_sse42_vlu16 a0, nsimd_sse42_vlu16 a1, u16, sse42);
nsimd_sse42_vlu8 NSIMD_VECTORCALL xorl(nsimd_sse42_vlu8 a0, nsimd_sse42_vlu8 a1, u8, sse42);
nsimd_sve256_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve256_vlf64 a0, nsimd_sve256_vlf64 a1, f64, sve256);
nsimd_sve256_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve256_vlf32 a0, nsimd_sve256_vlf32 a1, f32, sve256);
nsimd_sve256_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve256_vlf16 a0, nsimd_sve256_vlf16 a1, f16, sve256);
nsimd_sve256_vli64 NSIMD_VECTORCALL xorl(nsimd_sve256_vli64 a0, nsimd_sve256_vli64 a1, i64, sve256);
nsimd_sve256_vli32 NSIMD_VECTORCALL xorl(nsimd_sve256_vli32 a0, nsimd_sve256_vli32 a1, i32, sve256);
nsimd_sve256_vli16 NSIMD_VECTORCALL xorl(nsimd_sve256_vli16 a0, nsimd_sve256_vli16 a1, i16, sve256);
nsimd_sve256_vli8 NSIMD_VECTORCALL xorl(nsimd_sve256_vli8 a0, nsimd_sve256_vli8 a1, i8, sve256);
nsimd_sve256_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve256_vlu64 a0, nsimd_sve256_vlu64 a1, u64, sve256);
nsimd_sve256_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve256_vlu32 a0, nsimd_sve256_vlu32 a1, u32, sve256);
nsimd_sve256_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve256_vlu16 a0, nsimd_sve256_vlu16 a1, u16, sve256);
nsimd_sve256_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve256_vlu8 a0, nsimd_sve256_vlu8 a1, u8, sve256);
nsimd_sve1024_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlf64 a0, nsimd_sve1024_vlf64 a1, f64, sve1024);
nsimd_sve1024_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlf32 a0, nsimd_sve1024_vlf32 a1, f32, sve1024);
nsimd_sve1024_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlf16 a0, nsimd_sve1024_vlf16 a1, f16, sve1024);
nsimd_sve1024_vli64 NSIMD_VECTORCALL xorl(nsimd_sve1024_vli64 a0, nsimd_sve1024_vli64 a1, i64, sve1024);
nsimd_sve1024_vli32 NSIMD_VECTORCALL xorl(nsimd_sve1024_vli32 a0, nsimd_sve1024_vli32 a1, i32, sve1024);
nsimd_sve1024_vli16 NSIMD_VECTORCALL xorl(nsimd_sve1024_vli16 a0, nsimd_sve1024_vli16 a1, i16, sve1024);
nsimd_sve1024_vli8 NSIMD_VECTORCALL xorl(nsimd_sve1024_vli8 a0, nsimd_sve1024_vli8 a1, i8, sve1024);
nsimd_sve1024_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlu64 a0, nsimd_sve1024_vlu64 a1, u64, sve1024);
nsimd_sve1024_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlu32 a0, nsimd_sve1024_vlu32 a1, u32, sve1024);
nsimd_sve1024_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlu16 a0, nsimd_sve1024_vlu16 a1, u16, sve1024);
nsimd_sve1024_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve1024_vlu8 a0, nsimd_sve1024_vlu8 a1, u8, sve1024);
nsimd_vsx_vlf64 NSIMD_VECTORCALL xorl(nsimd_vsx_vlf64 a0, nsimd_vsx_vlf64 a1, f64, vsx);
nsimd_vsx_vlf32 NSIMD_VECTORCALL xorl(nsimd_vsx_vlf32 a0, nsimd_vsx_vlf32 a1, f32, vsx);
nsimd_vsx_vlf16 NSIMD_VECTORCALL xorl(nsimd_vsx_vlf16 a0, nsimd_vsx_vlf16 a1, f16, vsx);
nsimd_vsx_vli64 NSIMD_VECTORCALL xorl(nsimd_vsx_vli64 a0, nsimd_vsx_vli64 a1, i64, vsx);
nsimd_vsx_vli32 NSIMD_VECTORCALL xorl(nsimd_vsx_vli32 a0, nsimd_vsx_vli32 a1, i32, vsx);
nsimd_vsx_vli16 NSIMD_VECTORCALL xorl(nsimd_vsx_vli16 a0, nsimd_vsx_vli16 a1, i16, vsx);
nsimd_vsx_vli8 NSIMD_VECTORCALL xorl(nsimd_vsx_vli8 a0, nsimd_vsx_vli8 a1, i8, vsx);
nsimd_vsx_vlu64 NSIMD_VECTORCALL xorl(nsimd_vsx_vlu64 a0, nsimd_vsx_vlu64 a1, u64, vsx);
nsimd_vsx_vlu32 NSIMD_VECTORCALL xorl(nsimd_vsx_vlu32 a0, nsimd_vsx_vlu32 a1, u32, vsx);
nsimd_vsx_vlu16 NSIMD_VECTORCALL xorl(nsimd_vsx_vlu16 a0, nsimd_vsx_vlu16 a1, u16, vsx);
nsimd_vsx_vlu8 NSIMD_VECTORCALL xorl(nsimd_vsx_vlu8 a0, nsimd_vsx_vlu8 a1, u8, vsx);
nsimd_sve128_vlf64 NSIMD_VECTORCALL xorl(nsimd_sve128_vlf64 a0, nsimd_sve128_vlf64 a1, f64, sve128);
nsimd_sve128_vlf32 NSIMD_VECTORCALL xorl(nsimd_sve128_vlf32 a0, nsimd_sve128_vlf32 a1, f32, sve128);
nsimd_sve128_vlf16 NSIMD_VECTORCALL xorl(nsimd_sve128_vlf16 a0, nsimd_sve128_vlf16 a1, f16, sve128);
nsimd_sve128_vli64 NSIMD_VECTORCALL xorl(nsimd_sve128_vli64 a0, nsimd_sve128_vli64 a1, i64, sve128);
nsimd_sve128_vli32 NSIMD_VECTORCALL xorl(nsimd_sve128_vli32 a0, nsimd_sve128_vli32 a1, i32, sve128);
nsimd_sve128_vli16 NSIMD_VECTORCALL xorl(nsimd_sve128_vli16 a0, nsimd_sve128_vli16 a1, i16, sve128);
nsimd_sve128_vli8 NSIMD_VECTORCALL xorl(nsimd_sve128_vli8 a0, nsimd_sve128_vli8 a1, i8, sve128);
nsimd_sve128_vlu64 NSIMD_VECTORCALL xorl(nsimd_sve128_vlu64 a0, nsimd_sve128_vlu64 a1, u64, sve128);
nsimd_sve128_vlu32 NSIMD_VECTORCALL xorl(nsimd_sve128_vlu32 a0, nsimd_sve128_vlu32 a1, u32, sve128);
nsimd_sve128_vlu16 NSIMD_VECTORCALL xorl(nsimd_sve128_vlu16 a0, nsimd_sve128_vlu16 a1, u16, sve128);
nsimd_sve128_vlu8 NSIMD_VECTORCALL xorl(nsimd_sve128_vlu8 a0, nsimd_sve128_vlu8 a1, u8, sve128);
nsimd_vmx_vlf64 NSIMD_VECTORCALL xorl(nsimd_vmx_vlf64 a0, nsimd_vmx_vlf64 a1, f64, vmx);
nsimd_vmx_vlf32 NSIMD_VECTORCALL xorl(nsimd_vmx_vlf32 a0, nsimd_vmx_vlf32 a1, f32, vmx);
nsimd_vmx_vlf16 NSIMD_VECTORCALL xorl(nsimd_vmx_vlf16 a0, nsimd_vmx_vlf16 a1, f16, vmx);
nsimd_vmx_vli64 NSIMD_VECTORCALL xorl(nsimd_vmx_vli64 a0, nsimd_vmx_vli64 a1, i64, vmx);
nsimd_vmx_vli32 NSIMD_VECTORCALL xorl(nsimd_vmx_vli32 a0, nsimd_vmx_vli32 a1, i32, vmx);
nsimd_vmx_vli16 NSIMD_VECTORCALL xorl(nsimd_vmx_vli16 a0, nsimd_vmx_vli16 a1, i16, vmx);
nsimd_vmx_vli8 NSIMD_VECTORCALL xorl(nsimd_vmx_vli8 a0, nsimd_vmx_vli8 a1, i8, vmx);
nsimd_vmx_vlu64 NSIMD_VECTORCALL xorl(nsimd_vmx_vlu64 a0, nsimd_vmx_vlu64 a1, u64, vmx);
nsimd_vmx_vlu32 NSIMD_VECTORCALL xorl(nsimd_vmx_vlu32 a0, nsimd_vmx_vlu32 a1, u32, vmx);
nsimd_vmx_vlu16 NSIMD_VECTORCALL xorl(nsimd_vmx_vlu16 a0, nsimd_vmx_vlu16 a1, u16, vmx);
nsimd_vmx_vlu8 NSIMD_VECTORCALL xorl(nsimd_vmx_vlu8 a0, nsimd_vmx_vlu8 a1, u8, vmx);
nsimd_avx_vlf64 NSIMD_VECTORCALL xorl(nsimd_avx_vlf64 a0, nsimd_avx_vlf64 a1, f64, avx);
nsimd_avx_vlf32 NSIMD_VECTORCALL xorl(nsimd_avx_vlf32 a0, nsimd_avx_vlf32 a1, f32, avx);
nsimd_avx_vlf16 NSIMD_VECTORCALL xorl(nsimd_avx_vlf16 a0, nsimd_avx_vlf16 a1, f16, avx);
nsimd_avx_vli64 NSIMD_VECTORCALL xorl(nsimd_avx_vli64 a0, nsimd_avx_vli64 a1, i64, avx);
nsimd_avx_vli32 NSIMD_VECTORCALL xorl(nsimd_avx_vli32 a0, nsimd_avx_vli32 a1, i32, avx);
nsimd_avx_vli16 NSIMD_VECTORCALL xorl(nsimd_avx_vli16 a0, nsimd_avx_vli16 a1, i16, avx);
nsimd_avx_vli8 NSIMD_VECTORCALL xorl(nsimd_avx_vli8 a0, nsimd_avx_vli8 a1, i8, avx);
nsimd_avx_vlu64 NSIMD_VECTORCALL xorl(nsimd_avx_vlu64 a0, nsimd_avx_vlu64 a1, u64, avx);
nsimd_avx_vlu32 NSIMD_VECTORCALL xorl(nsimd_avx_vlu32 a0, nsimd_avx_vlu32 a1, u32, avx);
nsimd_avx_vlu16 NSIMD_VECTORCALL xorl(nsimd_avx_vlu16 a0, nsimd_avx_vlu16 a1, u16, avx);
nsimd_avx_vlu8 NSIMD_VECTORCALL xorl(nsimd_avx_vlu8 a0, nsimd_avx_vlu8 a1, u8, avx);