HomeSort by: relevance | last modified time | path
    Searched refs:d24 (Results 1 - 25 of 42) sorted by relevancy

1 2

  /src/sys/crypto/aes/arch/arm/
aes_neon_32.S 217 * q12={d24-d25}: ir/iak/iakr/sb1_0(io)/mc[rmod4].backward
270 vtbl.8 d24, {q6}, d4
278 vtbl.8 d24, {q8}, d4
289 vtbl.8 d30, {q0}, d24
299 vtbl.8 d0, {q15}, d24
320 vtbl.8 d24, {q10}, d6
334 vtbl.8 d24, {q10}, d24
435 * q12={d24-d25}: ir/iak/iakr/dsbX_0(io)
497 vtbl.8 d24, {q4}, d
    [all...]
  /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/
poly1305-armv4.S 675 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]!
689 vsri.u32 d26,d24,#14
690 vshl.u32 d24,d24,#12
694 vsri.u32 d24,d22,#20
697 vbic.i32 d24,#0xfc000000
703 vadd.i32 d25,d24,d14
721 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1]
781 vadd.i32 d24,d24,d14 @ accumulate inp[0:1
    [all...]
sha256-armv4.S 1967 vshr.u32 d24,d7,#17
1973 vsli.32 d24,d7,#15
1982 veor d25,d25,d24
1985 vshr.u32 d24,d7,#19
1988 vsli.32 d24,d7,#13
1991 veor d25,d25,d24
1997 vshr.u32 d24,d0,#17
2000 vsli.32 d24,d0,#15
2006 veor d25,d25,d24
2009 vshr.u32 d24,d0,#1
    [all...]
bsaes-armv7.S 207 vtbl.8 d0, {q8}, d24
211 vtbl.8 d2, {q9}, d24
215 vtbl.8 d4, {q10}, d24
218 vtbl.8 d6, {q11}, d24
223 vtbl.8 d8, {q8}, d24
226 vtbl.8 d10, {q9}, d24
229 vtbl.8 d12, {q10}, d24
231 vtbl.8 d14, {q11}, d24
700 vtbl.8 d0, {q8}, d24
704 vtbl.8 d2, {q9}, d24
    [all...]
keccak1600-armv4.S 2249 veor d25, d25, d24 @ C[4]^=A[4][4]
2290 veor d24, d24, d29 @ A[4][4] ^= C[3]
2300 vshl.u64 d8, d24, #14
2304 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
2309 vshl.u64 d24, d21, #2
2313 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
2384 vbic d26, d24, d23
2386 vbic d27, d28, d24
2391 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
chacha-armv4.S 827 vshl.i32 d26,d24,#1 @ two
828 vstr d24,[sp,#4*(16+0)]
829 vshl.i32 d28,d24,#2 @ four
1106 vldr d24,[sp,#4*(16+0)] @ one
1116 vadd.i32 d14,d14,d24 @ counter+1
1148 vldr d24,[sp,#4*(16+4)] @ four
1156 vadd.i32 d6,d6,d24 @ next counter value
1157 vldr d24,[sp,#4*(16+0)] @ one
keccak1600-armv8.S 706 ldr d24,[x0,#8*24]
721 str d24,[x0,#8*24]
754 ldr d24,[x0,#8*24]
943 str d24,[x0,#8*24]
  /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/
poly1305-armv4.S 675 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]!
689 vsri.u32 d26,d24,#14
690 vshl.u32 d24,d24,#12
694 vsri.u32 d24,d22,#20
697 vbic.i32 d24,#0xfc000000
703 vadd.i32 d25,d24,d14
721 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1]
781 vadd.i32 d24,d24,d14 @ accumulate inp[0:1
    [all...]
sha256-armv4.S 1967 vshr.u32 d24,d7,#17
1973 vsli.32 d24,d7,#15
1982 veor d25,d25,d24
1985 vshr.u32 d24,d7,#19
1988 vsli.32 d24,d7,#13
1991 veor d25,d25,d24
1997 vshr.u32 d24,d0,#17
2000 vsli.32 d24,d0,#15
2006 veor d25,d25,d24
2009 vshr.u32 d24,d0,#1
    [all...]
bsaes-armv7.S 207 vtbl.8 d0, {q8}, d24
211 vtbl.8 d2, {q9}, d24
215 vtbl.8 d4, {q10}, d24
218 vtbl.8 d6, {q11}, d24
223 vtbl.8 d8, {q8}, d24
226 vtbl.8 d10, {q9}, d24
229 vtbl.8 d12, {q10}, d24
231 vtbl.8 d14, {q11}, d24
700 vtbl.8 d0, {q8}, d24
704 vtbl.8 d2, {q9}, d24
    [all...]
keccak1600-armv4.S 2246 veor d25, d25, d24 @ C[4]^=A[4][4]
2287 veor d24, d24, d29 @ A[4][4] ^= C[3]
2297 vshl.u64 d8, d24, #14
2301 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
2306 vshl.u64 d24, d21, #2
2310 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
2381 vbic d26, d24, d23
2383 vbic d27, d28, d24
2388 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
chacha-armv4.S 827 vshl.i32 d26,d24,#1 @ two
828 vstr d24,[sp,#4*(16+0)]
829 vshl.i32 d28,d24,#2 @ four
1106 vldr d24,[sp,#4*(16+0)] @ one
1116 vadd.i32 d14,d14,d24 @ counter+1
1148 vldr d24,[sp,#4*(16+4)] @ four
1156 vadd.i32 d6,d6,d24 @ next counter value
1157 vldr d24,[sp,#4*(16+0)] @ one
  /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/
poly1305-armv4.S 680 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]!
694 vsri.u32 d26,d24,#14
695 vshl.u32 d24,d24,#12
699 vsri.u32 d24,d22,#20
702 vbic.i32 d24,#0xfc000000
708 vadd.i32 d25,d24,d14
726 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1]
786 vadd.i32 d24,d24,d14 @ accumulate inp[0:1
    [all...]
keccak1600-armv4.S 2218 veor d25, d25, d24 @ C[4]^=A[4][4]
2259 veor d24, d24, d29 @ A[4][4] ^= C[3]
2269 vshl.u64 d8, d24, #14
2273 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
2278 vshl.u64 d24, d21, #2
2282 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
2353 vbic d26, d24, d23
2355 vbic d27, d28, d24
2360 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
chacha-armv4.S 820 vshl.i32 d26,d24,#1 @ two
821 vstr d24,[sp,#4*(16+0)]
822 vshl.i32 d28,d24,#2 @ four
1099 vldr d24,[sp,#4*(16+0)] @ one
1109 vadd.i32 d14,d14,d24 @ counter+1
1141 vldr d24,[sp,#4*(16+4)] @ four
1149 vadd.i32 d6,d6,d24 @ next counter value
1150 vldr d24,[sp,#4*(16+0)] @ one
  /src/sys/crypto/chacha/arch/arm/
chacha_neon_32.S 189 vdup.32 q0, d24[0] /* q0-q3 := constant */
190 vdup.32 q1, d24[1]
213 d16, d24,d25, d26,d27, d28,d29, d30,d31
216 d20, d30,d31, d24,d25, d26,d27, d28,d29
405 vdup.32 q0, d24[0] /* q0-q3 := constant */
406 vdup.32 q1, d24[1]
429 d16, d24,d25, d26,d27, d28,d29, d30,d31
432 d20, d30,d31, d24,d25, d26,d27, d28,d29
  /src/external/lgpl3/gmp/dist/mpn/arm/neon/
hamdist.asm 81 vcnt.8 d24, d0
82 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat
90 vcnt.8 d24, d0
91 vpadal.u8 d16, d24
popcount.asm 77 vcnt.8 d24, d0
78 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat
84 vcnt.8 d24, d0
85 vpadal.u8 d16, d24
  /src/crypto/external/apache2/openssl/dist/crypto/sha/asm/
keccak1600-armv4.pl 1162 veor d25, d25, d24 @ C[4]^=A[4][4]
1203 veor d24, d24, d29 @ A[4][4] ^= C[3]
1213 vshl.u64 d8, d24, #14
1217 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
1222 vshl.u64 d24, d21, #2
1226 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
1297 vbic d26, d24, d23
1299 vbic d27, d28, d24
1304 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
keccak1600-armv8.pl 679 ldr d24,[x0,#8*$i]
690 str d24,[x0,#8*$i]
725 ldr d24,[x0,#8*$i]
774 str d24,[x0,#8*$i]
  /src/crypto/external/bsd/openssl/dist/crypto/sha/asm/
keccak1600-armv4.pl 1151 veor d25, d25, d24 @ C[4]^=A[4][4]
1192 veor d24, d24, d29 @ A[4][4] ^= C[3]
1202 vshl.u64 d8, d24, #14
1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
1211 vshl.u64 d24, d21, #2
1215 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
1286 vbic d26, d24, d23
1288 vbic d27, d28, d24
1293 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
  /src/crypto/external/bsd/openssl.old/dist/crypto/sha/asm/
keccak1600-armv4.pl 1121 veor d25, d25, d24 @ C[4]^=A[4][4]
1162 veor d24, d24, d29 @ A[4][4] ^= C[3]
1172 vshl.u64 d8, d24, #14
1176 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
1181 vshl.u64 d24, d21, #2
1185 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1])
1256 vbic d26, d24, d23
1258 vbic d27, d28, d24
1263 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1]
    [all...]
  /src/external/gpl3/gdb/dist/gdb/
mn10300-tdep.c 705 /* fmov fsM, (d24, rN) */
709 LONGEST d24; local
721 d24 = extract_signed_integer (&buf[1], 3, byte_order);
723 stack.store (pv_add_constant (regs[translate_rreg (rN)], d24),
773 /* fmov fsM, (d24, SP) */
777 LONGEST d24; local
788 d24 = extract_signed_integer (&buf[1], 3, byte_order);
790 stack.store (pv_add_constant (regs[E_SP_REGNUM], d24),
  /src/external/gpl3/gdb.old/dist/gdb/
mn10300-tdep.c 705 /* fmov fsM, (d24, rN) */
709 LONGEST d24; local
721 d24 = extract_signed_integer (&buf[1], 3, byte_order);
723 stack.store (pv_add_constant (regs[translate_rreg (rN)], d24),
773 /* fmov fsM, (d24, SP) */
777 LONGEST d24; local
788 d24 = extract_signed_integer (&buf[1], 3, byte_order);
790 stack.store (pv_add_constant (regs[E_SP_REGNUM], d24),
  /src/crypto/external/apache2/openssl/lib/libcrypto/arch/aarch64/
keccak1600-armv8.S 705 ldr d24,[x0,#8*24]
720 str d24,[x0,#8*24]
753 ldr d24,[x0,#8*24]
942 str d24,[x0,#8*24]

Completed in 61 milliseconds

1 2