| /src/sys/crypto/aes/arch/arm/ |
| aes_neon_32.S | 217 * q12={d24-d25}: ir/iak/iakr/sb1_0(io)/mc[rmod4].backward 270 vtbl.8 d24, {q6}, d4 278 vtbl.8 d24, {q8}, d4 289 vtbl.8 d30, {q0}, d24 299 vtbl.8 d0, {q15}, d24 320 vtbl.8 d24, {q10}, d6 334 vtbl.8 d24, {q10}, d24 435 * q12={d24-d25}: ir/iak/iakr/dsbX_0(io) 497 vtbl.8 d24, {q4}, d [all...] |
| /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/ |
| poly1305-armv4.S | 675 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]! 689 vsri.u32 d26,d24,#14 690 vshl.u32 d24,d24,#12 694 vsri.u32 d24,d22,#20 697 vbic.i32 d24,#0xfc000000 703 vadd.i32 d25,d24,d14 721 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 781 vadd.i32 d24,d24,d14 @ accumulate inp[0:1 [all...] |
| sha256-armv4.S | 1967 vshr.u32 d24,d7,#17 1973 vsli.32 d24,d7,#15 1982 veor d25,d25,d24 1985 vshr.u32 d24,d7,#19 1988 vsli.32 d24,d7,#13 1991 veor d25,d25,d24 1997 vshr.u32 d24,d0,#17 2000 vsli.32 d24,d0,#15 2006 veor d25,d25,d24 2009 vshr.u32 d24,d0,#1 [all...] |
| bsaes-armv7.S | 207 vtbl.8 d0, {q8}, d24 211 vtbl.8 d2, {q9}, d24 215 vtbl.8 d4, {q10}, d24 218 vtbl.8 d6, {q11}, d24 223 vtbl.8 d8, {q8}, d24 226 vtbl.8 d10, {q9}, d24 229 vtbl.8 d12, {q10}, d24 231 vtbl.8 d14, {q11}, d24 700 vtbl.8 d0, {q8}, d24 704 vtbl.8 d2, {q9}, d24 [all...] |
| keccak1600-armv4.S | 2249 veor d25, d25, d24 @ C[4]^=A[4][4] 2290 veor d24, d24, d29 @ A[4][4] ^= C[3] 2300 vshl.u64 d8, d24, #14 2304 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 2309 vshl.u64 d24, d21, #2 2313 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 2384 vbic d26, d24, d23 2386 vbic d27, d28, d24 2391 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| chacha-armv4.S | 827 vshl.i32 d26,d24,#1 @ two 828 vstr d24,[sp,#4*(16+0)] 829 vshl.i32 d28,d24,#2 @ four 1106 vldr d24,[sp,#4*(16+0)] @ one 1116 vadd.i32 d14,d14,d24 @ counter+1 1148 vldr d24,[sp,#4*(16+4)] @ four 1156 vadd.i32 d6,d6,d24 @ next counter value 1157 vldr d24,[sp,#4*(16+0)] @ one
|
| keccak1600-armv8.S | 706 ldr d24,[x0,#8*24] 721 str d24,[x0,#8*24] 754 ldr d24,[x0,#8*24] 943 str d24,[x0,#8*24]
|
| /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ |
| poly1305-armv4.S | 675 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]! 689 vsri.u32 d26,d24,#14 690 vshl.u32 d24,d24,#12 694 vsri.u32 d24,d22,#20 697 vbic.i32 d24,#0xfc000000 703 vadd.i32 d25,d24,d14 721 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 781 vadd.i32 d24,d24,d14 @ accumulate inp[0:1 [all...] |
| sha256-armv4.S | 1967 vshr.u32 d24,d7,#17 1973 vsli.32 d24,d7,#15 1982 veor d25,d25,d24 1985 vshr.u32 d24,d7,#19 1988 vsli.32 d24,d7,#13 1991 veor d25,d25,d24 1997 vshr.u32 d24,d0,#17 2000 vsli.32 d24,d0,#15 2006 veor d25,d25,d24 2009 vshr.u32 d24,d0,#1 [all...] |
| bsaes-armv7.S | 207 vtbl.8 d0, {q8}, d24 211 vtbl.8 d2, {q9}, d24 215 vtbl.8 d4, {q10}, d24 218 vtbl.8 d6, {q11}, d24 223 vtbl.8 d8, {q8}, d24 226 vtbl.8 d10, {q9}, d24 229 vtbl.8 d12, {q10}, d24 231 vtbl.8 d14, {q11}, d24 700 vtbl.8 d0, {q8}, d24 704 vtbl.8 d2, {q9}, d24 [all...] |
| keccak1600-armv4.S | 2246 veor d25, d25, d24 @ C[4]^=A[4][4] 2287 veor d24, d24, d29 @ A[4][4] ^= C[3] 2297 vshl.u64 d8, d24, #14 2301 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 2306 vshl.u64 d24, d21, #2 2310 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 2381 vbic d26, d24, d23 2383 vbic d27, d28, d24 2388 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| chacha-armv4.S | 827 vshl.i32 d26,d24,#1 @ two 828 vstr d24,[sp,#4*(16+0)] 829 vshl.i32 d28,d24,#2 @ four 1106 vldr d24,[sp,#4*(16+0)] @ one 1116 vadd.i32 d14,d14,d24 @ counter+1 1148 vldr d24,[sp,#4*(16+4)] @ four 1156 vadd.i32 d6,d6,d24 @ next counter value 1157 vldr d24,[sp,#4*(16+0)] @ one
|
| /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/ |
| poly1305-armv4.S | 680 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]! 694 vsri.u32 d26,d24,#14 695 vshl.u32 d24,d24,#12 699 vsri.u32 d24,d22,#20 702 vbic.i32 d24,#0xfc000000 708 vadd.i32 d25,d24,d14 726 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 786 vadd.i32 d24,d24,d14 @ accumulate inp[0:1 [all...] |
| keccak1600-armv4.S | 2218 veor d25, d25, d24 @ C[4]^=A[4][4] 2259 veor d24, d24, d29 @ A[4][4] ^= C[3] 2269 vshl.u64 d8, d24, #14 2273 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 2278 vshl.u64 d24, d21, #2 2282 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 2353 vbic d26, d24, d23 2355 vbic d27, d28, d24 2360 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| chacha-armv4.S | 820 vshl.i32 d26,d24,#1 @ two 821 vstr d24,[sp,#4*(16+0)] 822 vshl.i32 d28,d24,#2 @ four 1099 vldr d24,[sp,#4*(16+0)] @ one 1109 vadd.i32 d14,d14,d24 @ counter+1 1141 vldr d24,[sp,#4*(16+4)] @ four 1149 vadd.i32 d6,d6,d24 @ next counter value 1150 vldr d24,[sp,#4*(16+0)] @ one
|
| /src/sys/crypto/chacha/arch/arm/ |
| chacha_neon_32.S | 189 vdup.32 q0, d24[0] /* q0-q3 := constant */ 190 vdup.32 q1, d24[1] 213 d16, d24,d25, d26,d27, d28,d29, d30,d31 216 d20, d30,d31, d24,d25, d26,d27, d28,d29 405 vdup.32 q0, d24[0] /* q0-q3 := constant */ 406 vdup.32 q1, d24[1] 429 d16, d24,d25, d26,d27, d28,d29, d30,d31 432 d20, d30,d31, d24,d25, d26,d27, d28,d29
|
| /src/external/lgpl3/gmp/dist/mpn/arm/neon/ |
| hamdist.asm | 81 vcnt.8 d24, d0 82 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat 90 vcnt.8 d24, d0 91 vpadal.u8 d16, d24
|
| popcount.asm | 77 vcnt.8 d24, d0 78 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat 84 vcnt.8 d24, d0 85 vpadal.u8 d16, d24
|
| /src/crypto/external/apache2/openssl/dist/crypto/sha/asm/ |
| keccak1600-armv4.pl | 1162 veor d25, d25, d24 @ C[4]^=A[4][4] 1203 veor d24, d24, d29 @ A[4][4] ^= C[3] 1213 vshl.u64 d8, d24, #14 1217 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 1222 vshl.u64 d24, d21, #2 1226 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 1297 vbic d26, d24, d23 1299 vbic d27, d28, d24 1304 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| keccak1600-armv8.pl | 679 ldr d24,[x0,#8*$i] 690 str d24,[x0,#8*$i] 725 ldr d24,[x0,#8*$i] 774 str d24,[x0,#8*$i]
|
| /src/crypto/external/bsd/openssl/dist/crypto/sha/asm/ |
| keccak1600-armv4.pl | 1151 veor d25, d25, d24 @ C[4]^=A[4][4] 1192 veor d24, d24, d29 @ A[4][4] ^= C[3] 1202 vshl.u64 d8, d24, #14 1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 1211 vshl.u64 d24, d21, #2 1215 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 1286 vbic d26, d24, d23 1288 vbic d27, d28, d24 1293 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| /src/crypto/external/bsd/openssl.old/dist/crypto/sha/asm/ |
| keccak1600-armv4.pl | 1121 veor d25, d25, d24 @ C[4]^=A[4][4] 1162 veor d24, d24, d29 @ A[4][4] ^= C[3] 1172 vshl.u64 d8, d24, #14 1176 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 1181 vshl.u64 d24, d21, #2 1185 vsri.u64 d24, d21, #64-2 @ A[4][4] = ROL64(A[4][1], rhotates[4][1]) 1256 vbic d26, d24, d23 1258 vbic d27, d28, d24 1263 veor d24, d24, d26 @ A[4][4] ^= (~A[4][0] & A[4][1] [all...] |
| /src/external/gpl3/gdb/dist/gdb/ |
| mn10300-tdep.c | 705 /* fmov fsM, (d24, rN) */ 709 LONGEST d24; local 721 d24 = extract_signed_integer (&buf[1], 3, byte_order); 723 stack.store (pv_add_constant (regs[translate_rreg (rN)], d24), 773 /* fmov fsM, (d24, SP) */ 777 LONGEST d24; local 788 d24 = extract_signed_integer (&buf[1], 3, byte_order); 790 stack.store (pv_add_constant (regs[E_SP_REGNUM], d24),
|
| /src/external/gpl3/gdb.old/dist/gdb/ |
| mn10300-tdep.c | 705 /* fmov fsM, (d24, rN) */ 709 LONGEST d24; local 721 d24 = extract_signed_integer (&buf[1], 3, byte_order); 723 stack.store (pv_add_constant (regs[translate_rreg (rN)], d24), 773 /* fmov fsM, (d24, SP) */ 777 LONGEST d24; local 788 d24 = extract_signed_integer (&buf[1], 3, byte_order); 790 stack.store (pv_add_constant (regs[E_SP_REGNUM], d24),
|
| /src/crypto/external/apache2/openssl/lib/libcrypto/arch/aarch64/ |
| keccak1600-armv8.S | 705 ldr d24,[x0,#8*24] 720 str d24,[x0,#8*24] 753 ldr d24,[x0,#8*24] 942 str d24,[x0,#8*24]
|