| /src/external/lgpl3/gmp/dist/mpn/arm/neon/ |
| lshiftc.asm | 112 vld1.32 {d16}, [ap], r12 118 L(2): vld1.32 {d16}, [ap], r12 120 vmvn d16, d16 122 vshl.u64 d1, d16, d7 123 vshl.u64 d5, d16, d6 128 vld1.32 {d16}, [ap], r12 133 L(mid): vmvn d16, d16 136 vshl.u64 d1, d16, d [all...] |
| lorrshift.asm | 134 vld1.32 {d16}, [ap], r12 140 L(2): vld1.32 {d16}, [ap], r12 143 vshl.u64 d1, d16, d7 144 vshl.u64 d5, d16, d6 148 L(top): vld1.32 {d16}, [ap], r12 155 vshl.u64 d1, d16, d7 156 vshl.u64 d5, d16, d6 170 vshl.u64 d16, d17, d6 182 L(cj1): veor d16, d16, d1 [all...] |
| hamdist.asm | 82 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat 91 vpadal.u8 d16, d24 164 vmov.32 r0, d16[0]
|
| popcount.asm | 78 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat 85 vpadal.u8 d16, d24 140 vmov.32 r0, d16[0]
|
| /src/external/gpl3/gdb.old/dist/gdb/testsuite/gdb.opencl/ |
| vec_comps.cl | 55 CREATE_VEC(double16, d16)
|
| datatypes.cl | 141 double16 d16 = (double16)(1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0, 10.0, 11.0, 12.0, 13.0, 14.0, 15.0, 16.0);
|
| /src/external/gpl3/gdb/dist/gdb/testsuite/gdb.opencl/ |
| vec_comps.cl | 55 CREATE_VEC(double16, d16)
|
| datatypes.cl | 141 double16 d16 = (double16)(1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0, 10.0, 11.0, 12.0, 13.0, 14.0, 15.0, 16.0);
|
| /src/external/gpl3/gdb/dist/sim/testsuite/mips/ |
| r6-64.s | 31 d16: .dword 0xffffffffdead00dd label 116 r6ck_1dr1i daui, d5, 0xdead, d16 121 r6ck_0dr1i dahi, d16, 0xabce, d19
|
| /src/external/gpl3/gdb.old/dist/sim/testsuite/mips/ |
| r6-64.s | 31 d16: .dword 0xffffffffdead00dd label 116 r6ck_1dr1i daui, d5, 0xdead, d16 121 r6ck_0dr1i dahi, d16, 0xabce, d19
|
| /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/ |
| ghash-armv4.S | 362 vshr.u64 d16,#63 @ t0=0xc2....01 416 vext.8 d16, d26, d26, #1 @ A1 417 vmull.p8 q8, d16, d6 @ F = A1*B 430 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 437 veor d16, d16, d17 454 vext.8 d16, d28, d28, #1 @ A1 455 vmull.p8 q8, d16, d6 @ F = A1*B 468 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << [all...] |
| armv4-gf2m.S | 185 vext.8 d16, d27, d27, #2 @ B2 186 vmull.p8 q8, d26, d16 @ G = A*B2 195 vext.8 d16, d27, d27, #4 @ B4 198 vmull.p8 q8, d26, d16 @ K = A*B4 205 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
|
| poly1305-armv4.S | 505 vmovn.i64 d16,q8 509 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff 526 vadd.i32 d16,d16,d8 @ h2 -> h3 531 vshr.u32 d8,d16,#26 532 vbic.i32 d16,#0xfc000000 544 vtrn.32 d5,d16 576 vshl.u32 d6,d16,#2 577 vmov d5,d16 582 vadd.i32 d6,d6,d16 [all...] |
| bsaes-armv7.S | 103 vtbl.8 d0, {q10}, d16 106 vtbl.8 d2, {q11}, d16 109 vtbl.8 d4, {q12}, d16 112 vtbl.8 d6, {q13}, d16 115 vtbl.8 d8, {q14}, d16 118 vtbl.8 d10, {q15}, d16 121 vtbl.8 d12, {q10}, d16 123 vtbl.8 d14, {q11}, d16 595 vtbl.8 d0, {q10}, d16 598 vtbl.8 d2, {q11}, d16 [all...] |
| /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ |
| ghash-armv4.S | 362 vshr.u64 d16,#63 @ t0=0xc2....01 416 vext.8 d16, d26, d26, #1 @ A1 417 vmull.p8 q8, d16, d6 @ F = A1*B 430 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 437 veor d16, d16, d17 454 vext.8 d16, d28, d28, #1 @ A1 455 vmull.p8 q8, d16, d6 @ F = A1*B 468 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << [all...] |
| armv4-gf2m.S | 185 vext.8 d16, d27, d27, #2 @ B2 186 vmull.p8 q8, d26, d16 @ G = A*B2 195 vext.8 d16, d27, d27, #4 @ B4 198 vmull.p8 q8, d26, d16 @ K = A*B4 205 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
|
| poly1305-armv4.S | 505 vmovn.i64 d16,q8 509 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff 526 vadd.i32 d16,d16,d8 @ h2 -> h3 531 vshr.u32 d8,d16,#26 532 vbic.i32 d16,#0xfc000000 544 vtrn.32 d5,d16 576 vshl.u32 d6,d16,#2 577 vmov d5,d16 582 vadd.i32 d6,d6,d16 [all...] |
| bsaes-armv7.S | 103 vtbl.8 d0, {q10}, d16 106 vtbl.8 d2, {q11}, d16 109 vtbl.8 d4, {q12}, d16 112 vtbl.8 d6, {q13}, d16 115 vtbl.8 d8, {q14}, d16 118 vtbl.8 d10, {q15}, d16 121 vtbl.8 d12, {q10}, d16 123 vtbl.8 d14, {q11}, d16 595 vtbl.8 d0, {q10}, d16 598 vtbl.8 d2, {q11}, d16 [all...] |
| /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/ |
| ghash-armv4.S | 361 vshr.u64 d16,#63 @ t0=0xc2....01 415 vext.8 d16, d26, d26, #1 @ A1 416 vmull.p8 q8, d16, d6 @ F = A1*B 429 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 436 veor d16, d16, d17 453 vext.8 d16, d28, d28, #1 @ A1 454 vmull.p8 q8, d16, d6 @ F = A1*B 467 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << [all...] |
| armv4-gf2m.S | 182 vext.8 d16, d27, d27, #2 @ B2 183 vmull.p8 q8, d26, d16 @ G = A*B2 192 vext.8 d16, d27, d27, #4 @ B4 195 vmull.p8 q8, d26, d16 @ K = A*B4 202 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
|
| poly1305-armv4.S | 511 vmovn.i64 d16,q8 515 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff 532 vadd.i32 d16,d16,d8 @ h2 -> h3 537 vshr.u32 d8,d16,#26 538 vbic.i32 d16,#0xfc000000 550 vtrn.32 d5,d16 582 vshl.u32 d6,d16,#2 583 vmov d5,d16 588 vadd.i32 d6,d6,d16 [all...] |
| /src/external/gpl3/gcc/dist/libgcc/config/arm/ |
| cmse_nonsecure_call.S | 29 .fpu fpv5-d16 31 .fpu fpv4-sp-d16 88 vlstm sp /* Lazy store and clearance of d0-d16 and FPSCR. */ 111 vlldm sp /* Lazy restore of d0-d16 and FPSCR. */
|
| /src/external/gpl3/gcc.old/dist/libgcc/config/arm/ |
| cmse_nonsecure_call.S | 29 .fpu fpv5-d16 31 .fpu fpv4-sp-d16 88 vlstm sp /* Lazy store and clearance of d0-d16 and FPSCR. */ 111 vlldm sp /* Lazy restore of d0-d16 and FPSCR. */
|
| /src/crypto/external/apache2/openssl/dist/crypto/sha/asm/ |
| keccak1600-armv4.pl | 1190 veor d16, d16, d28 @ A[2][3] ^= C[2] 1220 vshl.u64 d14, d16, #25 1224 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 1229 @ vshl.u64 d16, d19, #8 1233 vext.8 d16, d19, d19, #8-1 @ A[2][3] = ROL64(A[3][4], rhotates[3][4]) 1338 vld1.32 {d16}, [r0,:64]! @ A[2][3] 1407 veor d16, d16, d31 @ A[2][3] ^= *inp++ 1470 vst1.32 {d16}, [r0,:64] [all...] |
| /src/crypto/external/bsd/openssl/dist/crypto/sha/asm/ |
| keccak1600-armv4.pl | 1179 veor d16, d16, d28 @ A[2][3] ^= C[2] 1209 vshl.u64 d14, d16, #25 1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 1218 @ vshl.u64 d16, d19, #8 1222 vext.8 d16, d19, d19, #8-1 @ A[2][3] = ROL64(A[3][4], rhotates[3][4]) 1327 vld1.32 {d16}, [r0,:64]! @ A[2][3] 1396 veor d16, d16, d31 @ A[2][3] ^= *inp++ 1459 vst1.32 {d16}, [r0,:64] [all...] |