HomeSort by: relevance | last modified time | path
    Searched refs:d16 (Results 1 - 25 of 57) sorted by relevancy

1 2 3

  /src/external/lgpl3/gmp/dist/mpn/arm/neon/
lshiftc.asm 112 vld1.32 {d16}, [ap], r12
118 L(2): vld1.32 {d16}, [ap], r12
120 vmvn d16, d16
122 vshl.u64 d1, d16, d7
123 vshl.u64 d5, d16, d6
128 vld1.32 {d16}, [ap], r12
133 L(mid): vmvn d16, d16
136 vshl.u64 d1, d16, d
    [all...]
lorrshift.asm 134 vld1.32 {d16}, [ap], r12
140 L(2): vld1.32 {d16}, [ap], r12
143 vshl.u64 d1, d16, d7
144 vshl.u64 d5, d16, d6
148 L(top): vld1.32 {d16}, [ap], r12
155 vshl.u64 d1, d16, d7
156 vshl.u64 d5, d16, d6
170 vshl.u64 d16, d17, d6
182 L(cj1): veor d16, d16, d1
    [all...]
hamdist.asm 82 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat
91 vpadal.u8 d16, d24
164 vmov.32 r0, d16[0]
popcount.asm 78 vpadal.u8 d16, d24 C d16/q8 = 0; could just splat
85 vpadal.u8 d16, d24
140 vmov.32 r0, d16[0]
  /src/external/gpl3/gdb.old/dist/gdb/testsuite/gdb.opencl/
vec_comps.cl 55 CREATE_VEC(double16, d16)
datatypes.cl 141 double16 d16 = (double16)(1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0, 10.0, 11.0, 12.0, 13.0, 14.0, 15.0, 16.0);
  /src/external/gpl3/gdb/dist/gdb/testsuite/gdb.opencl/
vec_comps.cl 55 CREATE_VEC(double16, d16)
datatypes.cl 141 double16 d16 = (double16)(1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0, 10.0, 11.0, 12.0, 13.0, 14.0, 15.0, 16.0);
  /src/external/gpl3/gdb/dist/sim/testsuite/mips/
r6-64.s 31 d16: .dword 0xffffffffdead00dd label
116 r6ck_1dr1i daui, d5, 0xdead, d16
121 r6ck_0dr1i dahi, d16, 0xabce, d19
  /src/external/gpl3/gdb.old/dist/sim/testsuite/mips/
r6-64.s 31 d16: .dword 0xffffffffdead00dd label
116 r6ck_1dr1i daui, d5, 0xdead, d16
121 r6ck_0dr1i dahi, d16, 0xabce, d19
  /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/
ghash-armv4.S 362 vshr.u64 d16,#63 @ t0=0xc2....01
416 vext.8 d16, d26, d26, #1 @ A1
417 vmull.p8 q8, d16, d6 @ F = A1*B
430 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
437 veor d16, d16, d17
454 vext.8 d16, d28, d28, #1 @ A1
455 vmull.p8 q8, d16, d6 @ F = A1*B
468 veor d16, d16, d17 @ t0 = (L) (P0 + P1) <<
    [all...]
armv4-gf2m.S 185 vext.8 d16, d27, d27, #2 @ B2
186 vmull.p8 q8, d26, d16 @ G = A*B2
195 vext.8 d16, d27, d27, #4 @ B4
198 vmull.p8 q8, d26, d16 @ K = A*B4
205 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
poly1305-armv4.S 505 vmovn.i64 d16,q8
509 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff
526 vadd.i32 d16,d16,d8 @ h2 -> h3
531 vshr.u32 d8,d16,#26
532 vbic.i32 d16,#0xfc000000
544 vtrn.32 d5,d16
576 vshl.u32 d6,d16,#2
577 vmov d5,d16
582 vadd.i32 d6,d6,d16
    [all...]
bsaes-armv7.S 103 vtbl.8 d0, {q10}, d16
106 vtbl.8 d2, {q11}, d16
109 vtbl.8 d4, {q12}, d16
112 vtbl.8 d6, {q13}, d16
115 vtbl.8 d8, {q14}, d16
118 vtbl.8 d10, {q15}, d16
121 vtbl.8 d12, {q10}, d16
123 vtbl.8 d14, {q11}, d16
595 vtbl.8 d0, {q10}, d16
598 vtbl.8 d2, {q11}, d16
    [all...]
  /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/
ghash-armv4.S 362 vshr.u64 d16,#63 @ t0=0xc2....01
416 vext.8 d16, d26, d26, #1 @ A1
417 vmull.p8 q8, d16, d6 @ F = A1*B
430 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
437 veor d16, d16, d17
454 vext.8 d16, d28, d28, #1 @ A1
455 vmull.p8 q8, d16, d6 @ F = A1*B
468 veor d16, d16, d17 @ t0 = (L) (P0 + P1) <<
    [all...]
armv4-gf2m.S 185 vext.8 d16, d27, d27, #2 @ B2
186 vmull.p8 q8, d26, d16 @ G = A*B2
195 vext.8 d16, d27, d27, #4 @ B4
198 vmull.p8 q8, d26, d16 @ K = A*B4
205 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
poly1305-armv4.S 505 vmovn.i64 d16,q8
509 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff
526 vadd.i32 d16,d16,d8 @ h2 -> h3
531 vshr.u32 d8,d16,#26
532 vbic.i32 d16,#0xfc000000
544 vtrn.32 d5,d16
576 vshl.u32 d6,d16,#2
577 vmov d5,d16
582 vadd.i32 d6,d6,d16
    [all...]
bsaes-armv7.S 103 vtbl.8 d0, {q10}, d16
106 vtbl.8 d2, {q11}, d16
109 vtbl.8 d4, {q12}, d16
112 vtbl.8 d6, {q13}, d16
115 vtbl.8 d8, {q14}, d16
118 vtbl.8 d10, {q15}, d16
121 vtbl.8 d12, {q10}, d16
123 vtbl.8 d14, {q11}, d16
595 vtbl.8 d0, {q10}, d16
598 vtbl.8 d2, {q11}, d16
    [all...]
  /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/
ghash-armv4.S 361 vshr.u64 d16,#63 @ t0=0xc2....01
415 vext.8 d16, d26, d26, #1 @ A1
416 vmull.p8 q8, d16, d6 @ F = A1*B
429 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8
436 veor d16, d16, d17
453 vext.8 d16, d28, d28, #1 @ A1
454 vmull.p8 q8, d16, d6 @ F = A1*B
467 veor d16, d16, d17 @ t0 = (L) (P0 + P1) <<
    [all...]
armv4-gf2m.S 182 vext.8 d16, d27, d27, #2 @ B2
183 vmull.p8 q8, d26, d16 @ G = A*B2
192 vext.8 d16, d27, d27, #4 @ B4
195 vmull.p8 q8, d26, d16 @ K = A*B4
202 veor d16, d16, d17 @ t3 = (K) (P6 + P7) << 32
poly1305-armv4.S 511 vmovn.i64 d16,q8
515 vbic.i32 d16,#0xfc000000 @ &=0x03ffffff
532 vadd.i32 d16,d16,d8 @ h2 -> h3
537 vshr.u32 d8,d16,#26
538 vbic.i32 d16,#0xfc000000
550 vtrn.32 d5,d16
582 vshl.u32 d6,d16,#2
583 vmov d5,d16
588 vadd.i32 d6,d6,d16
    [all...]
  /src/external/gpl3/gcc/dist/libgcc/config/arm/
cmse_nonsecure_call.S 29 .fpu fpv5-d16
31 .fpu fpv4-sp-d16
88 vlstm sp /* Lazy store and clearance of d0-d16 and FPSCR. */
111 vlldm sp /* Lazy restore of d0-d16 and FPSCR. */
  /src/external/gpl3/gcc.old/dist/libgcc/config/arm/
cmse_nonsecure_call.S 29 .fpu fpv5-d16
31 .fpu fpv4-sp-d16
88 vlstm sp /* Lazy store and clearance of d0-d16 and FPSCR. */
111 vlldm sp /* Lazy restore of d0-d16 and FPSCR. */
  /src/crypto/external/apache2/openssl/dist/crypto/sha/asm/
keccak1600-armv4.pl 1190 veor d16, d16, d28 @ A[2][3] ^= C[2]
1220 vshl.u64 d14, d16, #25
1224 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
1229 @ vshl.u64 d16, d19, #8
1233 vext.8 d16, d19, d19, #8-1 @ A[2][3] = ROL64(A[3][4], rhotates[3][4])
1338 vld1.32 {d16}, [r0,:64]! @ A[2][3]
1407 veor d16, d16, d31 @ A[2][3] ^= *inp++
1470 vst1.32 {d16}, [r0,:64]
    [all...]
  /src/crypto/external/bsd/openssl/dist/crypto/sha/asm/
keccak1600-armv4.pl 1179 veor d16, d16, d28 @ A[2][3] ^= C[2]
1209 vshl.u64 d14, d16, #25
1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
1218 @ vshl.u64 d16, d19, #8
1222 vext.8 d16, d19, d19, #8-1 @ A[2][3] = ROL64(A[3][4], rhotates[3][4])
1327 vld1.32 {d16}, [r0,:64]! @ A[2][3]
1396 veor d16, d16, d31 @ A[2][3] ^= *inp++
1459 vst1.32 {d16}, [r0,:64]
    [all...]

Completed in 29 milliseconds

1 2 3