HomeSort by: relevance | last modified time | path
    Searched refs:q13 (Results 1 - 25 of 50) sorted by relevancy

1 2

  /src/external/lgpl3/gmp/dist/mpn/arm/neon/
sec_tabselect.asm 70 veor q13, q13, q13 C 4 counter copies
74 L(top): vceq.i32 maskq, q13, q15 C compare idx copies to `which' copies
76 vadd.i32 q13, q13, q14
92 veor q13, q13, q13
95 L(tp4): vceq.i32 maskq, q13, q1
    [all...]
hamdist.asm 116 vcnt.8 q13, q1
129 vcnt.8 q13, q3
139 vpadal.u8 q9, q13
140 vcnt.8 q13, q1
148 vpadal.u8 q9, q13
149 vcnt.8 q13, q3
153 vpadal.u8 q9, q13
157 vcnt.8 q13, q1
159 vpadal.u8 q9, q13
popcount.asm 104 vcnt.8 q13, q1
113 vcnt.8 q13, q3
120 vpadal.u8 q9, q13
121 vcnt.8 q13, q1
126 vpadal.u8 q9, q13
127 vcnt.8 q13, q3
131 vpadal.u8 q9, q13
133 vcnt.8 q13, q1
135 vpadal.u8 q9, q13
  /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/
bsaes-armv7.S 108 veor q13, q3, q9
112 vtbl.8 d6, {q13}, d16
113 vtbl.8 d7, {q13}, d17
251 veor q13, q4, q0
263 vand q13, q13, q9
266 veor q11, q11, q13
267 veor q10, q10, q13
268 vand q13, q9, q12
271 veor q8, q8, q13
    [all...]
sha1-armv4-large.S 542 vadd.i32 q13,q3,q14
558 vst1.32 {q13},[r12,:128]!
562 vext.8 q13,q15,q12,#4
572 vshr.u32 q12,q13,#30
575 vshl.u32 q13,q13,#2
581 veor q8,q8,q13
589 vadd.i32 q13,q8,q14
606 vst1.32 {q13},[r12,:128]!
609 vext.8 q13,q15,q12,#
    [all...]
chacha-armv4.S 893 veor q13,q5,q6
899 vshr.u32 q5,q13,#20
905 vsli.32 q5,q13,#12
917 veor q13,q7,q4
923 vshr.u32 q7,q13,#24
929 vsli.32 q7,q13,#8
941 veor q13,q5,q6
947 vshr.u32 q5,q13,#25
953 vsli.32 q5,q13,#7
1001 veor q13,q5,q
    [all...]
armv4-mont.S 243 vmull.u32 q13,d28,d3[1]
257 vmlal.u32 q13,d29,d7[1]
264 vmov q12,q13
265 veor q13,q13
292 vmlal.u32 q13,d28,d3[1]
305 vmlal.u32 q13,d29,d7[1]
312 vmov q12,q13
313 veor q13,q13
    [all...]
ghashv8-armx.S 61 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed
62 vst1.64 {q13,q14},[r0]! @ store Htable[1..2]
71 vld1.64 {q12,q13},[r1] @ load twisted H, ...
81 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
127 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
160 INST(0xa2,0xae,0xaa,0xf2) @ pmull q5,q13,q9
164 INST(0xa5,0x2e,0xab,0xf2) @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi)
214 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
armv4cpuid.S 213 veor q13, q13, q13
  /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/
bsaes-armv7.S 108 veor q13, q3, q9
112 vtbl.8 d6, {q13}, d16
113 vtbl.8 d7, {q13}, d17
251 veor q13, q4, q0
263 vand q13, q13, q9
266 veor q11, q11, q13
267 veor q10, q10, q13
268 vand q13, q9, q12
271 veor q8, q8, q13
    [all...]
sha1-armv4-large.S 542 vadd.i32 q13,q3,q14
558 vst1.32 {q13},[r12,:128]!
562 vext.8 q13,q15,q12,#4
572 vshr.u32 q12,q13,#30
575 vshl.u32 q13,q13,#2
581 veor q8,q8,q13
589 vadd.i32 q13,q8,q14
606 vst1.32 {q13},[r12,:128]!
609 vext.8 q13,q15,q12,#
    [all...]
chacha-armv4.S 893 veor q13,q5,q6
899 vshr.u32 q5,q13,#20
905 vsli.32 q5,q13,#12
917 veor q13,q7,q4
923 vshr.u32 q7,q13,#24
929 vsli.32 q7,q13,#8
941 veor q13,q5,q6
947 vshr.u32 q5,q13,#25
953 vsli.32 q5,q13,#7
1001 veor q13,q5,q
    [all...]
armv4-mont.S 243 vmull.u32 q13,d28,d3[1]
257 vmlal.u32 q13,d29,d7[1]
264 vmov q12,q13
265 veor q13,q13
292 vmlal.u32 q13,d28,d3[1]
305 vmlal.u32 q13,d29,d7[1]
312 vmov q12,q13
313 veor q13,q13
    [all...]
ghashv8-armx.S 61 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed
62 vst1.64 {q13,q14},[r0]! @ store Htable[1..2]
71 vld1.64 {q12,q13},[r1] @ load twisted H, ...
81 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
127 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
160 INST(0xa2,0xae,0xaa,0xf2) @ pmull q5,q13,q9
164 INST(0xa5,0x2e,0xab,0xf2) @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi)
214 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
  /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/
bsaes-armv7.S 105 veor q13, q3, q9
109 vtbl.8 d6, {q13}, d16
110 vtbl.8 d7, {q13}, d17
248 veor q13, q4, q0
260 vand q13, q13, q9
263 veor q11, q11, q13
264 veor q10, q10, q13
265 vand q13, q9, q12
268 veor q8, q8, q13
    [all...]
sha1-armv4-large.S 535 vadd.i32 q13,q3,q14
551 vst1.32 {q13},[r12,:128]!
555 vext.8 q13,q15,q12,#4
565 vshr.u32 q12,q13,#30
568 vshl.u32 q13,q13,#2
574 veor q8,q8,q13
582 vadd.i32 q13,q8,q14
599 vst1.32 {q13},[r12,:128]!
602 vext.8 q13,q15,q12,#
    [all...]
chacha-armv4.S 886 veor q13,q5,q6
892 vshr.u32 q5,q13,#20
898 vsli.32 q5,q13,#12
910 veor q13,q7,q4
916 vshr.u32 q7,q13,#24
922 vsli.32 q7,q13,#8
934 veor q13,q5,q6
940 vshr.u32 q5,q13,#25
946 vsli.32 q5,q13,#7
994 veor q13,q5,q
    [all...]
armv4-mont.S 236 vmull.u32 q13,d28,d3[1]
250 vmlal.u32 q13,d29,d7[1]
257 vmov q12,q13
258 veor q13,q13
285 vmlal.u32 q13,d28,d3[1]
298 vmlal.u32 q13,d29,d7[1]
305 vmov q12,q13
306 veor q13,q13
    [all...]
ghashv8-armx.S 54 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed
55 vst1.64 {q13,q14},[r0]! @ store Htable[1..2]
64 vld1.64 {q12,q13},[r1] @ load twisted H, ...
74 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
120 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
151 .byte 0xa2,0xae,0xaa,0xf2 @ pmull q5,q13,q9
155 .byte 0xa5,0x2e,0xab,0xf2 @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi)
204 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
  /src/sys/crypto/chacha/arch/arm/
chacha_neon_32.S 180 vld1.8 {q13-q14}, [r3] /* q13-q14 := key */
203 vdup.32 q13, r6 /* q13-q15 := nonce */
210 1: ROUNDLD q0,q1,q2,q3, q5,q6,q7,q4, q10,q11,q8,q9, q15,q12,q13,q14
212 ROUND q0,q1,q2,q3, q4,q5,q6,q7, q8,q9,q10,q11, q12,q13,q14,q15, \
214 ROUNDLD q0,q1,q2,q3, q4,q5,q6,q7, q8,q9,q10,q11, q12,q13,q14,q15
215 ROUND q0,q1,q2,q3, q5,q6,q7,q4, q10,q11,q8,q9, q15,q12,q13,q14, \
325 vzip.32 q12, q13
342 vadd.u32 q13, q13, q
    [all...]
  /src/sys/crypto/aes/arch/arm/
aes_neon_32.S 218 * q13={d26-d27}: jr/jak/jakr/sb1_1(jo)/mc[rmod4].forward
275 veor q0, q0, q13
283 veor q14, q12, q13
285 /* (q12, q13) := (mc[rmod4].forward, mc[rmod4].backward) */
286 vld1.8 {q12-q13}, [r6 :256]
323 /* q13 := jr = 1/j */
330 /* q13 := jak = 1/j + a/k */
331 veor q13, q13, q0
337 /* q13 := jakr = 1/(1/j + a/k) *
    [all...]
  /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/aarch64/
ghashv8-armx.S 53 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed
54 vst1.64 {q13,q14},[r0]! @ store Htable[1..2]
63 vld1.64 {q12,q13},[r1] @ load twisted H, ...
73 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
119 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
150 .byte 0xa2,0xae,0xaa,0xf2 @ pmull q5,q13,q9
154 .byte 0xa5,0x2e,0xab,0xf2 @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi)
203 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
  /src/crypto/external/apache2/openssl/dist/crypto/aes/asm/
aesv8-armx.pl 500 vld1.32 {q12-q13},[$key],#32 // load key schedule...
508 aese $dat0,q13
540 vld1.32 {q12-q13},[$key],#32 // load key schedule...
548 aesd $dat0,q13
585 vld1.32 {q12-q13},[$key_],#32
702 aese $dat0,q13
704 aese $dat1,q13
706 aese $dat2,q13
708 aese $dat3,q13
710 aese $dat4,q13
    [all...]
  /src/crypto/external/bsd/openssl/dist/crypto/aes/asm/
aesv8-armx.pl 476 vld1.32 {q12-q13},[$key],#32 // load key schedule...
484 aese $dat0,q13
516 vld1.32 {q12-q13},[$key],#32 // load key schedule...
524 aesd $dat0,q13
561 vld1.32 {q12-q13},[$key_],#32
678 aese $dat0,q13
680 aese $dat1,q13
682 aese $dat2,q13
684 aese $dat3,q13
686 aese $dat4,q13
    [all...]
  /src/crypto/external/apache2/openssl/dist/crypto/
armv4cpuid.pl 236 veor q13, q13, q13

Completed in 32 milliseconds

1 2