| /src/external/lgpl3/gmp/dist/mpn/arm/neon/ |
| sec_tabselect.asm | 70 veor q13, q13, q13 C 4 counter copies 74 L(top): vceq.i32 maskq, q13, q15 C compare idx copies to `which' copies 76 vadd.i32 q13, q13, q14 92 veor q13, q13, q13 95 L(tp4): vceq.i32 maskq, q13, q1 [all...] |
| hamdist.asm | 116 vcnt.8 q13, q1 129 vcnt.8 q13, q3 139 vpadal.u8 q9, q13 140 vcnt.8 q13, q1 148 vpadal.u8 q9, q13 149 vcnt.8 q13, q3 153 vpadal.u8 q9, q13 157 vcnt.8 q13, q1 159 vpadal.u8 q9, q13
|
| popcount.asm | 104 vcnt.8 q13, q1 113 vcnt.8 q13, q3 120 vpadal.u8 q9, q13 121 vcnt.8 q13, q1 126 vpadal.u8 q9, q13 127 vcnt.8 q13, q3 131 vpadal.u8 q9, q13 133 vcnt.8 q13, q1 135 vpadal.u8 q9, q13
|
| /src/crypto/external/apache2/openssl/lib/libcrypto/arch/arm/ |
| bsaes-armv7.S | 108 veor q13, q3, q9 112 vtbl.8 d6, {q13}, d16 113 vtbl.8 d7, {q13}, d17 251 veor q13, q4, q0 263 vand q13, q13, q9 266 veor q11, q11, q13 267 veor q10, q10, q13 268 vand q13, q9, q12 271 veor q8, q8, q13 [all...] |
| sha1-armv4-large.S | 542 vadd.i32 q13,q3,q14 558 vst1.32 {q13},[r12,:128]! 562 vext.8 q13,q15,q12,#4 572 vshr.u32 q12,q13,#30 575 vshl.u32 q13,q13,#2 581 veor q8,q8,q13 589 vadd.i32 q13,q8,q14 606 vst1.32 {q13},[r12,:128]! 609 vext.8 q13,q15,q12,# [all...] |
| chacha-armv4.S | 893 veor q13,q5,q6 899 vshr.u32 q5,q13,#20 905 vsli.32 q5,q13,#12 917 veor q13,q7,q4 923 vshr.u32 q7,q13,#24 929 vsli.32 q7,q13,#8 941 veor q13,q5,q6 947 vshr.u32 q5,q13,#25 953 vsli.32 q5,q13,#7 1001 veor q13,q5,q [all...] |
| armv4-mont.S | 243 vmull.u32 q13,d28,d3[1] 257 vmlal.u32 q13,d29,d7[1] 264 vmov q12,q13 265 veor q13,q13 292 vmlal.u32 q13,d28,d3[1] 305 vmlal.u32 q13,d29,d7[1] 312 vmov q12,q13 313 veor q13,q13 [all...] |
| ghashv8-armx.S | 61 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed 62 vst1.64 {q13,q14},[r0]! @ store Htable[1..2] 71 vld1.64 {q12,q13},[r1] @ load twisted H, ... 81 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) 127 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 160 INST(0xa2,0xae,0xaa,0xf2) @ pmull q5,q13,q9 164 INST(0xa5,0x2e,0xab,0xf2) @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi) 214 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
|
| armv4cpuid.S | 213 veor q13, q13, q13
|
| /src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ |
| bsaes-armv7.S | 108 veor q13, q3, q9 112 vtbl.8 d6, {q13}, d16 113 vtbl.8 d7, {q13}, d17 251 veor q13, q4, q0 263 vand q13, q13, q9 266 veor q11, q11, q13 267 veor q10, q10, q13 268 vand q13, q9, q12 271 veor q8, q8, q13 [all...] |
| sha1-armv4-large.S | 542 vadd.i32 q13,q3,q14 558 vst1.32 {q13},[r12,:128]! 562 vext.8 q13,q15,q12,#4 572 vshr.u32 q12,q13,#30 575 vshl.u32 q13,q13,#2 581 veor q8,q8,q13 589 vadd.i32 q13,q8,q14 606 vst1.32 {q13},[r12,:128]! 609 vext.8 q13,q15,q12,# [all...] |
| chacha-armv4.S | 893 veor q13,q5,q6 899 vshr.u32 q5,q13,#20 905 vsli.32 q5,q13,#12 917 veor q13,q7,q4 923 vshr.u32 q7,q13,#24 929 vsli.32 q7,q13,#8 941 veor q13,q5,q6 947 vshr.u32 q5,q13,#25 953 vsli.32 q5,q13,#7 1001 veor q13,q5,q [all...] |
| armv4-mont.S | 243 vmull.u32 q13,d28,d3[1] 257 vmlal.u32 q13,d29,d7[1] 264 vmov q12,q13 265 veor q13,q13 292 vmlal.u32 q13,d28,d3[1] 305 vmlal.u32 q13,d29,d7[1] 312 vmov q12,q13 313 veor q13,q13 [all...] |
| ghashv8-armx.S | 61 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed 62 vst1.64 {q13,q14},[r0]! @ store Htable[1..2] 71 vld1.64 {q12,q13},[r1] @ load twisted H, ... 81 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) 127 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 160 INST(0xa2,0xae,0xaa,0xf2) @ pmull q5,q13,q9 164 INST(0xa5,0x2e,0xab,0xf2) @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi) 214 INST(0xa2,0x2e,0xaa,0xf2) @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
|
| /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/arm/ |
| bsaes-armv7.S | 105 veor q13, q3, q9 109 vtbl.8 d6, {q13}, d16 110 vtbl.8 d7, {q13}, d17 248 veor q13, q4, q0 260 vand q13, q13, q9 263 veor q11, q11, q13 264 veor q10, q10, q13 265 vand q13, q9, q12 268 veor q8, q8, q13 [all...] |
| sha1-armv4-large.S | 535 vadd.i32 q13,q3,q14 551 vst1.32 {q13},[r12,:128]! 555 vext.8 q13,q15,q12,#4 565 vshr.u32 q12,q13,#30 568 vshl.u32 q13,q13,#2 574 veor q8,q8,q13 582 vadd.i32 q13,q8,q14 599 vst1.32 {q13},[r12,:128]! 602 vext.8 q13,q15,q12,# [all...] |
| chacha-armv4.S | 886 veor q13,q5,q6 892 vshr.u32 q5,q13,#20 898 vsli.32 q5,q13,#12 910 veor q13,q7,q4 916 vshr.u32 q7,q13,#24 922 vsli.32 q7,q13,#8 934 veor q13,q5,q6 940 vshr.u32 q5,q13,#25 946 vsli.32 q5,q13,#7 994 veor q13,q5,q [all...] |
| armv4-mont.S | 236 vmull.u32 q13,d28,d3[1] 250 vmlal.u32 q13,d29,d7[1] 257 vmov q12,q13 258 veor q13,q13 285 vmlal.u32 q13,d28,d3[1] 298 vmlal.u32 q13,d29,d7[1] 305 vmov q12,q13 306 veor q13,q13 [all...] |
| ghashv8-armx.S | 54 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed 55 vst1.64 {q13,q14},[r0]! @ store Htable[1..2] 64 vld1.64 {q12,q13},[r1] @ load twisted H, ... 74 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) 120 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 151 .byte 0xa2,0xae,0xaa,0xf2 @ pmull q5,q13,q9 155 .byte 0xa5,0x2e,0xab,0xf2 @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi) 204 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
|
| /src/sys/crypto/chacha/arch/arm/ |
| chacha_neon_32.S | 180 vld1.8 {q13-q14}, [r3] /* q13-q14 := key */ 203 vdup.32 q13, r6 /* q13-q15 := nonce */ 210 1: ROUNDLD q0,q1,q2,q3, q5,q6,q7,q4, q10,q11,q8,q9, q15,q12,q13,q14 212 ROUND q0,q1,q2,q3, q4,q5,q6,q7, q8,q9,q10,q11, q12,q13,q14,q15, \ 214 ROUNDLD q0,q1,q2,q3, q4,q5,q6,q7, q8,q9,q10,q11, q12,q13,q14,q15 215 ROUND q0,q1,q2,q3, q5,q6,q7,q4, q10,q11,q8,q9, q15,q12,q13,q14, \ 325 vzip.32 q12, q13 342 vadd.u32 q13, q13, q [all...] |
| /src/sys/crypto/aes/arch/arm/ |
| aes_neon_32.S | 218 * q13={d26-d27}: jr/jak/jakr/sb1_1(jo)/mc[rmod4].forward 275 veor q0, q0, q13 283 veor q14, q12, q13 285 /* (q12, q13) := (mc[rmod4].forward, mc[rmod4].backward) */ 286 vld1.8 {q12-q13}, [r6 :256] 323 /* q13 := jr = 1/j */ 330 /* q13 := jak = 1/j + a/k */ 331 veor q13, q13, q0 337 /* q13 := jakr = 1/(1/j + a/k) * [all...] |
| /src/crypto/external/bsd/openssl.old/lib/libcrypto/arch/aarch64/ |
| ghashv8-armx.S | 53 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed 54 vst1.64 {q13,q14},[r0]! @ store Htable[1..2] 63 vld1.64 {q12,q13},[r1] @ load twisted H, ... 73 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) 119 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 150 .byte 0xa2,0xae,0xaa,0xf2 @ pmull q5,q13,q9 154 .byte 0xa5,0x2e,0xab,0xf2 @ pmull2 q1,q13,q10 @ (H^2.lo+H^2.hi)·(Xi.lo+Xi.hi) 203 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
|
| /src/crypto/external/apache2/openssl/dist/crypto/aes/asm/ |
| aesv8-armx.pl | 500 vld1.32 {q12-q13},[$key],#32 // load key schedule... 508 aese $dat0,q13 540 vld1.32 {q12-q13},[$key],#32 // load key schedule... 548 aesd $dat0,q13 585 vld1.32 {q12-q13},[$key_],#32 702 aese $dat0,q13 704 aese $dat1,q13 706 aese $dat2,q13 708 aese $dat3,q13 710 aese $dat4,q13 [all...] |
| /src/crypto/external/bsd/openssl/dist/crypto/aes/asm/ |
| aesv8-armx.pl | 476 vld1.32 {q12-q13},[$key],#32 // load key schedule... 484 aese $dat0,q13 516 vld1.32 {q12-q13},[$key],#32 // load key schedule... 524 aesd $dat0,q13 561 vld1.32 {q12-q13},[$key_],#32 678 aese $dat0,q13 680 aese $dat1,q13 682 aese $dat2,q13 684 aese $dat3,q13 686 aese $dat4,q13 [all...] |
| /src/crypto/external/apache2/openssl/dist/crypto/ |
| armv4cpuid.pl | 236 veor q13, q13, q13
|