/src/sys/crypto/aes/ |
aes_ct_dec.c | 56 uint32_t q0, q1, q2, q3, q4, q5, q6, q7; local in function:br_aes_ct_bitslice_invSbox 65 q7 = q[7]; 68 q[5] = q7 ^ q2 ^ q4; 71 q[2] = q4 ^ q7 ^ q1; 73 q[0] = q2 ^ q5 ^ q7; 84 q7 = q[7]; 87 q[5] = q7 ^ q2 ^ q4; 90 q[2] = q4 ^ q7 ^ q1; 92 q[0] = q2 ^ q5 ^ q7; 130 uint32_t q0, q1, q2, q3, q4, q5, q6, q7; local in function:inv_mix_columns [all...] |
aes_ct_enc.c | 72 uint32_t q0, q1, q2, q3, q4, q5, q6, q7; local in function:mix_columns 82 q7 = q[7]; 90 r7 = (q7 >> 8) | (q7 << 24); 92 q[0] = q7 ^ r7 ^ r0 ^ rotr16(q0 ^ r0); 93 q[1] = q0 ^ r0 ^ q7 ^ r7 ^ r1 ^ rotr16(q1 ^ r1); 95 q[3] = q2 ^ r2 ^ q7 ^ r7 ^ r3 ^ rotr16(q3 ^ r3); 96 q[4] = q3 ^ r3 ^ q7 ^ r7 ^ r4 ^ rotr16(q4 ^ r4); 99 q[7] = q6 ^ r6 ^ r7 ^ rotr16(q7 ^ r7);
|
/src/sys/crypto/aes/arch/x86/ |
aes_sse2_dec.c | 40 __m128i q0, q1, q2, q3, q4, q5, q6, q7; local in function:aes_sse2_bitslice_invSbox 49 q7 = _mm_shuffle_epi32(q[3], 0x0e); 52 q[2] = _mm_unpacklo_epi64(q4 ^ q7 ^ q1, q0 ^ q3 ^ q5); 53 q[1] = _mm_unpacklo_epi64(q3 ^ q6 ^ q0, q7 ^ q2 ^ q4); 54 q[0] = _mm_unpacklo_epi64(q2 ^ q5 ^ q7, q6 ^ q1 ^ q3); 65 q7 = _mm_shuffle_epi32(q[3], 0x0e); 68 q[2] = _mm_unpacklo_epi64(q4 ^ q7 ^ q1, q0 ^ q3 ^ q5); 69 q[1] = _mm_unpacklo_epi64(q3 ^ q6 ^ q0, q7 ^ q2 ^ q4); 70 q[0] = _mm_unpacklo_epi64(q2 ^ q5 ^ q7, q6 ^ q1 ^ q3); 123 __m128i q0, q1, q2, q3, q4, q5, q6, q7; local in function:inv_mix_columns [all...] |
aes_sse2_enc.c | 82 __m128i q0, q1, q2, q3, q4, q5, q6, q7; local in function:mix_columns 95 q7 = _mm_shuffle_epi32(q3, 0x0e); 105 s0 = q7 ^ r7 ^ r0 ^ rotr32(q0 ^ r0); 106 s1 = q0 ^ r0 ^ q7 ^ r7 ^ r1 ^ rotr32(q1 ^ r1); 108 s3 = q2 ^ r2 ^ q7 ^ r7 ^ r3 ^ rotr32(q3 ^ r3); 109 s4 = q3 ^ r3 ^ q7 ^ r7 ^ r4 ^ rotr32(q4 ^ r4); 112 s7 = q6 ^ r6 ^ r7 ^ rotr32(q7 ^ r7);
|
aes_sse2.c | 246 __m128i q7 = _mm_shuffle_epi32(q[3], 0x0e); local in function:aes_sse2_ortho 250 SWAP8(q3, q7); 254 q[3] = _mm_unpacklo_epi64(q3, q7); 356 __m128i q[4], q0, q1, q2, q3, q4, q5, q6, q7; local in function:aes_sse2_keysched 369 q7 = _mm_shuffle_epi32(q3, 0x0e); 371 _mm_storeu_si64(&comp_skey[j + 1], q4 | q5 | q6 | q7);
|