Home | History | Annotate | Line # | Download | only in x86_64
      1 #include <machine/asm.h>
      2 .text
      3 
      4 
      5 .globl	aesni_cbc_sha1_enc
      6 .type	aesni_cbc_sha1_enc,@function
      7 .align	32
      8 aesni_cbc_sha1_enc:
      9 .cfi_startproc
     10 
     11 	movl	OPENSSL_ia32cap_P+0(%rip),%r10d
     12 	movq	OPENSSL_ia32cap_P+4(%rip),%r11
     13 	btq	$61,%r11
     14 	jc	aesni_cbc_sha1_enc_shaext
     15 	andl	$268435456,%r11d
     16 	andl	$1073741824,%r10d
     17 	orl	%r11d,%r10d
     18 	cmpl	$1342177280,%r10d
     19 	je	aesni_cbc_sha1_enc_avx
     20 	jmp	aesni_cbc_sha1_enc_ssse3
     21 	.byte	0xf3,0xc3
     22 .cfi_endproc
     23 .size	aesni_cbc_sha1_enc,.-aesni_cbc_sha1_enc
     24 .type	aesni_cbc_sha1_enc_ssse3,@function
     25 .align	32
     26 aesni_cbc_sha1_enc_ssse3:
     27 .cfi_startproc
     28 	movq	8(%rsp),%r10
     29 
     30 
     31 	pushq	%rbx
     32 .cfi_adjust_cfa_offset	8
     33 .cfi_offset	%rbx,-16
     34 	pushq	%rbp
     35 .cfi_adjust_cfa_offset	8
     36 .cfi_offset	%rbp,-24
     37 	pushq	%r12
     38 .cfi_adjust_cfa_offset	8
     39 .cfi_offset	%r12,-32
     40 	pushq	%r13
     41 .cfi_adjust_cfa_offset	8
     42 .cfi_offset	%r13,-40
     43 	pushq	%r14
     44 .cfi_adjust_cfa_offset	8
     45 .cfi_offset	%r14,-48
     46 	pushq	%r15
     47 .cfi_adjust_cfa_offset	8
     48 .cfi_offset	%r15,-56
     49 	leaq	-104(%rsp),%rsp
     50 .cfi_adjust_cfa_offset	104
     51 
     52 
     53 	movq	%rdi,%r12
     54 	movq	%rsi,%r13
     55 	movq	%rdx,%r14
     56 	leaq	112(%rcx),%r15
     57 	movdqu	(%r8),%xmm2
     58 	movq	%r8,88(%rsp)
     59 	shlq	$6,%r14
     60 	subq	%r12,%r13
     61 	movl	240-112(%r15),%r8d
     62 	addq	%r10,%r14
     63 
     64 	leaq	K_XX_XX(%rip),%r11
     65 	movl	0(%r9),%eax
     66 	movl	4(%r9),%ebx
     67 	movl	8(%r9),%ecx
     68 	movl	12(%r9),%edx
     69 	movl	%ebx,%esi
     70 	movl	16(%r9),%ebp
     71 	movl	%ecx,%edi
     72 	xorl	%edx,%edi
     73 	andl	%edi,%esi
     74 
     75 	movdqa	64(%r11),%xmm3
     76 	movdqa	0(%r11),%xmm13
     77 	movdqu	0(%r10),%xmm4
     78 	movdqu	16(%r10),%xmm5
     79 	movdqu	32(%r10),%xmm6
     80 	movdqu	48(%r10),%xmm7
     81 .byte	102,15,56,0,227
     82 .byte	102,15,56,0,235
     83 .byte	102,15,56,0,243
     84 	addq	$64,%r10
     85 	paddd	%xmm13,%xmm4
     86 .byte	102,15,56,0,251
     87 	paddd	%xmm13,%xmm5
     88 	paddd	%xmm13,%xmm6
     89 	movdqa	%xmm4,0(%rsp)
     90 	psubd	%xmm13,%xmm4
     91 	movdqa	%xmm5,16(%rsp)
     92 	psubd	%xmm13,%xmm5
     93 	movdqa	%xmm6,32(%rsp)
     94 	psubd	%xmm13,%xmm6
     95 	movups	-112(%r15),%xmm15
     96 	movups	16-112(%r15),%xmm0
     97 	jmp	.Loop_ssse3
     98 .align	32
     99 .Loop_ssse3:
    100 	rorl	$2,%ebx
    101 	movups	0(%r12),%xmm14
    102 	xorps	%xmm15,%xmm14
    103 	xorps	%xmm14,%xmm2
    104 	movups	-80(%r15),%xmm1
    105 .byte	102,15,56,220,208
    106 	pshufd	$238,%xmm4,%xmm8
    107 	xorl	%edx,%esi
    108 	movdqa	%xmm7,%xmm12
    109 	paddd	%xmm7,%xmm13
    110 	movl	%eax,%edi
    111 	addl	0(%rsp),%ebp
    112 	punpcklqdq	%xmm5,%xmm8
    113 	xorl	%ecx,%ebx
    114 	roll	$5,%eax
    115 	addl	%esi,%ebp
    116 	psrldq	$4,%xmm12
    117 	andl	%ebx,%edi
    118 	xorl	%ecx,%ebx
    119 	pxor	%xmm4,%xmm8
    120 	addl	%eax,%ebp
    121 	rorl	$7,%eax
    122 	pxor	%xmm6,%xmm12
    123 	xorl	%ecx,%edi
    124 	movl	%ebp,%esi
    125 	addl	4(%rsp),%edx
    126 	pxor	%xmm12,%xmm8
    127 	xorl	%ebx,%eax
    128 	roll	$5,%ebp
    129 	movdqa	%xmm13,48(%rsp)
    130 	addl	%edi,%edx
    131 	movups	-64(%r15),%xmm0
    132 .byte	102,15,56,220,209
    133 	andl	%eax,%esi
    134 	movdqa	%xmm8,%xmm3
    135 	xorl	%ebx,%eax
    136 	addl	%ebp,%edx
    137 	rorl	$7,%ebp
    138 	movdqa	%xmm8,%xmm12
    139 	xorl	%ebx,%esi
    140 	pslldq	$12,%xmm3
    141 	paddd	%xmm8,%xmm8
    142 	movl	%edx,%edi
    143 	addl	8(%rsp),%ecx
    144 	psrld	$31,%xmm12
    145 	xorl	%eax,%ebp
    146 	roll	$5,%edx
    147 	addl	%esi,%ecx
    148 	movdqa	%xmm3,%xmm13
    149 	andl	%ebp,%edi
    150 	xorl	%eax,%ebp
    151 	psrld	$30,%xmm3
    152 	addl	%edx,%ecx
    153 	rorl	$7,%edx
    154 	por	%xmm12,%xmm8
    155 	xorl	%eax,%edi
    156 	movl	%ecx,%esi
    157 	addl	12(%rsp),%ebx
    158 	movups	-48(%r15),%xmm1
    159 .byte	102,15,56,220,208
    160 	pslld	$2,%xmm13
    161 	pxor	%xmm3,%xmm8
    162 	xorl	%ebp,%edx
    163 	movdqa	0(%r11),%xmm3
    164 	roll	$5,%ecx
    165 	addl	%edi,%ebx
    166 	andl	%edx,%esi
    167 	pxor	%xmm13,%xmm8
    168 	xorl	%ebp,%edx
    169 	addl	%ecx,%ebx
    170 	rorl	$7,%ecx
    171 	pshufd	$238,%xmm5,%xmm9
    172 	xorl	%ebp,%esi
    173 	movdqa	%xmm8,%xmm13
    174 	paddd	%xmm8,%xmm3
    175 	movl	%ebx,%edi
    176 	addl	16(%rsp),%eax
    177 	punpcklqdq	%xmm6,%xmm9
    178 	xorl	%edx,%ecx
    179 	roll	$5,%ebx
    180 	addl	%esi,%eax
    181 	psrldq	$4,%xmm13
    182 	andl	%ecx,%edi
    183 	xorl	%edx,%ecx
    184 	pxor	%xmm5,%xmm9
    185 	addl	%ebx,%eax
    186 	rorl	$7,%ebx
    187 	movups	-32(%r15),%xmm0
    188 .byte	102,15,56,220,209
    189 	pxor	%xmm7,%xmm13
    190 	xorl	%edx,%edi
    191 	movl	%eax,%esi
    192 	addl	20(%rsp),%ebp
    193 	pxor	%xmm13,%xmm9
    194 	xorl	%ecx,%ebx
    195 	roll	$5,%eax
    196 	movdqa	%xmm3,0(%rsp)
    197 	addl	%edi,%ebp
    198 	andl	%ebx,%esi
    199 	movdqa	%xmm9,%xmm12
    200 	xorl	%ecx,%ebx
    201 	addl	%eax,%ebp
    202 	rorl	$7,%eax
    203 	movdqa	%xmm9,%xmm13
    204 	xorl	%ecx,%esi
    205 	pslldq	$12,%xmm12
    206 	paddd	%xmm9,%xmm9
    207 	movl	%ebp,%edi
    208 	addl	24(%rsp),%edx
    209 	psrld	$31,%xmm13
    210 	xorl	%ebx,%eax
    211 	roll	$5,%ebp
    212 	addl	%esi,%edx
    213 	movups	-16(%r15),%xmm1
    214 .byte	102,15,56,220,208
    215 	movdqa	%xmm12,%xmm3
    216 	andl	%eax,%edi
    217 	xorl	%ebx,%eax
    218 	psrld	$30,%xmm12
    219 	addl	%ebp,%edx
    220 	rorl	$7,%ebp
    221 	por	%xmm13,%xmm9
    222 	xorl	%ebx,%edi
    223 	movl	%edx,%esi
    224 	addl	28(%rsp),%ecx
    225 	pslld	$2,%xmm3
    226 	pxor	%xmm12,%xmm9
    227 	xorl	%eax,%ebp
    228 	movdqa	16(%r11),%xmm12
    229 	roll	$5,%edx
    230 	addl	%edi,%ecx
    231 	andl	%ebp,%esi
    232 	pxor	%xmm3,%xmm9
    233 	xorl	%eax,%ebp
    234 	addl	%edx,%ecx
    235 	rorl	$7,%edx
    236 	pshufd	$238,%xmm6,%xmm10
    237 	xorl	%eax,%esi
    238 	movdqa	%xmm9,%xmm3
    239 	paddd	%xmm9,%xmm12
    240 	movl	%ecx,%edi
    241 	addl	32(%rsp),%ebx
    242 	movups	0(%r15),%xmm0
    243 .byte	102,15,56,220,209
    244 	punpcklqdq	%xmm7,%xmm10
    245 	xorl	%ebp,%edx
    246 	roll	$5,%ecx
    247 	addl	%esi,%ebx
    248 	psrldq	$4,%xmm3
    249 	andl	%edx,%edi
    250 	xorl	%ebp,%edx
    251 	pxor	%xmm6,%xmm10
    252 	addl	%ecx,%ebx
    253 	rorl	$7,%ecx
    254 	pxor	%xmm8,%xmm3
    255 	xorl	%ebp,%edi
    256 	movl	%ebx,%esi
    257 	addl	36(%rsp),%eax
    258 	pxor	%xmm3,%xmm10
    259 	xorl	%edx,%ecx
    260 	roll	$5,%ebx
    261 	movdqa	%xmm12,16(%rsp)
    262 	addl	%edi,%eax
    263 	andl	%ecx,%esi
    264 	movdqa	%xmm10,%xmm13
    265 	xorl	%edx,%ecx
    266 	addl	%ebx,%eax
    267 	rorl	$7,%ebx
    268 	movups	16(%r15),%xmm1
    269 .byte	102,15,56,220,208
    270 	movdqa	%xmm10,%xmm3
    271 	xorl	%edx,%esi
    272 	pslldq	$12,%xmm13
    273 	paddd	%xmm10,%xmm10
    274 	movl	%eax,%edi
    275 	addl	40(%rsp),%ebp
    276 	psrld	$31,%xmm3
    277 	xorl	%ecx,%ebx
    278 	roll	$5,%eax
    279 	addl	%esi,%ebp
    280 	movdqa	%xmm13,%xmm12
    281 	andl	%ebx,%edi
    282 	xorl	%ecx,%ebx
    283 	psrld	$30,%xmm13
    284 	addl	%eax,%ebp
    285 	rorl	$7,%eax
    286 	por	%xmm3,%xmm10
    287 	xorl	%ecx,%edi
    288 	movl	%ebp,%esi
    289 	addl	44(%rsp),%edx
    290 	pslld	$2,%xmm12
    291 	pxor	%xmm13,%xmm10
    292 	xorl	%ebx,%eax
    293 	movdqa	16(%r11),%xmm13
    294 	roll	$5,%ebp
    295 	addl	%edi,%edx
    296 	movups	32(%r15),%xmm0
    297 .byte	102,15,56,220,209
    298 	andl	%eax,%esi
    299 	pxor	%xmm12,%xmm10
    300 	xorl	%ebx,%eax
    301 	addl	%ebp,%edx
    302 	rorl	$7,%ebp
    303 	pshufd	$238,%xmm7,%xmm11
    304 	xorl	%ebx,%esi
    305 	movdqa	%xmm10,%xmm12
    306 	paddd	%xmm10,%xmm13
    307 	movl	%edx,%edi
    308 	addl	48(%rsp),%ecx
    309 	punpcklqdq	%xmm8,%xmm11
    310 	xorl	%eax,%ebp
    311 	roll	$5,%edx
    312 	addl	%esi,%ecx
    313 	psrldq	$4,%xmm12
    314 	andl	%ebp,%edi
    315 	xorl	%eax,%ebp
    316 	pxor	%xmm7,%xmm11
    317 	addl	%edx,%ecx
    318 	rorl	$7,%edx
    319 	pxor	%xmm9,%xmm12
    320 	xorl	%eax,%edi
    321 	movl	%ecx,%esi
    322 	addl	52(%rsp),%ebx
    323 	movups	48(%r15),%xmm1
    324 .byte	102,15,56,220,208
    325 	pxor	%xmm12,%xmm11
    326 	xorl	%ebp,%edx
    327 	roll	$5,%ecx
    328 	movdqa	%xmm13,32(%rsp)
    329 	addl	%edi,%ebx
    330 	andl	%edx,%esi
    331 	movdqa	%xmm11,%xmm3
    332 	xorl	%ebp,%edx
    333 	addl	%ecx,%ebx
    334 	rorl	$7,%ecx
    335 	movdqa	%xmm11,%xmm12
    336 	xorl	%ebp,%esi
    337 	pslldq	$12,%xmm3
    338 	paddd	%xmm11,%xmm11
    339 	movl	%ebx,%edi
    340 	addl	56(%rsp),%eax
    341 	psrld	$31,%xmm12
    342 	xorl	%edx,%ecx
    343 	roll	$5,%ebx
    344 	addl	%esi,%eax
    345 	movdqa	%xmm3,%xmm13
    346 	andl	%ecx,%edi
    347 	xorl	%edx,%ecx
    348 	psrld	$30,%xmm3
    349 	addl	%ebx,%eax
    350 	rorl	$7,%ebx
    351 	cmpl	$11,%r8d
    352 	jb	.Laesenclast1
    353 	movups	64(%r15),%xmm0
    354 .byte	102,15,56,220,209
    355 	movups	80(%r15),%xmm1
    356 .byte	102,15,56,220,208
    357 	je	.Laesenclast1
    358 	movups	96(%r15),%xmm0
    359 .byte	102,15,56,220,209
    360 	movups	112(%r15),%xmm1
    361 .byte	102,15,56,220,208
    362 .Laesenclast1:
    363 .byte	102,15,56,221,209
    364 	movups	16-112(%r15),%xmm0
    365 	por	%xmm12,%xmm11
    366 	xorl	%edx,%edi
    367 	movl	%eax,%esi
    368 	addl	60(%rsp),%ebp
    369 	pslld	$2,%xmm13
    370 	pxor	%xmm3,%xmm11
    371 	xorl	%ecx,%ebx
    372 	movdqa	16(%r11),%xmm3
    373 	roll	$5,%eax
    374 	addl	%edi,%ebp
    375 	andl	%ebx,%esi
    376 	pxor	%xmm13,%xmm11
    377 	pshufd	$238,%xmm10,%xmm13
    378 	xorl	%ecx,%ebx
    379 	addl	%eax,%ebp
    380 	rorl	$7,%eax
    381 	pxor	%xmm8,%xmm4
    382 	xorl	%ecx,%esi
    383 	movl	%ebp,%edi
    384 	addl	0(%rsp),%edx
    385 	punpcklqdq	%xmm11,%xmm13
    386 	xorl	%ebx,%eax
    387 	roll	$5,%ebp
    388 	pxor	%xmm5,%xmm4
    389 	addl	%esi,%edx
    390 	movups	16(%r12),%xmm14
    391 	xorps	%xmm15,%xmm14
    392 	movups	%xmm2,0(%r12,%r13,1)
    393 	xorps	%xmm14,%xmm2
    394 	movups	-80(%r15),%xmm1
    395 .byte	102,15,56,220,208
    396 	andl	%eax,%edi
    397 	movdqa	%xmm3,%xmm12
    398 	xorl	%ebx,%eax
    399 	paddd	%xmm11,%xmm3
    400 	addl	%ebp,%edx
    401 	pxor	%xmm13,%xmm4
    402 	rorl	$7,%ebp
    403 	xorl	%ebx,%edi
    404 	movl	%edx,%esi
    405 	addl	4(%rsp),%ecx
    406 	movdqa	%xmm4,%xmm13
    407 	xorl	%eax,%ebp
    408 	roll	$5,%edx
    409 	movdqa	%xmm3,48(%rsp)
    410 	addl	%edi,%ecx
    411 	andl	%ebp,%esi
    412 	xorl	%eax,%ebp
    413 	pslld	$2,%xmm4
    414 	addl	%edx,%ecx
    415 	rorl	$7,%edx
    416 	psrld	$30,%xmm13
    417 	xorl	%eax,%esi
    418 	movl	%ecx,%edi
    419 	addl	8(%rsp),%ebx
    420 	movups	-64(%r15),%xmm0
    421 .byte	102,15,56,220,209
    422 	por	%xmm13,%xmm4
    423 	xorl	%ebp,%edx
    424 	roll	$5,%ecx
    425 	pshufd	$238,%xmm11,%xmm3
    426 	addl	%esi,%ebx
    427 	andl	%edx,%edi
    428 	xorl	%ebp,%edx
    429 	addl	%ecx,%ebx
    430 	addl	12(%rsp),%eax
    431 	xorl	%ebp,%edi
    432 	movl	%ebx,%esi
    433 	roll	$5,%ebx
    434 	addl	%edi,%eax
    435 	xorl	%edx,%esi
    436 	rorl	$7,%ecx
    437 	addl	%ebx,%eax
    438 	pxor	%xmm9,%xmm5
    439 	addl	16(%rsp),%ebp
    440 	movups	-48(%r15),%xmm1
    441 .byte	102,15,56,220,208
    442 	xorl	%ecx,%esi
    443 	punpcklqdq	%xmm4,%xmm3
    444 	movl	%eax,%edi
    445 	roll	$5,%eax
    446 	pxor	%xmm6,%xmm5
    447 	addl	%esi,%ebp
    448 	xorl	%ecx,%edi
    449 	movdqa	%xmm12,%xmm13
    450 	rorl	$7,%ebx
    451 	paddd	%xmm4,%xmm12
    452 	addl	%eax,%ebp
    453 	pxor	%xmm3,%xmm5
    454 	addl	20(%rsp),%edx
    455 	xorl	%ebx,%edi
    456 	movl	%ebp,%esi
    457 	roll	$5,%ebp
    458 	movdqa	%xmm5,%xmm3
    459 	addl	%edi,%edx
    460 	xorl	%ebx,%esi
    461 	movdqa	%xmm12,0(%rsp)
    462 	rorl	$7,%eax
    463 	addl	%ebp,%edx
    464 	addl	24(%rsp),%ecx
    465 	pslld	$2,%xmm5
    466 	xorl	%eax,%esi
    467 	movl	%edx,%edi
    468 	psrld	$30,%xmm3
    469 	roll	$5,%edx
    470 	addl	%esi,%ecx
    471 	movups	-32(%r15),%xmm0
    472 .byte	102,15,56,220,209
    473 	xorl	%eax,%edi
    474 	rorl	$7,%ebp
    475 	por	%xmm3,%xmm5
    476 	addl	%edx,%ecx
    477 	addl	28(%rsp),%ebx
    478 	pshufd	$238,%xmm4,%xmm12
    479 	xorl	%ebp,%edi
    480 	movl	%ecx,%esi
    481 	roll	$5,%ecx
    482 	addl	%edi,%ebx
    483 	xorl	%ebp,%esi
    484 	rorl	$7,%edx
    485 	addl	%ecx,%ebx
    486 	pxor	%xmm10,%xmm6
    487 	addl	32(%rsp),%eax
    488 	xorl	%edx,%esi
    489 	punpcklqdq	%xmm5,%xmm12
    490 	movl	%ebx,%edi
    491 	roll	$5,%ebx
    492 	pxor	%xmm7,%xmm6
    493 	addl	%esi,%eax
    494 	xorl	%edx,%edi
    495 	movdqa	32(%r11),%xmm3
    496 	rorl	$7,%ecx
    497 	paddd	%xmm5,%xmm13
    498 	addl	%ebx,%eax
    499 	pxor	%xmm12,%xmm6
    500 	addl	36(%rsp),%ebp
    501 	movups	-16(%r15),%xmm1
    502 .byte	102,15,56,220,208
    503 	xorl	%ecx,%edi
    504 	movl	%eax,%esi
    505 	roll	$5,%eax
    506 	movdqa	%xmm6,%xmm12
    507 	addl	%edi,%ebp
    508 	xorl	%ecx,%esi
    509 	movdqa	%xmm13,16(%rsp)
    510 	rorl	$7,%ebx
    511 	addl	%eax,%ebp
    512 	addl	40(%rsp),%edx
    513 	pslld	$2,%xmm6
    514 	xorl	%ebx,%esi
    515 	movl	%ebp,%edi
    516 	psrld	$30,%xmm12
    517 	roll	$5,%ebp
    518 	addl	%esi,%edx
    519 	xorl	%ebx,%edi
    520 	rorl	$7,%eax
    521 	por	%xmm12,%xmm6
    522 	addl	%ebp,%edx
    523 	addl	44(%rsp),%ecx
    524 	pshufd	$238,%xmm5,%xmm13
    525 	xorl	%eax,%edi
    526 	movl	%edx,%esi
    527 	roll	$5,%edx
    528 	addl	%edi,%ecx
    529 	movups	0(%r15),%xmm0
    530 .byte	102,15,56,220,209
    531 	xorl	%eax,%esi
    532 	rorl	$7,%ebp
    533 	addl	%edx,%ecx
    534 	pxor	%xmm11,%xmm7
    535 	addl	48(%rsp),%ebx
    536 	xorl	%ebp,%esi
    537 	punpcklqdq	%xmm6,%xmm13
    538 	movl	%ecx,%edi
    539 	roll	$5,%ecx
    540 	pxor	%xmm8,%xmm7
    541 	addl	%esi,%ebx
    542 	xorl	%ebp,%edi
    543 	movdqa	%xmm3,%xmm12
    544 	rorl	$7,%edx
    545 	paddd	%xmm6,%xmm3
    546 	addl	%ecx,%ebx
    547 	pxor	%xmm13,%xmm7
    548 	addl	52(%rsp),%eax
    549 	xorl	%edx,%edi
    550 	movl	%ebx,%esi
    551 	roll	$5,%ebx
    552 	movdqa	%xmm7,%xmm13
    553 	addl	%edi,%eax
    554 	xorl	%edx,%esi
    555 	movdqa	%xmm3,32(%rsp)
    556 	rorl	$7,%ecx
    557 	addl	%ebx,%eax
    558 	addl	56(%rsp),%ebp
    559 	movups	16(%r15),%xmm1
    560 .byte	102,15,56,220,208
    561 	pslld	$2,%xmm7
    562 	xorl	%ecx,%esi
    563 	movl	%eax,%edi
    564 	psrld	$30,%xmm13
    565 	roll	$5,%eax
    566 	addl	%esi,%ebp
    567 	xorl	%ecx,%edi
    568 	rorl	$7,%ebx
    569 	por	%xmm13,%xmm7
    570 	addl	%eax,%ebp
    571 	addl	60(%rsp),%edx
    572 	pshufd	$238,%xmm6,%xmm3
    573 	xorl	%ebx,%edi
    574 	movl	%ebp,%esi
    575 	roll	$5,%ebp
    576 	addl	%edi,%edx
    577 	xorl	%ebx,%esi
    578 	rorl	$7,%eax
    579 	addl	%ebp,%edx
    580 	pxor	%xmm4,%xmm8
    581 	addl	0(%rsp),%ecx
    582 	xorl	%eax,%esi
    583 	punpcklqdq	%xmm7,%xmm3
    584 	movl	%edx,%edi
    585 	roll	$5,%edx
    586 	pxor	%xmm9,%xmm8
    587 	addl	%esi,%ecx
    588 	movups	32(%r15),%xmm0
    589 .byte	102,15,56,220,209
    590 	xorl	%eax,%edi
    591 	movdqa	%xmm12,%xmm13
    592 	rorl	$7,%ebp
    593 	paddd	%xmm7,%xmm12
    594 	addl	%edx,%ecx
    595 	pxor	%xmm3,%xmm8
    596 	addl	4(%rsp),%ebx
    597 	xorl	%ebp,%edi
    598 	movl	%ecx,%esi
    599 	roll	$5,%ecx
    600 	movdqa	%xmm8,%xmm3
    601 	addl	%edi,%ebx
    602 	xorl	%ebp,%esi
    603 	movdqa	%xmm12,48(%rsp)
    604 	rorl	$7,%edx
    605 	addl	%ecx,%ebx
    606 	addl	8(%rsp),%eax
    607 	pslld	$2,%xmm8
    608 	xorl	%edx,%esi
    609 	movl	%ebx,%edi
    610 	psrld	$30,%xmm3
    611 	roll	$5,%ebx
    612 	addl	%esi,%eax
    613 	xorl	%edx,%edi
    614 	rorl	$7,%ecx
    615 	por	%xmm3,%xmm8
    616 	addl	%ebx,%eax
    617 	addl	12(%rsp),%ebp
    618 	movups	48(%r15),%xmm1
    619 .byte	102,15,56,220,208
    620 	pshufd	$238,%xmm7,%xmm12
    621 	xorl	%ecx,%edi
    622 	movl	%eax,%esi
    623 	roll	$5,%eax
    624 	addl	%edi,%ebp
    625 	xorl	%ecx,%esi
    626 	rorl	$7,%ebx
    627 	addl	%eax,%ebp
    628 	pxor	%xmm5,%xmm9
    629 	addl	16(%rsp),%edx
    630 	xorl	%ebx,%esi
    631 	punpcklqdq	%xmm8,%xmm12
    632 	movl	%ebp,%edi
    633 	roll	$5,%ebp
    634 	pxor	%xmm10,%xmm9
    635 	addl	%esi,%edx
    636 	xorl	%ebx,%edi
    637 	movdqa	%xmm13,%xmm3
    638 	rorl	$7,%eax
    639 	paddd	%xmm8,%xmm13
    640 	addl	%ebp,%edx
    641 	pxor	%xmm12,%xmm9
    642 	addl	20(%rsp),%ecx
    643 	xorl	%eax,%edi
    644 	movl	%edx,%esi
    645 	roll	$5,%edx
    646 	movdqa	%xmm9,%xmm12
    647 	addl	%edi,%ecx
    648 	cmpl	$11,%r8d
    649 	jb	.Laesenclast2
    650 	movups	64(%r15),%xmm0
    651 .byte	102,15,56,220,209
    652 	movups	80(%r15),%xmm1
    653 .byte	102,15,56,220,208
    654 	je	.Laesenclast2
    655 	movups	96(%r15),%xmm0
    656 .byte	102,15,56,220,209
    657 	movups	112(%r15),%xmm1
    658 .byte	102,15,56,220,208
    659 .Laesenclast2:
    660 .byte	102,15,56,221,209
    661 	movups	16-112(%r15),%xmm0
    662 	xorl	%eax,%esi
    663 	movdqa	%xmm13,0(%rsp)
    664 	rorl	$7,%ebp
    665 	addl	%edx,%ecx
    666 	addl	24(%rsp),%ebx
    667 	pslld	$2,%xmm9
    668 	xorl	%ebp,%esi
    669 	movl	%ecx,%edi
    670 	psrld	$30,%xmm12
    671 	roll	$5,%ecx
    672 	addl	%esi,%ebx
    673 	xorl	%ebp,%edi
    674 	rorl	$7,%edx
    675 	por	%xmm12,%xmm9
    676 	addl	%ecx,%ebx
    677 	addl	28(%rsp),%eax
    678 	pshufd	$238,%xmm8,%xmm13
    679 	rorl	$7,%ecx
    680 	movl	%ebx,%esi
    681 	xorl	%edx,%edi
    682 	roll	$5,%ebx
    683 	addl	%edi,%eax
    684 	xorl	%ecx,%esi
    685 	xorl	%edx,%ecx
    686 	addl	%ebx,%eax
    687 	pxor	%xmm6,%xmm10
    688 	addl	32(%rsp),%ebp
    689 	movups	32(%r12),%xmm14
    690 	xorps	%xmm15,%xmm14
    691 	movups	%xmm2,16(%r13,%r12,1)
    692 	xorps	%xmm14,%xmm2
    693 	movups	-80(%r15),%xmm1
    694 .byte	102,15,56,220,208
    695 	andl	%ecx,%esi
    696 	xorl	%edx,%ecx
    697 	rorl	$7,%ebx
    698 	punpcklqdq	%xmm9,%xmm13
    699 	movl	%eax,%edi
    700 	xorl	%ecx,%esi
    701 	pxor	%xmm11,%xmm10
    702 	roll	$5,%eax
    703 	addl	%esi,%ebp
    704 	movdqa	%xmm3,%xmm12
    705 	xorl	%ebx,%edi
    706 	paddd	%xmm9,%xmm3
    707 	xorl	%ecx,%ebx
    708 	pxor	%xmm13,%xmm10
    709 	addl	%eax,%ebp
    710 	addl	36(%rsp),%edx
    711 	andl	%ebx,%edi
    712 	xorl	%ecx,%ebx
    713 	rorl	$7,%eax
    714 	movdqa	%xmm10,%xmm13
    715 	movl	%ebp,%esi
    716 	xorl	%ebx,%edi
    717 	movdqa	%xmm3,16(%rsp)
    718 	roll	$5,%ebp
    719 	addl	%edi,%edx
    720 	movups	-64(%r15),%xmm0
    721 .byte	102,15,56,220,209
    722 	xorl	%eax,%esi
    723 	pslld	$2,%xmm10
    724 	xorl	%ebx,%eax
    725 	addl	%ebp,%edx
    726 	psrld	$30,%xmm13
    727 	addl	40(%rsp),%ecx
    728 	andl	%eax,%esi
    729 	xorl	%ebx,%eax
    730 	por	%xmm13,%xmm10
    731 	rorl	$7,%ebp
    732 	movl	%edx,%edi
    733 	xorl	%eax,%esi
    734 	roll	$5,%edx
    735 	pshufd	$238,%xmm9,%xmm3
    736 	addl	%esi,%ecx
    737 	xorl	%ebp,%edi
    738 	xorl	%eax,%ebp
    739 	addl	%edx,%ecx
    740 	addl	44(%rsp),%ebx
    741 	andl	%ebp,%edi
    742 	xorl	%eax,%ebp
    743 	rorl	$7,%edx
    744 	movups	-48(%r15),%xmm1
    745 .byte	102,15,56,220,208
    746 	movl	%ecx,%esi
    747 	xorl	%ebp,%edi
    748 	roll	$5,%ecx
    749 	addl	%edi,%ebx
    750 	xorl	%edx,%esi
    751 	xorl	%ebp,%edx
    752 	addl	%ecx,%ebx
    753 	pxor	%xmm7,%xmm11
    754 	addl	48(%rsp),%eax
    755 	andl	%edx,%esi
    756 	xorl	%ebp,%edx
    757 	rorl	$7,%ecx
    758 	punpcklqdq	%xmm10,%xmm3
    759 	movl	%ebx,%edi
    760 	xorl	%edx,%esi
    761 	pxor	%xmm4,%xmm11
    762 	roll	$5,%ebx
    763 	addl	%esi,%eax
    764 	movdqa	48(%r11),%xmm13
    765 	xorl	%ecx,%edi
    766 	paddd	%xmm10,%xmm12
    767 	xorl	%edx,%ecx
    768 	pxor	%xmm3,%xmm11
    769 	addl	%ebx,%eax
    770 	addl	52(%rsp),%ebp
    771 	movups	-32(%r15),%xmm0
    772 .byte	102,15,56,220,209
    773 	andl	%ecx,%edi
    774 	xorl	%edx,%ecx
    775 	rorl	$7,%ebx
    776 	movdqa	%xmm11,%xmm3
    777 	movl	%eax,%esi
    778 	xorl	%ecx,%edi
    779 	movdqa	%xmm12,32(%rsp)
    780 	roll	$5,%eax
    781 	addl	%edi,%ebp
    782 	xorl	%ebx,%esi
    783 	pslld	$2,%xmm11
    784 	xorl	%ecx,%ebx
    785 	addl	%eax,%ebp
    786 	psrld	$30,%xmm3
    787 	addl	56(%rsp),%edx
    788 	andl	%ebx,%esi
    789 	xorl	%ecx,%ebx
    790 	por	%xmm3,%xmm11
    791 	rorl	$7,%eax
    792 	movl	%ebp,%edi
    793 	xorl	%ebx,%esi
    794 	roll	$5,%ebp
    795 	pshufd	$238,%xmm10,%xmm12
    796 	addl	%esi,%edx
    797 	movups	-16(%r15),%xmm1
    798 .byte	102,15,56,220,208
    799 	xorl	%eax,%edi
    800 	xorl	%ebx,%eax
    801 	addl	%ebp,%edx
    802 	addl	60(%rsp),%ecx
    803 	andl	%eax,%edi
    804 	xorl	%ebx,%eax
    805 	rorl	$7,%ebp
    806 	movl	%edx,%esi
    807 	xorl	%eax,%edi
    808 	roll	$5,%edx
    809 	addl	%edi,%ecx
    810 	xorl	%ebp,%esi
    811 	xorl	%eax,%ebp
    812 	addl	%edx,%ecx
    813 	pxor	%xmm8,%xmm4
    814 	addl	0(%rsp),%ebx
    815 	andl	%ebp,%esi
    816 	xorl	%eax,%ebp
    817 	rorl	$7,%edx
    818 	movups	0(%r15),%xmm0
    819 .byte	102,15,56,220,209
    820 	punpcklqdq	%xmm11,%xmm12
    821 	movl	%ecx,%edi
    822 	xorl	%ebp,%esi
    823 	pxor	%xmm5,%xmm4
    824 	roll	$5,%ecx
    825 	addl	%esi,%ebx
    826 	movdqa	%xmm13,%xmm3
    827 	xorl	%edx,%edi
    828 	paddd	%xmm11,%xmm13
    829 	xorl	%ebp,%edx
    830 	pxor	%xmm12,%xmm4
    831 	addl	%ecx,%ebx
    832 	addl	4(%rsp),%eax
    833 	andl	%edx,%edi
    834 	xorl	%ebp,%edx
    835 	rorl	$7,%ecx
    836 	movdqa	%xmm4,%xmm12
    837 	movl	%ebx,%esi
    838 	xorl	%edx,%edi
    839 	movdqa	%xmm13,48(%rsp)
    840 	roll	$5,%ebx
    841 	addl	%edi,%eax
    842 	xorl	%ecx,%esi
    843 	pslld	$2,%xmm4
    844 	xorl	%edx,%ecx
    845 	addl	%ebx,%eax
    846 	psrld	$30,%xmm12
    847 	addl	8(%rsp),%ebp
    848 	movups	16(%r15),%xmm1
    849 .byte	102,15,56,220,208
    850 	andl	%ecx,%esi
    851 	xorl	%edx,%ecx
    852 	por	%xmm12,%xmm4
    853 	rorl	$7,%ebx
    854 	movl	%eax,%edi
    855 	xorl	%ecx,%esi
    856 	roll	$5,%eax
    857 	pshufd	$238,%xmm11,%xmm13
    858 	addl	%esi,%ebp
    859 	xorl	%ebx,%edi
    860 	xorl	%ecx,%ebx
    861 	addl	%eax,%ebp
    862 	addl	12(%rsp),%edx
    863 	andl	%ebx,%edi
    864 	xorl	%ecx,%ebx
    865 	rorl	$7,%eax
    866 	movl	%ebp,%esi
    867 	xorl	%ebx,%edi
    868 	roll	$5,%ebp
    869 	addl	%edi,%edx
    870 	movups	32(%r15),%xmm0
    871 .byte	102,15,56,220,209
    872 	xorl	%eax,%esi
    873 	xorl	%ebx,%eax
    874 	addl	%ebp,%edx
    875 	pxor	%xmm9,%xmm5
    876 	addl	16(%rsp),%ecx
    877 	andl	%eax,%esi
    878 	xorl	%ebx,%eax
    879 	rorl	$7,%ebp
    880 	punpcklqdq	%xmm4,%xmm13
    881 	movl	%edx,%edi
    882 	xorl	%eax,%esi
    883 	pxor	%xmm6,%xmm5
    884 	roll	$5,%edx
    885 	addl	%esi,%ecx
    886 	movdqa	%xmm3,%xmm12
    887 	xorl	%ebp,%edi
    888 	paddd	%xmm4,%xmm3
    889 	xorl	%eax,%ebp
    890 	pxor	%xmm13,%xmm5
    891 	addl	%edx,%ecx
    892 	addl	20(%rsp),%ebx
    893 	andl	%ebp,%edi
    894 	xorl	%eax,%ebp
    895 	rorl	$7,%edx
    896 	movups	48(%r15),%xmm1
    897 .byte	102,15,56,220,208
    898 	movdqa	%xmm5,%xmm13
    899 	movl	%ecx,%esi
    900 	xorl	%ebp,%edi
    901 	movdqa	%xmm3,0(%rsp)
    902 	roll	$5,%ecx
    903 	addl	%edi,%ebx
    904 	xorl	%edx,%esi
    905 	pslld	$2,%xmm5
    906 	xorl	%ebp,%edx
    907 	addl	%ecx,%ebx
    908 	psrld	$30,%xmm13
    909 	addl	24(%rsp),%eax
    910 	andl	%edx,%esi
    911 	xorl	%ebp,%edx
    912 	por	%xmm13,%xmm5
    913 	rorl	$7,%ecx
    914 	movl	%ebx,%edi
    915 	xorl	%edx,%esi
    916 	roll	$5,%ebx
    917 	pshufd	$238,%xmm4,%xmm3
    918 	addl	%esi,%eax
    919 	xorl	%ecx,%edi
    920 	xorl	%edx,%ecx
    921 	addl	%ebx,%eax
    922 	addl	28(%rsp),%ebp
    923 	cmpl	$11,%r8d
    924 	jb	.Laesenclast3
    925 	movups	64(%r15),%xmm0
    926 .byte	102,15,56,220,209
    927 	movups	80(%r15),%xmm1
    928 .byte	102,15,56,220,208
    929 	je	.Laesenclast3
    930 	movups	96(%r15),%xmm0
    931 .byte	102,15,56,220,209
    932 	movups	112(%r15),%xmm1
    933 .byte	102,15,56,220,208
    934 .Laesenclast3:
    935 .byte	102,15,56,221,209
    936 	movups	16-112(%r15),%xmm0
    937 	andl	%ecx,%edi
    938 	xorl	%edx,%ecx
    939 	rorl	$7,%ebx
    940 	movl	%eax,%esi
    941 	xorl	%ecx,%edi
    942 	roll	$5,%eax
    943 	addl	%edi,%ebp
    944 	xorl	%ebx,%esi
    945 	xorl	%ecx,%ebx
    946 	addl	%eax,%ebp
    947 	pxor	%xmm10,%xmm6
    948 	addl	32(%rsp),%edx
    949 	andl	%ebx,%esi
    950 	xorl	%ecx,%ebx
    951 	rorl	$7,%eax
    952 	punpcklqdq	%xmm5,%xmm3
    953 	movl	%ebp,%edi
    954 	xorl	%ebx,%esi
    955 	pxor	%xmm7,%xmm6
    956 	roll	$5,%ebp
    957 	addl	%esi,%edx
    958 	movups	48(%r12),%xmm14
    959 	xorps	%xmm15,%xmm14
    960 	movups	%xmm2,32(%r13,%r12,1)
    961 	xorps	%xmm14,%xmm2
    962 	movups	-80(%r15),%xmm1
    963 .byte	102,15,56,220,208
    964 	movdqa	%xmm12,%xmm13
    965 	xorl	%eax,%edi
    966 	paddd	%xmm5,%xmm12
    967 	xorl	%ebx,%eax
    968 	pxor	%xmm3,%xmm6
    969 	addl	%ebp,%edx
    970 	addl	36(%rsp),%ecx
    971 	andl	%eax,%edi
    972 	xorl	%ebx,%eax
    973 	rorl	$7,%ebp
    974 	movdqa	%xmm6,%xmm3
    975 	movl	%edx,%esi
    976 	xorl	%eax,%edi
    977 	movdqa	%xmm12,16(%rsp)
    978 	roll	$5,%edx
    979 	addl	%edi,%ecx
    980 	xorl	%ebp,%esi
    981 	pslld	$2,%xmm6
    982 	xorl	%eax,%ebp
    983 	addl	%edx,%ecx
    984 	psrld	$30,%xmm3
    985 	addl	40(%rsp),%ebx
    986 	andl	%ebp,%esi
    987 	xorl	%eax,%ebp
    988 	por	%xmm3,%xmm6
    989 	rorl	$7,%edx
    990 	movups	-64(%r15),%xmm0
    991 .byte	102,15,56,220,209
    992 	movl	%ecx,%edi
    993 	xorl	%ebp,%esi
    994 	roll	$5,%ecx
    995 	pshufd	$238,%xmm5,%xmm12
    996 	addl	%esi,%ebx
    997 	xorl	%edx,%edi
    998 	xorl	%ebp,%edx
    999 	addl	%ecx,%ebx
   1000 	addl	44(%rsp),%eax
   1001 	andl	%edx,%edi
   1002 	xorl	%ebp,%edx
   1003 	rorl	$7,%ecx
   1004 	movl	%ebx,%esi
   1005 	xorl	%edx,%edi
   1006 	roll	$5,%ebx
   1007 	addl	%edi,%eax
   1008 	xorl	%edx,%esi
   1009 	addl	%ebx,%eax
   1010 	pxor	%xmm11,%xmm7
   1011 	addl	48(%rsp),%ebp
   1012 	movups	-48(%r15),%xmm1
   1013 .byte	102,15,56,220,208
   1014 	xorl	%ecx,%esi
   1015 	punpcklqdq	%xmm6,%xmm12
   1016 	movl	%eax,%edi
   1017 	roll	$5,%eax
   1018 	pxor	%xmm8,%xmm7
   1019 	addl	%esi,%ebp
   1020 	xorl	%ecx,%edi
   1021 	movdqa	%xmm13,%xmm3
   1022 	rorl	$7,%ebx
   1023 	paddd	%xmm6,%xmm13
   1024 	addl	%eax,%ebp
   1025 	pxor	%xmm12,%xmm7
   1026 	addl	52(%rsp),%edx
   1027 	xorl	%ebx,%edi
   1028 	movl	%ebp,%esi
   1029 	roll	$5,%ebp
   1030 	movdqa	%xmm7,%xmm12
   1031 	addl	%edi,%edx
   1032 	xorl	%ebx,%esi
   1033 	movdqa	%xmm13,32(%rsp)
   1034 	rorl	$7,%eax
   1035 	addl	%ebp,%edx
   1036 	addl	56(%rsp),%ecx
   1037 	pslld	$2,%xmm7
   1038 	xorl	%eax,%esi
   1039 	movl	%edx,%edi
   1040 	psrld	$30,%xmm12
   1041 	roll	$5,%edx
   1042 	addl	%esi,%ecx
   1043 	movups	-32(%r15),%xmm0
   1044 .byte	102,15,56,220,209
   1045 	xorl	%eax,%edi
   1046 	rorl	$7,%ebp
   1047 	por	%xmm12,%xmm7
   1048 	addl	%edx,%ecx
   1049 	addl	60(%rsp),%ebx
   1050 	xorl	%ebp,%edi
   1051 	movl	%ecx,%esi
   1052 	roll	$5,%ecx
   1053 	addl	%edi,%ebx
   1054 	xorl	%ebp,%esi
   1055 	rorl	$7,%edx
   1056 	addl	%ecx,%ebx
   1057 	addl	0(%rsp),%eax
   1058 	xorl	%edx,%esi
   1059 	movl	%ebx,%edi
   1060 	roll	$5,%ebx
   1061 	paddd	%xmm7,%xmm3
   1062 	addl	%esi,%eax
   1063 	xorl	%edx,%edi
   1064 	movdqa	%xmm3,48(%rsp)
   1065 	rorl	$7,%ecx
   1066 	addl	%ebx,%eax
   1067 	addl	4(%rsp),%ebp
   1068 	movups	-16(%r15),%xmm1
   1069 .byte	102,15,56,220,208
   1070 	xorl	%ecx,%edi
   1071 	movl	%eax,%esi
   1072 	roll	$5,%eax
   1073 	addl	%edi,%ebp
   1074 	xorl	%ecx,%esi
   1075 	rorl	$7,%ebx
   1076 	addl	%eax,%ebp
   1077 	addl	8(%rsp),%edx
   1078 	xorl	%ebx,%esi
   1079 	movl	%ebp,%edi
   1080 	roll	$5,%ebp
   1081 	addl	%esi,%edx
   1082 	xorl	%ebx,%edi
   1083 	rorl	$7,%eax
   1084 	addl	%ebp,%edx
   1085 	addl	12(%rsp),%ecx
   1086 	xorl	%eax,%edi
   1087 	movl	%edx,%esi
   1088 	roll	$5,%edx
   1089 	addl	%edi,%ecx
   1090 	movups	0(%r15),%xmm0
   1091 .byte	102,15,56,220,209
   1092 	xorl	%eax,%esi
   1093 	rorl	$7,%ebp
   1094 	addl	%edx,%ecx
   1095 	cmpq	%r14,%r10
   1096 	je	.Ldone_ssse3
   1097 	movdqa	64(%r11),%xmm3
   1098 	movdqa	0(%r11),%xmm13
   1099 	movdqu	0(%r10),%xmm4
   1100 	movdqu	16(%r10),%xmm5
   1101 	movdqu	32(%r10),%xmm6
   1102 	movdqu	48(%r10),%xmm7
   1103 .byte	102,15,56,0,227
   1104 	addq	$64,%r10
   1105 	addl	16(%rsp),%ebx
   1106 	xorl	%ebp,%esi
   1107 	movl	%ecx,%edi
   1108 .byte	102,15,56,0,235
   1109 	roll	$5,%ecx
   1110 	addl	%esi,%ebx
   1111 	xorl	%ebp,%edi
   1112 	rorl	$7,%edx
   1113 	paddd	%xmm13,%xmm4
   1114 	addl	%ecx,%ebx
   1115 	addl	20(%rsp),%eax
   1116 	xorl	%edx,%edi
   1117 	movl	%ebx,%esi
   1118 	movdqa	%xmm4,0(%rsp)
   1119 	roll	$5,%ebx
   1120 	addl	%edi,%eax
   1121 	xorl	%edx,%esi
   1122 	rorl	$7,%ecx
   1123 	psubd	%xmm13,%xmm4
   1124 	addl	%ebx,%eax
   1125 	addl	24(%rsp),%ebp
   1126 	movups	16(%r15),%xmm1
   1127 .byte	102,15,56,220,208
   1128 	xorl	%ecx,%esi
   1129 	movl	%eax,%edi
   1130 	roll	$5,%eax
   1131 	addl	%esi,%ebp
   1132 	xorl	%ecx,%edi
   1133 	rorl	$7,%ebx
   1134 	addl	%eax,%ebp
   1135 	addl	28(%rsp),%edx
   1136 	xorl	%ebx,%edi
   1137 	movl	%ebp,%esi
   1138 	roll	$5,%ebp
   1139 	addl	%edi,%edx
   1140 	xorl	%ebx,%esi
   1141 	rorl	$7,%eax
   1142 	addl	%ebp,%edx
   1143 	addl	32(%rsp),%ecx
   1144 	xorl	%eax,%esi
   1145 	movl	%edx,%edi
   1146 .byte	102,15,56,0,243
   1147 	roll	$5,%edx
   1148 	addl	%esi,%ecx
   1149 	movups	32(%r15),%xmm0
   1150 .byte	102,15,56,220,209
   1151 	xorl	%eax,%edi
   1152 	rorl	$7,%ebp
   1153 	paddd	%xmm13,%xmm5
   1154 	addl	%edx,%ecx
   1155 	addl	36(%rsp),%ebx
   1156 	xorl	%ebp,%edi
   1157 	movl	%ecx,%esi
   1158 	movdqa	%xmm5,16(%rsp)
   1159 	roll	$5,%ecx
   1160 	addl	%edi,%ebx
   1161 	xorl	%ebp,%esi
   1162 	rorl	$7,%edx
   1163 	psubd	%xmm13,%xmm5
   1164 	addl	%ecx,%ebx
   1165 	addl	40(%rsp),%eax
   1166 	xorl	%edx,%esi
   1167 	movl	%ebx,%edi
   1168 	roll	$5,%ebx
   1169 	addl	%esi,%eax
   1170 	xorl	%edx,%edi
   1171 	rorl	$7,%ecx
   1172 	addl	%ebx,%eax
   1173 	addl	44(%rsp),%ebp
   1174 	movups	48(%r15),%xmm1
   1175 .byte	102,15,56,220,208
   1176 	xorl	%ecx,%edi
   1177 	movl	%eax,%esi
   1178 	roll	$5,%eax
   1179 	addl	%edi,%ebp
   1180 	xorl	%ecx,%esi
   1181 	rorl	$7,%ebx
   1182 	addl	%eax,%ebp
   1183 	addl	48(%rsp),%edx
   1184 	xorl	%ebx,%esi
   1185 	movl	%ebp,%edi
   1186 .byte	102,15,56,0,251
   1187 	roll	$5,%ebp
   1188 	addl	%esi,%edx
   1189 	xorl	%ebx,%edi
   1190 	rorl	$7,%eax
   1191 	paddd	%xmm13,%xmm6
   1192 	addl	%ebp,%edx
   1193 	addl	52(%rsp),%ecx
   1194 	xorl	%eax,%edi
   1195 	movl	%edx,%esi
   1196 	movdqa	%xmm6,32(%rsp)
   1197 	roll	$5,%edx
   1198 	addl	%edi,%ecx
   1199 	cmpl	$11,%r8d
   1200 	jb	.Laesenclast4
   1201 	movups	64(%r15),%xmm0
   1202 .byte	102,15,56,220,209
   1203 	movups	80(%r15),%xmm1
   1204 .byte	102,15,56,220,208
   1205 	je	.Laesenclast4
   1206 	movups	96(%r15),%xmm0
   1207 .byte	102,15,56,220,209
   1208 	movups	112(%r15),%xmm1
   1209 .byte	102,15,56,220,208
   1210 .Laesenclast4:
   1211 .byte	102,15,56,221,209
   1212 	movups	16-112(%r15),%xmm0
   1213 	xorl	%eax,%esi
   1214 	rorl	$7,%ebp
   1215 	psubd	%xmm13,%xmm6
   1216 	addl	%edx,%ecx
   1217 	addl	56(%rsp),%ebx
   1218 	xorl	%ebp,%esi
   1219 	movl	%ecx,%edi
   1220 	roll	$5,%ecx
   1221 	addl	%esi,%ebx
   1222 	xorl	%ebp,%edi
   1223 	rorl	$7,%edx
   1224 	addl	%ecx,%ebx
   1225 	addl	60(%rsp),%eax
   1226 	xorl	%edx,%edi
   1227 	movl	%ebx,%esi
   1228 	roll	$5,%ebx
   1229 	addl	%edi,%eax
   1230 	rorl	$7,%ecx
   1231 	addl	%ebx,%eax
   1232 	movups	%xmm2,48(%r13,%r12,1)
   1233 	leaq	64(%r12),%r12
   1234 
   1235 	addl	0(%r9),%eax
   1236 	addl	4(%r9),%esi
   1237 	addl	8(%r9),%ecx
   1238 	addl	12(%r9),%edx
   1239 	movl	%eax,0(%r9)
   1240 	addl	16(%r9),%ebp
   1241 	movl	%esi,4(%r9)
   1242 	movl	%esi,%ebx
   1243 	movl	%ecx,8(%r9)
   1244 	movl	%ecx,%edi
   1245 	movl	%edx,12(%r9)
   1246 	xorl	%edx,%edi
   1247 	movl	%ebp,16(%r9)
   1248 	andl	%edi,%esi
   1249 	jmp	.Loop_ssse3
   1250 
   1251 .Ldone_ssse3:
   1252 	addl	16(%rsp),%ebx
   1253 	xorl	%ebp,%esi
   1254 	movl	%ecx,%edi
   1255 	roll	$5,%ecx
   1256 	addl	%esi,%ebx
   1257 	xorl	%ebp,%edi
   1258 	rorl	$7,%edx
   1259 	addl	%ecx,%ebx
   1260 	addl	20(%rsp),%eax
   1261 	xorl	%edx,%edi
   1262 	movl	%ebx,%esi
   1263 	roll	$5,%ebx
   1264 	addl	%edi,%eax
   1265 	xorl	%edx,%esi
   1266 	rorl	$7,%ecx
   1267 	addl	%ebx,%eax
   1268 	addl	24(%rsp),%ebp
   1269 	movups	16(%r15),%xmm1
   1270 .byte	102,15,56,220,208
   1271 	xorl	%ecx,%esi
   1272 	movl	%eax,%edi
   1273 	roll	$5,%eax
   1274 	addl	%esi,%ebp
   1275 	xorl	%ecx,%edi
   1276 	rorl	$7,%ebx
   1277 	addl	%eax,%ebp
   1278 	addl	28(%rsp),%edx
   1279 	xorl	%ebx,%edi
   1280 	movl	%ebp,%esi
   1281 	roll	$5,%ebp
   1282 	addl	%edi,%edx
   1283 	xorl	%ebx,%esi
   1284 	rorl	$7,%eax
   1285 	addl	%ebp,%edx
   1286 	addl	32(%rsp),%ecx
   1287 	xorl	%eax,%esi
   1288 	movl	%edx,%edi
   1289 	roll	$5,%edx
   1290 	addl	%esi,%ecx
   1291 	movups	32(%r15),%xmm0
   1292 .byte	102,15,56,220,209
   1293 	xorl	%eax,%edi
   1294 	rorl	$7,%ebp
   1295 	addl	%edx,%ecx
   1296 	addl	36(%rsp),%ebx
   1297 	xorl	%ebp,%edi
   1298 	movl	%ecx,%esi
   1299 	roll	$5,%ecx
   1300 	addl	%edi,%ebx
   1301 	xorl	%ebp,%esi
   1302 	rorl	$7,%edx
   1303 	addl	%ecx,%ebx
   1304 	addl	40(%rsp),%eax
   1305 	xorl	%edx,%esi
   1306 	movl	%ebx,%edi
   1307 	roll	$5,%ebx
   1308 	addl	%esi,%eax
   1309 	xorl	%edx,%edi
   1310 	rorl	$7,%ecx
   1311 	addl	%ebx,%eax
   1312 	addl	44(%rsp),%ebp
   1313 	movups	48(%r15),%xmm1
   1314 .byte	102,15,56,220,208
   1315 	xorl	%ecx,%edi
   1316 	movl	%eax,%esi
   1317 	roll	$5,%eax
   1318 	addl	%edi,%ebp
   1319 	xorl	%ecx,%esi
   1320 	rorl	$7,%ebx
   1321 	addl	%eax,%ebp
   1322 	addl	48(%rsp),%edx
   1323 	xorl	%ebx,%esi
   1324 	movl	%ebp,%edi
   1325 	roll	$5,%ebp
   1326 	addl	%esi,%edx
   1327 	xorl	%ebx,%edi
   1328 	rorl	$7,%eax
   1329 	addl	%ebp,%edx
   1330 	addl	52(%rsp),%ecx
   1331 	xorl	%eax,%edi
   1332 	movl	%edx,%esi
   1333 	roll	$5,%edx
   1334 	addl	%edi,%ecx
   1335 	cmpl	$11,%r8d
   1336 	jb	.Laesenclast5
   1337 	movups	64(%r15),%xmm0
   1338 .byte	102,15,56,220,209
   1339 	movups	80(%r15),%xmm1
   1340 .byte	102,15,56,220,208
   1341 	je	.Laesenclast5
   1342 	movups	96(%r15),%xmm0
   1343 .byte	102,15,56,220,209
   1344 	movups	112(%r15),%xmm1
   1345 .byte	102,15,56,220,208
   1346 .Laesenclast5:
   1347 .byte	102,15,56,221,209
   1348 	movups	16-112(%r15),%xmm0
   1349 	xorl	%eax,%esi
   1350 	rorl	$7,%ebp
   1351 	addl	%edx,%ecx
   1352 	addl	56(%rsp),%ebx
   1353 	xorl	%ebp,%esi
   1354 	movl	%ecx,%edi
   1355 	roll	$5,%ecx
   1356 	addl	%esi,%ebx
   1357 	xorl	%ebp,%edi
   1358 	rorl	$7,%edx
   1359 	addl	%ecx,%ebx
   1360 	addl	60(%rsp),%eax
   1361 	xorl	%edx,%edi
   1362 	movl	%ebx,%esi
   1363 	roll	$5,%ebx
   1364 	addl	%edi,%eax
   1365 	rorl	$7,%ecx
   1366 	addl	%ebx,%eax
   1367 	movups	%xmm2,48(%r13,%r12,1)
   1368 	movq	88(%rsp),%r8
   1369 
   1370 	addl	0(%r9),%eax
   1371 	addl	4(%r9),%esi
   1372 	addl	8(%r9),%ecx
   1373 	movl	%eax,0(%r9)
   1374 	addl	12(%r9),%edx
   1375 	movl	%esi,4(%r9)
   1376 	addl	16(%r9),%ebp
   1377 	movl	%ecx,8(%r9)
   1378 	movl	%edx,12(%r9)
   1379 	movl	%ebp,16(%r9)
   1380 	movups	%xmm2,(%r8)
   1381 	leaq	104(%rsp),%rsi
   1382 .cfi_def_cfa	%rsi,56
   1383 	movq	0(%rsi),%r15
   1384 .cfi_restore	%r15
   1385 	movq	8(%rsi),%r14
   1386 .cfi_restore	%r14
   1387 	movq	16(%rsi),%r13
   1388 .cfi_restore	%r13
   1389 	movq	24(%rsi),%r12
   1390 .cfi_restore	%r12
   1391 	movq	32(%rsi),%rbp
   1392 .cfi_restore	%rbp
   1393 	movq	40(%rsi),%rbx
   1394 .cfi_restore	%rbx
   1395 	leaq	48(%rsi),%rsp
   1396 .cfi_def_cfa	%rsp,8
   1397 .Lepilogue_ssse3:
   1398 	.byte	0xf3,0xc3
   1399 .cfi_endproc
   1400 .size	aesni_cbc_sha1_enc_ssse3,.-aesni_cbc_sha1_enc_ssse3
   1401 .type	aesni_cbc_sha1_enc_avx,@function
   1402 .align	32
   1403 aesni_cbc_sha1_enc_avx:
   1404 .cfi_startproc
   1405 	movq	8(%rsp),%r10
   1406 
   1407 
   1408 	pushq	%rbx
   1409 .cfi_adjust_cfa_offset	8
   1410 .cfi_offset	%rbx,-16
   1411 	pushq	%rbp
   1412 .cfi_adjust_cfa_offset	8
   1413 .cfi_offset	%rbp,-24
   1414 	pushq	%r12
   1415 .cfi_adjust_cfa_offset	8
   1416 .cfi_offset	%r12,-32
   1417 	pushq	%r13
   1418 .cfi_adjust_cfa_offset	8
   1419 .cfi_offset	%r13,-40
   1420 	pushq	%r14
   1421 .cfi_adjust_cfa_offset	8
   1422 .cfi_offset	%r14,-48
   1423 	pushq	%r15
   1424 .cfi_adjust_cfa_offset	8
   1425 .cfi_offset	%r15,-56
   1426 	leaq	-104(%rsp),%rsp
   1427 .cfi_adjust_cfa_offset	104
   1428 
   1429 
   1430 	vzeroall
   1431 	movq	%rdi,%r12
   1432 	movq	%rsi,%r13
   1433 	movq	%rdx,%r14
   1434 	leaq	112(%rcx),%r15
   1435 	vmovdqu	(%r8),%xmm12
   1436 	movq	%r8,88(%rsp)
   1437 	shlq	$6,%r14
   1438 	subq	%r12,%r13
   1439 	movl	240-112(%r15),%r8d
   1440 	addq	%r10,%r14
   1441 
   1442 	leaq	K_XX_XX(%rip),%r11
   1443 	movl	0(%r9),%eax
   1444 	movl	4(%r9),%ebx
   1445 	movl	8(%r9),%ecx
   1446 	movl	12(%r9),%edx
   1447 	movl	%ebx,%esi
   1448 	movl	16(%r9),%ebp
   1449 	movl	%ecx,%edi
   1450 	xorl	%edx,%edi
   1451 	andl	%edi,%esi
   1452 
   1453 	vmovdqa	64(%r11),%xmm6
   1454 	vmovdqa	0(%r11),%xmm10
   1455 	vmovdqu	0(%r10),%xmm0
   1456 	vmovdqu	16(%r10),%xmm1
   1457 	vmovdqu	32(%r10),%xmm2
   1458 	vmovdqu	48(%r10),%xmm3
   1459 	vpshufb	%xmm6,%xmm0,%xmm0
   1460 	addq	$64,%r10
   1461 	vpshufb	%xmm6,%xmm1,%xmm1
   1462 	vpshufb	%xmm6,%xmm2,%xmm2
   1463 	vpshufb	%xmm6,%xmm3,%xmm3
   1464 	vpaddd	%xmm10,%xmm0,%xmm4
   1465 	vpaddd	%xmm10,%xmm1,%xmm5
   1466 	vpaddd	%xmm10,%xmm2,%xmm6
   1467 	vmovdqa	%xmm4,0(%rsp)
   1468 	vmovdqa	%xmm5,16(%rsp)
   1469 	vmovdqa	%xmm6,32(%rsp)
   1470 	vmovups	-112(%r15),%xmm15
   1471 	vmovups	16-112(%r15),%xmm14
   1472 	jmp	.Loop_avx
   1473 .align	32
   1474 .Loop_avx:
   1475 	shrdl	$2,%ebx,%ebx
   1476 	vmovdqu	0(%r12),%xmm13
   1477 	vpxor	%xmm15,%xmm13,%xmm13
   1478 	vpxor	%xmm13,%xmm12,%xmm12
   1479 	vaesenc	%xmm14,%xmm12,%xmm12
   1480 	vmovups	-80(%r15),%xmm15
   1481 	xorl	%edx,%esi
   1482 	vpalignr	$8,%xmm0,%xmm1,%xmm4
   1483 	movl	%eax,%edi
   1484 	addl	0(%rsp),%ebp
   1485 	vpaddd	%xmm3,%xmm10,%xmm9
   1486 	xorl	%ecx,%ebx
   1487 	shldl	$5,%eax,%eax
   1488 	vpsrldq	$4,%xmm3,%xmm8
   1489 	addl	%esi,%ebp
   1490 	andl	%ebx,%edi
   1491 	vpxor	%xmm0,%xmm4,%xmm4
   1492 	xorl	%ecx,%ebx
   1493 	addl	%eax,%ebp
   1494 	vpxor	%xmm2,%xmm8,%xmm8
   1495 	shrdl	$7,%eax,%eax
   1496 	xorl	%ecx,%edi
   1497 	movl	%ebp,%esi
   1498 	addl	4(%rsp),%edx
   1499 	vpxor	%xmm8,%xmm4,%xmm4
   1500 	xorl	%ebx,%eax
   1501 	shldl	$5,%ebp,%ebp
   1502 	vmovdqa	%xmm9,48(%rsp)
   1503 	addl	%edi,%edx
   1504 	vaesenc	%xmm15,%xmm12,%xmm12
   1505 	vmovups	-64(%r15),%xmm14
   1506 	andl	%eax,%esi
   1507 	vpsrld	$31,%xmm4,%xmm8
   1508 	xorl	%ebx,%eax
   1509 	addl	%ebp,%edx
   1510 	shrdl	$7,%ebp,%ebp
   1511 	xorl	%ebx,%esi
   1512 	vpslldq	$12,%xmm4,%xmm9
   1513 	vpaddd	%xmm4,%xmm4,%xmm4
   1514 	movl	%edx,%edi
   1515 	addl	8(%rsp),%ecx
   1516 	xorl	%eax,%ebp
   1517 	shldl	$5,%edx,%edx
   1518 	vpor	%xmm8,%xmm4,%xmm4
   1519 	vpsrld	$30,%xmm9,%xmm8
   1520 	addl	%esi,%ecx
   1521 	andl	%ebp,%edi
   1522 	xorl	%eax,%ebp
   1523 	addl	%edx,%ecx
   1524 	vpslld	$2,%xmm9,%xmm9
   1525 	vpxor	%xmm8,%xmm4,%xmm4
   1526 	shrdl	$7,%edx,%edx
   1527 	xorl	%eax,%edi
   1528 	movl	%ecx,%esi
   1529 	addl	12(%rsp),%ebx
   1530 	vaesenc	%xmm14,%xmm12,%xmm12
   1531 	vmovups	-48(%r15),%xmm15
   1532 	vpxor	%xmm9,%xmm4,%xmm4
   1533 	xorl	%ebp,%edx
   1534 	shldl	$5,%ecx,%ecx
   1535 	addl	%edi,%ebx
   1536 	andl	%edx,%esi
   1537 	xorl	%ebp,%edx
   1538 	addl	%ecx,%ebx
   1539 	shrdl	$7,%ecx,%ecx
   1540 	xorl	%ebp,%esi
   1541 	vpalignr	$8,%xmm1,%xmm2,%xmm5
   1542 	movl	%ebx,%edi
   1543 	addl	16(%rsp),%eax
   1544 	vpaddd	%xmm4,%xmm10,%xmm9
   1545 	xorl	%edx,%ecx
   1546 	shldl	$5,%ebx,%ebx
   1547 	vpsrldq	$4,%xmm4,%xmm8
   1548 	addl	%esi,%eax
   1549 	andl	%ecx,%edi
   1550 	vpxor	%xmm1,%xmm5,%xmm5
   1551 	xorl	%edx,%ecx
   1552 	addl	%ebx,%eax
   1553 	vpxor	%xmm3,%xmm8,%xmm8
   1554 	shrdl	$7,%ebx,%ebx
   1555 	vaesenc	%xmm15,%xmm12,%xmm12
   1556 	vmovups	-32(%r15),%xmm14
   1557 	xorl	%edx,%edi
   1558 	movl	%eax,%esi
   1559 	addl	20(%rsp),%ebp
   1560 	vpxor	%xmm8,%xmm5,%xmm5
   1561 	xorl	%ecx,%ebx
   1562 	shldl	$5,%eax,%eax
   1563 	vmovdqa	%xmm9,0(%rsp)
   1564 	addl	%edi,%ebp
   1565 	andl	%ebx,%esi
   1566 	vpsrld	$31,%xmm5,%xmm8
   1567 	xorl	%ecx,%ebx
   1568 	addl	%eax,%ebp
   1569 	shrdl	$7,%eax,%eax
   1570 	xorl	%ecx,%esi
   1571 	vpslldq	$12,%xmm5,%xmm9
   1572 	vpaddd	%xmm5,%xmm5,%xmm5
   1573 	movl	%ebp,%edi
   1574 	addl	24(%rsp),%edx
   1575 	xorl	%ebx,%eax
   1576 	shldl	$5,%ebp,%ebp
   1577 	vpor	%xmm8,%xmm5,%xmm5
   1578 	vpsrld	$30,%xmm9,%xmm8
   1579 	addl	%esi,%edx
   1580 	vaesenc	%xmm14,%xmm12,%xmm12
   1581 	vmovups	-16(%r15),%xmm15
   1582 	andl	%eax,%edi
   1583 	xorl	%ebx,%eax
   1584 	addl	%ebp,%edx
   1585 	vpslld	$2,%xmm9,%xmm9
   1586 	vpxor	%xmm8,%xmm5,%xmm5
   1587 	shrdl	$7,%ebp,%ebp
   1588 	xorl	%ebx,%edi
   1589 	movl	%edx,%esi
   1590 	addl	28(%rsp),%ecx
   1591 	vpxor	%xmm9,%xmm5,%xmm5
   1592 	xorl	%eax,%ebp
   1593 	shldl	$5,%edx,%edx
   1594 	vmovdqa	16(%r11),%xmm10
   1595 	addl	%edi,%ecx
   1596 	andl	%ebp,%esi
   1597 	xorl	%eax,%ebp
   1598 	addl	%edx,%ecx
   1599 	shrdl	$7,%edx,%edx
   1600 	xorl	%eax,%esi
   1601 	vpalignr	$8,%xmm2,%xmm3,%xmm6
   1602 	movl	%ecx,%edi
   1603 	addl	32(%rsp),%ebx
   1604 	vaesenc	%xmm15,%xmm12,%xmm12
   1605 	vmovups	0(%r15),%xmm14
   1606 	vpaddd	%xmm5,%xmm10,%xmm9
   1607 	xorl	%ebp,%edx
   1608 	shldl	$5,%ecx,%ecx
   1609 	vpsrldq	$4,%xmm5,%xmm8
   1610 	addl	%esi,%ebx
   1611 	andl	%edx,%edi
   1612 	vpxor	%xmm2,%xmm6,%xmm6
   1613 	xorl	%ebp,%edx
   1614 	addl	%ecx,%ebx
   1615 	vpxor	%xmm4,%xmm8,%xmm8
   1616 	shrdl	$7,%ecx,%ecx
   1617 	xorl	%ebp,%edi
   1618 	movl	%ebx,%esi
   1619 	addl	36(%rsp),%eax
   1620 	vpxor	%xmm8,%xmm6,%xmm6
   1621 	xorl	%edx,%ecx
   1622 	shldl	$5,%ebx,%ebx
   1623 	vmovdqa	%xmm9,16(%rsp)
   1624 	addl	%edi,%eax
   1625 	andl	%ecx,%esi
   1626 	vpsrld	$31,%xmm6,%xmm8
   1627 	xorl	%edx,%ecx
   1628 	addl	%ebx,%eax
   1629 	shrdl	$7,%ebx,%ebx
   1630 	vaesenc	%xmm14,%xmm12,%xmm12
   1631 	vmovups	16(%r15),%xmm15
   1632 	xorl	%edx,%esi
   1633 	vpslldq	$12,%xmm6,%xmm9
   1634 	vpaddd	%xmm6,%xmm6,%xmm6
   1635 	movl	%eax,%edi
   1636 	addl	40(%rsp),%ebp
   1637 	xorl	%ecx,%ebx
   1638 	shldl	$5,%eax,%eax
   1639 	vpor	%xmm8,%xmm6,%xmm6
   1640 	vpsrld	$30,%xmm9,%xmm8
   1641 	addl	%esi,%ebp
   1642 	andl	%ebx,%edi
   1643 	xorl	%ecx,%ebx
   1644 	addl	%eax,%ebp
   1645 	vpslld	$2,%xmm9,%xmm9
   1646 	vpxor	%xmm8,%xmm6,%xmm6
   1647 	shrdl	$7,%eax,%eax
   1648 	xorl	%ecx,%edi
   1649 	movl	%ebp,%esi
   1650 	addl	44(%rsp),%edx
   1651 	vpxor	%xmm9,%xmm6,%xmm6
   1652 	xorl	%ebx,%eax
   1653 	shldl	$5,%ebp,%ebp
   1654 	addl	%edi,%edx
   1655 	vaesenc	%xmm15,%xmm12,%xmm12
   1656 	vmovups	32(%r15),%xmm14
   1657 	andl	%eax,%esi
   1658 	xorl	%ebx,%eax
   1659 	addl	%ebp,%edx
   1660 	shrdl	$7,%ebp,%ebp
   1661 	xorl	%ebx,%esi
   1662 	vpalignr	$8,%xmm3,%xmm4,%xmm7
   1663 	movl	%edx,%edi
   1664 	addl	48(%rsp),%ecx
   1665 	vpaddd	%xmm6,%xmm10,%xmm9
   1666 	xorl	%eax,%ebp
   1667 	shldl	$5,%edx,%edx
   1668 	vpsrldq	$4,%xmm6,%xmm8
   1669 	addl	%esi,%ecx
   1670 	andl	%ebp,%edi
   1671 	vpxor	%xmm3,%xmm7,%xmm7
   1672 	xorl	%eax,%ebp
   1673 	addl	%edx,%ecx
   1674 	vpxor	%xmm5,%xmm8,%xmm8
   1675 	shrdl	$7,%edx,%edx
   1676 	xorl	%eax,%edi
   1677 	movl	%ecx,%esi
   1678 	addl	52(%rsp),%ebx
   1679 	vaesenc	%xmm14,%xmm12,%xmm12
   1680 	vmovups	48(%r15),%xmm15
   1681 	vpxor	%xmm8,%xmm7,%xmm7
   1682 	xorl	%ebp,%edx
   1683 	shldl	$5,%ecx,%ecx
   1684 	vmovdqa	%xmm9,32(%rsp)
   1685 	addl	%edi,%ebx
   1686 	andl	%edx,%esi
   1687 	vpsrld	$31,%xmm7,%xmm8
   1688 	xorl	%ebp,%edx
   1689 	addl	%ecx,%ebx
   1690 	shrdl	$7,%ecx,%ecx
   1691 	xorl	%ebp,%esi
   1692 	vpslldq	$12,%xmm7,%xmm9
   1693 	vpaddd	%xmm7,%xmm7,%xmm7
   1694 	movl	%ebx,%edi
   1695 	addl	56(%rsp),%eax
   1696 	xorl	%edx,%ecx
   1697 	shldl	$5,%ebx,%ebx
   1698 	vpor	%xmm8,%xmm7,%xmm7
   1699 	vpsrld	$30,%xmm9,%xmm8
   1700 	addl	%esi,%eax
   1701 	andl	%ecx,%edi
   1702 	xorl	%edx,%ecx
   1703 	addl	%ebx,%eax
   1704 	vpslld	$2,%xmm9,%xmm9
   1705 	vpxor	%xmm8,%xmm7,%xmm7
   1706 	shrdl	$7,%ebx,%ebx
   1707 	cmpl	$11,%r8d
   1708 	jb	.Lvaesenclast6
   1709 	vaesenc	%xmm15,%xmm12,%xmm12
   1710 	vmovups	64(%r15),%xmm14
   1711 	vaesenc	%xmm14,%xmm12,%xmm12
   1712 	vmovups	80(%r15),%xmm15
   1713 	je	.Lvaesenclast6
   1714 	vaesenc	%xmm15,%xmm12,%xmm12
   1715 	vmovups	96(%r15),%xmm14
   1716 	vaesenc	%xmm14,%xmm12,%xmm12
   1717 	vmovups	112(%r15),%xmm15
   1718 .Lvaesenclast6:
   1719 	vaesenclast	%xmm15,%xmm12,%xmm12
   1720 	vmovups	-112(%r15),%xmm15
   1721 	vmovups	16-112(%r15),%xmm14
   1722 	xorl	%edx,%edi
   1723 	movl	%eax,%esi
   1724 	addl	60(%rsp),%ebp
   1725 	vpxor	%xmm9,%xmm7,%xmm7
   1726 	xorl	%ecx,%ebx
   1727 	shldl	$5,%eax,%eax
   1728 	addl	%edi,%ebp
   1729 	andl	%ebx,%esi
   1730 	xorl	%ecx,%ebx
   1731 	addl	%eax,%ebp
   1732 	vpalignr	$8,%xmm6,%xmm7,%xmm8
   1733 	vpxor	%xmm4,%xmm0,%xmm0
   1734 	shrdl	$7,%eax,%eax
   1735 	xorl	%ecx,%esi
   1736 	movl	%ebp,%edi
   1737 	addl	0(%rsp),%edx
   1738 	vpxor	%xmm1,%xmm0,%xmm0
   1739 	xorl	%ebx,%eax
   1740 	shldl	$5,%ebp,%ebp
   1741 	vpaddd	%xmm7,%xmm10,%xmm9
   1742 	addl	%esi,%edx
   1743 	vmovdqu	16(%r12),%xmm13
   1744 	vpxor	%xmm15,%xmm13,%xmm13
   1745 	vmovups	%xmm12,0(%r12,%r13,1)
   1746 	vpxor	%xmm13,%xmm12,%xmm12
   1747 	vaesenc	%xmm14,%xmm12,%xmm12
   1748 	vmovups	-80(%r15),%xmm15
   1749 	andl	%eax,%edi
   1750 	vpxor	%xmm8,%xmm0,%xmm0
   1751 	xorl	%ebx,%eax
   1752 	addl	%ebp,%edx
   1753 	shrdl	$7,%ebp,%ebp
   1754 	xorl	%ebx,%edi
   1755 	vpsrld	$30,%xmm0,%xmm8
   1756 	vmovdqa	%xmm9,48(%rsp)
   1757 	movl	%edx,%esi
   1758 	addl	4(%rsp),%ecx
   1759 	xorl	%eax,%ebp
   1760 	shldl	$5,%edx,%edx
   1761 	vpslld	$2,%xmm0,%xmm0
   1762 	addl	%edi,%ecx
   1763 	andl	%ebp,%esi
   1764 	xorl	%eax,%ebp
   1765 	addl	%edx,%ecx
   1766 	shrdl	$7,%edx,%edx
   1767 	xorl	%eax,%esi
   1768 	movl	%ecx,%edi
   1769 	addl	8(%rsp),%ebx
   1770 	vaesenc	%xmm15,%xmm12,%xmm12
   1771 	vmovups	-64(%r15),%xmm14
   1772 	vpor	%xmm8,%xmm0,%xmm0
   1773 	xorl	%ebp,%edx
   1774 	shldl	$5,%ecx,%ecx
   1775 	addl	%esi,%ebx
   1776 	andl	%edx,%edi
   1777 	xorl	%ebp,%edx
   1778 	addl	%ecx,%ebx
   1779 	addl	12(%rsp),%eax
   1780 	xorl	%ebp,%edi
   1781 	movl	%ebx,%esi
   1782 	shldl	$5,%ebx,%ebx
   1783 	addl	%edi,%eax
   1784 	xorl	%edx,%esi
   1785 	shrdl	$7,%ecx,%ecx
   1786 	addl	%ebx,%eax
   1787 	vpalignr	$8,%xmm7,%xmm0,%xmm8
   1788 	vpxor	%xmm5,%xmm1,%xmm1
   1789 	addl	16(%rsp),%ebp
   1790 	vaesenc	%xmm14,%xmm12,%xmm12
   1791 	vmovups	-48(%r15),%xmm15
   1792 	xorl	%ecx,%esi
   1793 	movl	%eax,%edi
   1794 	shldl	$5,%eax,%eax
   1795 	vpxor	%xmm2,%xmm1,%xmm1
   1796 	addl	%esi,%ebp
   1797 	xorl	%ecx,%edi
   1798 	vpaddd	%xmm0,%xmm10,%xmm9
   1799 	shrdl	$7,%ebx,%ebx
   1800 	addl	%eax,%ebp
   1801 	vpxor	%xmm8,%xmm1,%xmm1
   1802 	addl	20(%rsp),%edx
   1803 	xorl	%ebx,%edi
   1804 	movl	%ebp,%esi
   1805 	shldl	$5,%ebp,%ebp
   1806 	vpsrld	$30,%xmm1,%xmm8
   1807 	vmovdqa	%xmm9,0(%rsp)
   1808 	addl	%edi,%edx
   1809 	xorl	%ebx,%esi
   1810 	shrdl	$7,%eax,%eax
   1811 	addl	%ebp,%edx
   1812 	vpslld	$2,%xmm1,%xmm1
   1813 	addl	24(%rsp),%ecx
   1814 	xorl	%eax,%esi
   1815 	movl	%edx,%edi
   1816 	shldl	$5,%edx,%edx
   1817 	addl	%esi,%ecx
   1818 	vaesenc	%xmm15,%xmm12,%xmm12
   1819 	vmovups	-32(%r15),%xmm14
   1820 	xorl	%eax,%edi
   1821 	shrdl	$7,%ebp,%ebp
   1822 	addl	%edx,%ecx
   1823 	vpor	%xmm8,%xmm1,%xmm1
   1824 	addl	28(%rsp),%ebx
   1825 	xorl	%ebp,%edi
   1826 	movl	%ecx,%esi
   1827 	shldl	$5,%ecx,%ecx
   1828 	addl	%edi,%ebx
   1829 	xorl	%ebp,%esi
   1830 	shrdl	$7,%edx,%edx
   1831 	addl	%ecx,%ebx
   1832 	vpalignr	$8,%xmm0,%xmm1,%xmm8
   1833 	vpxor	%xmm6,%xmm2,%xmm2
   1834 	addl	32(%rsp),%eax
   1835 	xorl	%edx,%esi
   1836 	movl	%ebx,%edi
   1837 	shldl	$5,%ebx,%ebx
   1838 	vpxor	%xmm3,%xmm2,%xmm2
   1839 	addl	%esi,%eax
   1840 	xorl	%edx,%edi
   1841 	vpaddd	%xmm1,%xmm10,%xmm9
   1842 	vmovdqa	32(%r11),%xmm10
   1843 	shrdl	$7,%ecx,%ecx
   1844 	addl	%ebx,%eax
   1845 	vpxor	%xmm8,%xmm2,%xmm2
   1846 	addl	36(%rsp),%ebp
   1847 	vaesenc	%xmm14,%xmm12,%xmm12
   1848 	vmovups	-16(%r15),%xmm15
   1849 	xorl	%ecx,%edi
   1850 	movl	%eax,%esi
   1851 	shldl	$5,%eax,%eax
   1852 	vpsrld	$30,%xmm2,%xmm8
   1853 	vmovdqa	%xmm9,16(%rsp)
   1854 	addl	%edi,%ebp
   1855 	xorl	%ecx,%esi
   1856 	shrdl	$7,%ebx,%ebx
   1857 	addl	%eax,%ebp
   1858 	vpslld	$2,%xmm2,%xmm2
   1859 	addl	40(%rsp),%edx
   1860 	xorl	%ebx,%esi
   1861 	movl	%ebp,%edi
   1862 	shldl	$5,%ebp,%ebp
   1863 	addl	%esi,%edx
   1864 	xorl	%ebx,%edi
   1865 	shrdl	$7,%eax,%eax
   1866 	addl	%ebp,%edx
   1867 	vpor	%xmm8,%xmm2,%xmm2
   1868 	addl	44(%rsp),%ecx
   1869 	xorl	%eax,%edi
   1870 	movl	%edx,%esi
   1871 	shldl	$5,%edx,%edx
   1872 	addl	%edi,%ecx
   1873 	vaesenc	%xmm15,%xmm12,%xmm12
   1874 	vmovups	0(%r15),%xmm14
   1875 	xorl	%eax,%esi
   1876 	shrdl	$7,%ebp,%ebp
   1877 	addl	%edx,%ecx
   1878 	vpalignr	$8,%xmm1,%xmm2,%xmm8
   1879 	vpxor	%xmm7,%xmm3,%xmm3
   1880 	addl	48(%rsp),%ebx
   1881 	xorl	%ebp,%esi
   1882 	movl	%ecx,%edi
   1883 	shldl	$5,%ecx,%ecx
   1884 	vpxor	%xmm4,%xmm3,%xmm3
   1885 	addl	%esi,%ebx
   1886 	xorl	%ebp,%edi
   1887 	vpaddd	%xmm2,%xmm10,%xmm9
   1888 	shrdl	$7,%edx,%edx
   1889 	addl	%ecx,%ebx
   1890 	vpxor	%xmm8,%xmm3,%xmm3
   1891 	addl	52(%rsp),%eax
   1892 	xorl	%edx,%edi
   1893 	movl	%ebx,%esi
   1894 	shldl	$5,%ebx,%ebx
   1895 	vpsrld	$30,%xmm3,%xmm8
   1896 	vmovdqa	%xmm9,32(%rsp)
   1897 	addl	%edi,%eax
   1898 	xorl	%edx,%esi
   1899 	shrdl	$7,%ecx,%ecx
   1900 	addl	%ebx,%eax
   1901 	vpslld	$2,%xmm3,%xmm3
   1902 	addl	56(%rsp),%ebp
   1903 	vaesenc	%xmm14,%xmm12,%xmm12
   1904 	vmovups	16(%r15),%xmm15
   1905 	xorl	%ecx,%esi
   1906 	movl	%eax,%edi
   1907 	shldl	$5,%eax,%eax
   1908 	addl	%esi,%ebp
   1909 	xorl	%ecx,%edi
   1910 	shrdl	$7,%ebx,%ebx
   1911 	addl	%eax,%ebp
   1912 	vpor	%xmm8,%xmm3,%xmm3
   1913 	addl	60(%rsp),%edx
   1914 	xorl	%ebx,%edi
   1915 	movl	%ebp,%esi
   1916 	shldl	$5,%ebp,%ebp
   1917 	addl	%edi,%edx
   1918 	xorl	%ebx,%esi
   1919 	shrdl	$7,%eax,%eax
   1920 	addl	%ebp,%edx
   1921 	vpalignr	$8,%xmm2,%xmm3,%xmm8
   1922 	vpxor	%xmm0,%xmm4,%xmm4
   1923 	addl	0(%rsp),%ecx
   1924 	xorl	%eax,%esi
   1925 	movl	%edx,%edi
   1926 	shldl	$5,%edx,%edx
   1927 	vpxor	%xmm5,%xmm4,%xmm4
   1928 	addl	%esi,%ecx
   1929 	vaesenc	%xmm15,%xmm12,%xmm12
   1930 	vmovups	32(%r15),%xmm14
   1931 	xorl	%eax,%edi
   1932 	vpaddd	%xmm3,%xmm10,%xmm9
   1933 	shrdl	$7,%ebp,%ebp
   1934 	addl	%edx,%ecx
   1935 	vpxor	%xmm8,%xmm4,%xmm4
   1936 	addl	4(%rsp),%ebx
   1937 	xorl	%ebp,%edi
   1938 	movl	%ecx,%esi
   1939 	shldl	$5,%ecx,%ecx
   1940 	vpsrld	$30,%xmm4,%xmm8
   1941 	vmovdqa	%xmm9,48(%rsp)
   1942 	addl	%edi,%ebx
   1943 	xorl	%ebp,%esi
   1944 	shrdl	$7,%edx,%edx
   1945 	addl	%ecx,%ebx
   1946 	vpslld	$2,%xmm4,%xmm4
   1947 	addl	8(%rsp),%eax
   1948 	xorl	%edx,%esi
   1949 	movl	%ebx,%edi
   1950 	shldl	$5,%ebx,%ebx
   1951 	addl	%esi,%eax
   1952 	xorl	%edx,%edi
   1953 	shrdl	$7,%ecx,%ecx
   1954 	addl	%ebx,%eax
   1955 	vpor	%xmm8,%xmm4,%xmm4
   1956 	addl	12(%rsp),%ebp
   1957 	vaesenc	%xmm14,%xmm12,%xmm12
   1958 	vmovups	48(%r15),%xmm15
   1959 	xorl	%ecx,%edi
   1960 	movl	%eax,%esi
   1961 	shldl	$5,%eax,%eax
   1962 	addl	%edi,%ebp
   1963 	xorl	%ecx,%esi
   1964 	shrdl	$7,%ebx,%ebx
   1965 	addl	%eax,%ebp
   1966 	vpalignr	$8,%xmm3,%xmm4,%xmm8
   1967 	vpxor	%xmm1,%xmm5,%xmm5
   1968 	addl	16(%rsp),%edx
   1969 	xorl	%ebx,%esi
   1970 	movl	%ebp,%edi
   1971 	shldl	$5,%ebp,%ebp
   1972 	vpxor	%xmm6,%xmm5,%xmm5
   1973 	addl	%esi,%edx
   1974 	xorl	%ebx,%edi
   1975 	vpaddd	%xmm4,%xmm10,%xmm9
   1976 	shrdl	$7,%eax,%eax
   1977 	addl	%ebp,%edx
   1978 	vpxor	%xmm8,%xmm5,%xmm5
   1979 	addl	20(%rsp),%ecx
   1980 	xorl	%eax,%edi
   1981 	movl	%edx,%esi
   1982 	shldl	$5,%edx,%edx
   1983 	vpsrld	$30,%xmm5,%xmm8
   1984 	vmovdqa	%xmm9,0(%rsp)
   1985 	addl	%edi,%ecx
   1986 	cmpl	$11,%r8d
   1987 	jb	.Lvaesenclast7
   1988 	vaesenc	%xmm15,%xmm12,%xmm12
   1989 	vmovups	64(%r15),%xmm14
   1990 	vaesenc	%xmm14,%xmm12,%xmm12
   1991 	vmovups	80(%r15),%xmm15
   1992 	je	.Lvaesenclast7
   1993 	vaesenc	%xmm15,%xmm12,%xmm12
   1994 	vmovups	96(%r15),%xmm14
   1995 	vaesenc	%xmm14,%xmm12,%xmm12
   1996 	vmovups	112(%r15),%xmm15
   1997 .Lvaesenclast7:
   1998 	vaesenclast	%xmm15,%xmm12,%xmm12
   1999 	vmovups	-112(%r15),%xmm15
   2000 	vmovups	16-112(%r15),%xmm14
   2001 	xorl	%eax,%esi
   2002 	shrdl	$7,%ebp,%ebp
   2003 	addl	%edx,%ecx
   2004 	vpslld	$2,%xmm5,%xmm5
   2005 	addl	24(%rsp),%ebx
   2006 	xorl	%ebp,%esi
   2007 	movl	%ecx,%edi
   2008 	shldl	$5,%ecx,%ecx
   2009 	addl	%esi,%ebx
   2010 	xorl	%ebp,%edi
   2011 	shrdl	$7,%edx,%edx
   2012 	addl	%ecx,%ebx
   2013 	vpor	%xmm8,%xmm5,%xmm5
   2014 	addl	28(%rsp),%eax
   2015 	shrdl	$7,%ecx,%ecx
   2016 	movl	%ebx,%esi
   2017 	xorl	%edx,%edi
   2018 	shldl	$5,%ebx,%ebx
   2019 	addl	%edi,%eax
   2020 	xorl	%ecx,%esi
   2021 	xorl	%edx,%ecx
   2022 	addl	%ebx,%eax
   2023 	vpalignr	$8,%xmm4,%xmm5,%xmm8
   2024 	vpxor	%xmm2,%xmm6,%xmm6
   2025 	addl	32(%rsp),%ebp
   2026 	vmovdqu	32(%r12),%xmm13
   2027 	vpxor	%xmm15,%xmm13,%xmm13
   2028 	vmovups	%xmm12,16(%r13,%r12,1)
   2029 	vpxor	%xmm13,%xmm12,%xmm12
   2030 	vaesenc	%xmm14,%xmm12,%xmm12
   2031 	vmovups	-80(%r15),%xmm15
   2032 	andl	%ecx,%esi
   2033 	xorl	%edx,%ecx
   2034 	shrdl	$7,%ebx,%ebx
   2035 	vpxor	%xmm7,%xmm6,%xmm6
   2036 	movl	%eax,%edi
   2037 	xorl	%ecx,%esi
   2038 	vpaddd	%xmm5,%xmm10,%xmm9
   2039 	shldl	$5,%eax,%eax
   2040 	addl	%esi,%ebp
   2041 	vpxor	%xmm8,%xmm6,%xmm6
   2042 	xorl	%ebx,%edi
   2043 	xorl	%ecx,%ebx
   2044 	addl	%eax,%ebp
   2045 	addl	36(%rsp),%edx
   2046 	vpsrld	$30,%xmm6,%xmm8
   2047 	vmovdqa	%xmm9,16(%rsp)
   2048 	andl	%ebx,%edi
   2049 	xorl	%ecx,%ebx
   2050 	shrdl	$7,%eax,%eax
   2051 	movl	%ebp,%esi
   2052 	vpslld	$2,%xmm6,%xmm6
   2053 	xorl	%ebx,%edi
   2054 	shldl	$5,%ebp,%ebp
   2055 	addl	%edi,%edx
   2056 	vaesenc	%xmm15,%xmm12,%xmm12
   2057 	vmovups	-64(%r15),%xmm14
   2058 	xorl	%eax,%esi
   2059 	xorl	%ebx,%eax
   2060 	addl	%ebp,%edx
   2061 	addl	40(%rsp),%ecx
   2062 	andl	%eax,%esi
   2063 	vpor	%xmm8,%xmm6,%xmm6
   2064 	xorl	%ebx,%eax
   2065 	shrdl	$7,%ebp,%ebp
   2066 	movl	%edx,%edi
   2067 	xorl	%eax,%esi
   2068 	shldl	$5,%edx,%edx
   2069 	addl	%esi,%ecx
   2070 	xorl	%ebp,%edi
   2071 	xorl	%eax,%ebp
   2072 	addl	%edx,%ecx
   2073 	addl	44(%rsp),%ebx
   2074 	andl	%ebp,%edi
   2075 	xorl	%eax,%ebp
   2076 	shrdl	$7,%edx,%edx
   2077 	vaesenc	%xmm14,%xmm12,%xmm12
   2078 	vmovups	-48(%r15),%xmm15
   2079 	movl	%ecx,%esi
   2080 	xorl	%ebp,%edi
   2081 	shldl	$5,%ecx,%ecx
   2082 	addl	%edi,%ebx
   2083 	xorl	%edx,%esi
   2084 	xorl	%ebp,%edx
   2085 	addl	%ecx,%ebx
   2086 	vpalignr	$8,%xmm5,%xmm6,%xmm8
   2087 	vpxor	%xmm3,%xmm7,%xmm7
   2088 	addl	48(%rsp),%eax
   2089 	andl	%edx,%esi
   2090 	xorl	%ebp,%edx
   2091 	shrdl	$7,%ecx,%ecx
   2092 	vpxor	%xmm0,%xmm7,%xmm7
   2093 	movl	%ebx,%edi
   2094 	xorl	%edx,%esi
   2095 	vpaddd	%xmm6,%xmm10,%xmm9
   2096 	vmovdqa	48(%r11),%xmm10
   2097 	shldl	$5,%ebx,%ebx
   2098 	addl	%esi,%eax
   2099 	vpxor	%xmm8,%xmm7,%xmm7
   2100 	xorl	%ecx,%edi
   2101 	xorl	%edx,%ecx
   2102 	addl	%ebx,%eax
   2103 	addl	52(%rsp),%ebp
   2104 	vaesenc	%xmm15,%xmm12,%xmm12
   2105 	vmovups	-32(%r15),%xmm14
   2106 	vpsrld	$30,%xmm7,%xmm8
   2107 	vmovdqa	%xmm9,32(%rsp)
   2108 	andl	%ecx,%edi
   2109 	xorl	%edx,%ecx
   2110 	shrdl	$7,%ebx,%ebx
   2111 	movl	%eax,%esi
   2112 	vpslld	$2,%xmm7,%xmm7
   2113 	xorl	%ecx,%edi
   2114 	shldl	$5,%eax,%eax
   2115 	addl	%edi,%ebp
   2116 	xorl	%ebx,%esi
   2117 	xorl	%ecx,%ebx
   2118 	addl	%eax,%ebp
   2119 	addl	56(%rsp),%edx
   2120 	andl	%ebx,%esi
   2121 	vpor	%xmm8,%xmm7,%xmm7
   2122 	xorl	%ecx,%ebx
   2123 	shrdl	$7,%eax,%eax
   2124 	movl	%ebp,%edi
   2125 	xorl	%ebx,%esi
   2126 	shldl	$5,%ebp,%ebp
   2127 	addl	%esi,%edx
   2128 	vaesenc	%xmm14,%xmm12,%xmm12
   2129 	vmovups	-16(%r15),%xmm15
   2130 	xorl	%eax,%edi
   2131 	xorl	%ebx,%eax
   2132 	addl	%ebp,%edx
   2133 	addl	60(%rsp),%ecx
   2134 	andl	%eax,%edi
   2135 	xorl	%ebx,%eax
   2136 	shrdl	$7,%ebp,%ebp
   2137 	movl	%edx,%esi
   2138 	xorl	%eax,%edi
   2139 	shldl	$5,%edx,%edx
   2140 	addl	%edi,%ecx
   2141 	xorl	%ebp,%esi
   2142 	xorl	%eax,%ebp
   2143 	addl	%edx,%ecx
   2144 	vpalignr	$8,%xmm6,%xmm7,%xmm8
   2145 	vpxor	%xmm4,%xmm0,%xmm0
   2146 	addl	0(%rsp),%ebx
   2147 	andl	%ebp,%esi
   2148 	xorl	%eax,%ebp
   2149 	shrdl	$7,%edx,%edx
   2150 	vaesenc	%xmm15,%xmm12,%xmm12
   2151 	vmovups	0(%r15),%xmm14
   2152 	vpxor	%xmm1,%xmm0,%xmm0
   2153 	movl	%ecx,%edi
   2154 	xorl	%ebp,%esi
   2155 	vpaddd	%xmm7,%xmm10,%xmm9
   2156 	shldl	$5,%ecx,%ecx
   2157 	addl	%esi,%ebx
   2158 	vpxor	%xmm8,%xmm0,%xmm0
   2159 	xorl	%edx,%edi
   2160 	xorl	%ebp,%edx
   2161 	addl	%ecx,%ebx
   2162 	addl	4(%rsp),%eax
   2163 	vpsrld	$30,%xmm0,%xmm8
   2164 	vmovdqa	%xmm9,48(%rsp)
   2165 	andl	%edx,%edi
   2166 	xorl	%ebp,%edx
   2167 	shrdl	$7,%ecx,%ecx
   2168 	movl	%ebx,%esi
   2169 	vpslld	$2,%xmm0,%xmm0
   2170 	xorl	%edx,%edi
   2171 	shldl	$5,%ebx,%ebx
   2172 	addl	%edi,%eax
   2173 	xorl	%ecx,%esi
   2174 	xorl	%edx,%ecx
   2175 	addl	%ebx,%eax
   2176 	addl	8(%rsp),%ebp
   2177 	vaesenc	%xmm14,%xmm12,%xmm12
   2178 	vmovups	16(%r15),%xmm15
   2179 	andl	%ecx,%esi
   2180 	vpor	%xmm8,%xmm0,%xmm0
   2181 	xorl	%edx,%ecx
   2182 	shrdl	$7,%ebx,%ebx
   2183 	movl	%eax,%edi
   2184 	xorl	%ecx,%esi
   2185 	shldl	$5,%eax,%eax
   2186 	addl	%esi,%ebp
   2187 	xorl	%ebx,%edi
   2188 	xorl	%ecx,%ebx
   2189 	addl	%eax,%ebp
   2190 	addl	12(%rsp),%edx
   2191 	andl	%ebx,%edi
   2192 	xorl	%ecx,%ebx
   2193 	shrdl	$7,%eax,%eax
   2194 	movl	%ebp,%esi
   2195 	xorl	%ebx,%edi
   2196 	shldl	$5,%ebp,%ebp
   2197 	addl	%edi,%edx
   2198 	vaesenc	%xmm15,%xmm12,%xmm12
   2199 	vmovups	32(%r15),%xmm14
   2200 	xorl	%eax,%esi
   2201 	xorl	%ebx,%eax
   2202 	addl	%ebp,%edx
   2203 	vpalignr	$8,%xmm7,%xmm0,%xmm8
   2204 	vpxor	%xmm5,%xmm1,%xmm1
   2205 	addl	16(%rsp),%ecx
   2206 	andl	%eax,%esi
   2207 	xorl	%ebx,%eax
   2208 	shrdl	$7,%ebp,%ebp
   2209 	vpxor	%xmm2,%xmm1,%xmm1
   2210 	movl	%edx,%edi
   2211 	xorl	%eax,%esi
   2212 	vpaddd	%xmm0,%xmm10,%xmm9
   2213 	shldl	$5,%edx,%edx
   2214 	addl	%esi,%ecx
   2215 	vpxor	%xmm8,%xmm1,%xmm1
   2216 	xorl	%ebp,%edi
   2217 	xorl	%eax,%ebp
   2218 	addl	%edx,%ecx
   2219 	addl	20(%rsp),%ebx
   2220 	vpsrld	$30,%xmm1,%xmm8
   2221 	vmovdqa	%xmm9,0(%rsp)
   2222 	andl	%ebp,%edi
   2223 	xorl	%eax,%ebp
   2224 	shrdl	$7,%edx,%edx
   2225 	vaesenc	%xmm14,%xmm12,%xmm12
   2226 	vmovups	48(%r15),%xmm15
   2227 	movl	%ecx,%esi
   2228 	vpslld	$2,%xmm1,%xmm1
   2229 	xorl	%ebp,%edi
   2230 	shldl	$5,%ecx,%ecx
   2231 	addl	%edi,%ebx
   2232 	xorl	%edx,%esi
   2233 	xorl	%ebp,%edx
   2234 	addl	%ecx,%ebx
   2235 	addl	24(%rsp),%eax
   2236 	andl	%edx,%esi
   2237 	vpor	%xmm8,%xmm1,%xmm1
   2238 	xorl	%ebp,%edx
   2239 	shrdl	$7,%ecx,%ecx
   2240 	movl	%ebx,%edi
   2241 	xorl	%edx,%esi
   2242 	shldl	$5,%ebx,%ebx
   2243 	addl	%esi,%eax
   2244 	xorl	%ecx,%edi
   2245 	xorl	%edx,%ecx
   2246 	addl	%ebx,%eax
   2247 	addl	28(%rsp),%ebp
   2248 	cmpl	$11,%r8d
   2249 	jb	.Lvaesenclast8
   2250 	vaesenc	%xmm15,%xmm12,%xmm12
   2251 	vmovups	64(%r15),%xmm14
   2252 	vaesenc	%xmm14,%xmm12,%xmm12
   2253 	vmovups	80(%r15),%xmm15
   2254 	je	.Lvaesenclast8
   2255 	vaesenc	%xmm15,%xmm12,%xmm12
   2256 	vmovups	96(%r15),%xmm14
   2257 	vaesenc	%xmm14,%xmm12,%xmm12
   2258 	vmovups	112(%r15),%xmm15
   2259 .Lvaesenclast8:
   2260 	vaesenclast	%xmm15,%xmm12,%xmm12
   2261 	vmovups	-112(%r15),%xmm15
   2262 	vmovups	16-112(%r15),%xmm14
   2263 	andl	%ecx,%edi
   2264 	xorl	%edx,%ecx
   2265 	shrdl	$7,%ebx,%ebx
   2266 	movl	%eax,%esi
   2267 	xorl	%ecx,%edi
   2268 	shldl	$5,%eax,%eax
   2269 	addl	%edi,%ebp
   2270 	xorl	%ebx,%esi
   2271 	xorl	%ecx,%ebx
   2272 	addl	%eax,%ebp
   2273 	vpalignr	$8,%xmm0,%xmm1,%xmm8
   2274 	vpxor	%xmm6,%xmm2,%xmm2
   2275 	addl	32(%rsp),%edx
   2276 	andl	%ebx,%esi
   2277 	xorl	%ecx,%ebx
   2278 	shrdl	$7,%eax,%eax
   2279 	vpxor	%xmm3,%xmm2,%xmm2
   2280 	movl	%ebp,%edi
   2281 	xorl	%ebx,%esi
   2282 	vpaddd	%xmm1,%xmm10,%xmm9
   2283 	shldl	$5,%ebp,%ebp
   2284 	addl	%esi,%edx
   2285 	vmovdqu	48(%r12),%xmm13
   2286 	vpxor	%xmm15,%xmm13,%xmm13
   2287 	vmovups	%xmm12,32(%r13,%r12,1)
   2288 	vpxor	%xmm13,%xmm12,%xmm12
   2289 	vaesenc	%xmm14,%xmm12,%xmm12
   2290 	vmovups	-80(%r15),%xmm15
   2291 	vpxor	%xmm8,%xmm2,%xmm2
   2292 	xorl	%eax,%edi
   2293 	xorl	%ebx,%eax
   2294 	addl	%ebp,%edx
   2295 	addl	36(%rsp),%ecx
   2296 	vpsrld	$30,%xmm2,%xmm8
   2297 	vmovdqa	%xmm9,16(%rsp)
   2298 	andl	%eax,%edi
   2299 	xorl	%ebx,%eax
   2300 	shrdl	$7,%ebp,%ebp
   2301 	movl	%edx,%esi
   2302 	vpslld	$2,%xmm2,%xmm2
   2303 	xorl	%eax,%edi
   2304 	shldl	$5,%edx,%edx
   2305 	addl	%edi,%ecx
   2306 	xorl	%ebp,%esi
   2307 	xorl	%eax,%ebp
   2308 	addl	%edx,%ecx
   2309 	addl	40(%rsp),%ebx
   2310 	andl	%ebp,%esi
   2311 	vpor	%xmm8,%xmm2,%xmm2
   2312 	xorl	%eax,%ebp
   2313 	shrdl	$7,%edx,%edx
   2314 	vaesenc	%xmm15,%xmm12,%xmm12
   2315 	vmovups	-64(%r15),%xmm14
   2316 	movl	%ecx,%edi
   2317 	xorl	%ebp,%esi
   2318 	shldl	$5,%ecx,%ecx
   2319 	addl	%esi,%ebx
   2320 	xorl	%edx,%edi
   2321 	xorl	%ebp,%edx
   2322 	addl	%ecx,%ebx
   2323 	addl	44(%rsp),%eax
   2324 	andl	%edx,%edi
   2325 	xorl	%ebp,%edx
   2326 	shrdl	$7,%ecx,%ecx
   2327 	movl	%ebx,%esi
   2328 	xorl	%edx,%edi
   2329 	shldl	$5,%ebx,%ebx
   2330 	addl	%edi,%eax
   2331 	xorl	%edx,%esi
   2332 	addl	%ebx,%eax
   2333 	vpalignr	$8,%xmm1,%xmm2,%xmm8
   2334 	vpxor	%xmm7,%xmm3,%xmm3
   2335 	addl	48(%rsp),%ebp
   2336 	vaesenc	%xmm14,%xmm12,%xmm12
   2337 	vmovups	-48(%r15),%xmm15
   2338 	xorl	%ecx,%esi
   2339 	movl	%eax,%edi
   2340 	shldl	$5,%eax,%eax
   2341 	vpxor	%xmm4,%xmm3,%xmm3
   2342 	addl	%esi,%ebp
   2343 	xorl	%ecx,%edi
   2344 	vpaddd	%xmm2,%xmm10,%xmm9
   2345 	shrdl	$7,%ebx,%ebx
   2346 	addl	%eax,%ebp
   2347 	vpxor	%xmm8,%xmm3,%xmm3
   2348 	addl	52(%rsp),%edx
   2349 	xorl	%ebx,%edi
   2350 	movl	%ebp,%esi
   2351 	shldl	$5,%ebp,%ebp
   2352 	vpsrld	$30,%xmm3,%xmm8
   2353 	vmovdqa	%xmm9,32(%rsp)
   2354 	addl	%edi,%edx
   2355 	xorl	%ebx,%esi
   2356 	shrdl	$7,%eax,%eax
   2357 	addl	%ebp,%edx
   2358 	vpslld	$2,%xmm3,%xmm3
   2359 	addl	56(%rsp),%ecx
   2360 	xorl	%eax,%esi
   2361 	movl	%edx,%edi
   2362 	shldl	$5,%edx,%edx
   2363 	addl	%esi,%ecx
   2364 	vaesenc	%xmm15,%xmm12,%xmm12
   2365 	vmovups	-32(%r15),%xmm14
   2366 	xorl	%eax,%edi
   2367 	shrdl	$7,%ebp,%ebp
   2368 	addl	%edx,%ecx
   2369 	vpor	%xmm8,%xmm3,%xmm3
   2370 	addl	60(%rsp),%ebx
   2371 	xorl	%ebp,%edi
   2372 	movl	%ecx,%esi
   2373 	shldl	$5,%ecx,%ecx
   2374 	addl	%edi,%ebx
   2375 	xorl	%ebp,%esi
   2376 	shrdl	$7,%edx,%edx
   2377 	addl	%ecx,%ebx
   2378 	addl	0(%rsp),%eax
   2379 	vpaddd	%xmm3,%xmm10,%xmm9
   2380 	xorl	%edx,%esi
   2381 	movl	%ebx,%edi
   2382 	shldl	$5,%ebx,%ebx
   2383 	addl	%esi,%eax
   2384 	vmovdqa	%xmm9,48(%rsp)
   2385 	xorl	%edx,%edi
   2386 	shrdl	$7,%ecx,%ecx
   2387 	addl	%ebx,%eax
   2388 	addl	4(%rsp),%ebp
   2389 	vaesenc	%xmm14,%xmm12,%xmm12
   2390 	vmovups	-16(%r15),%xmm15
   2391 	xorl	%ecx,%edi
   2392 	movl	%eax,%esi
   2393 	shldl	$5,%eax,%eax
   2394 	addl	%edi,%ebp
   2395 	xorl	%ecx,%esi
   2396 	shrdl	$7,%ebx,%ebx
   2397 	addl	%eax,%ebp
   2398 	addl	8(%rsp),%edx
   2399 	xorl	%ebx,%esi
   2400 	movl	%ebp,%edi
   2401 	shldl	$5,%ebp,%ebp
   2402 	addl	%esi,%edx
   2403 	xorl	%ebx,%edi
   2404 	shrdl	$7,%eax,%eax
   2405 	addl	%ebp,%edx
   2406 	addl	12(%rsp),%ecx
   2407 	xorl	%eax,%edi
   2408 	movl	%edx,%esi
   2409 	shldl	$5,%edx,%edx
   2410 	addl	%edi,%ecx
   2411 	vaesenc	%xmm15,%xmm12,%xmm12
   2412 	vmovups	0(%r15),%xmm14
   2413 	xorl	%eax,%esi
   2414 	shrdl	$7,%ebp,%ebp
   2415 	addl	%edx,%ecx
   2416 	cmpq	%r14,%r10
   2417 	je	.Ldone_avx
   2418 	vmovdqa	64(%r11),%xmm9
   2419 	vmovdqa	0(%r11),%xmm10
   2420 	vmovdqu	0(%r10),%xmm0
   2421 	vmovdqu	16(%r10),%xmm1
   2422 	vmovdqu	32(%r10),%xmm2
   2423 	vmovdqu	48(%r10),%xmm3
   2424 	vpshufb	%xmm9,%xmm0,%xmm0
   2425 	addq	$64,%r10
   2426 	addl	16(%rsp),%ebx
   2427 	xorl	%ebp,%esi
   2428 	vpshufb	%xmm9,%xmm1,%xmm1
   2429 	movl	%ecx,%edi
   2430 	shldl	$5,%ecx,%ecx
   2431 	vpaddd	%xmm10,%xmm0,%xmm8
   2432 	addl	%esi,%ebx
   2433 	xorl	%ebp,%edi
   2434 	shrdl	$7,%edx,%edx
   2435 	addl	%ecx,%ebx
   2436 	vmovdqa	%xmm8,0(%rsp)
   2437 	addl	20(%rsp),%eax
   2438 	xorl	%edx,%edi
   2439 	movl	%ebx,%esi
   2440 	shldl	$5,%ebx,%ebx
   2441 	addl	%edi,%eax
   2442 	xorl	%edx,%esi
   2443 	shrdl	$7,%ecx,%ecx
   2444 	addl	%ebx,%eax
   2445 	addl	24(%rsp),%ebp
   2446 	vaesenc	%xmm14,%xmm12,%xmm12
   2447 	vmovups	16(%r15),%xmm15
   2448 	xorl	%ecx,%esi
   2449 	movl	%eax,%edi
   2450 	shldl	$5,%eax,%eax
   2451 	addl	%esi,%ebp
   2452 	xorl	%ecx,%edi
   2453 	shrdl	$7,%ebx,%ebx
   2454 	addl	%eax,%ebp
   2455 	addl	28(%rsp),%edx
   2456 	xorl	%ebx,%edi
   2457 	movl	%ebp,%esi
   2458 	shldl	$5,%ebp,%ebp
   2459 	addl	%edi,%edx
   2460 	xorl	%ebx,%esi
   2461 	shrdl	$7,%eax,%eax
   2462 	addl	%ebp,%edx
   2463 	addl	32(%rsp),%ecx
   2464 	xorl	%eax,%esi
   2465 	vpshufb	%xmm9,%xmm2,%xmm2
   2466 	movl	%edx,%edi
   2467 	shldl	$5,%edx,%edx
   2468 	vpaddd	%xmm10,%xmm1,%xmm8
   2469 	addl	%esi,%ecx
   2470 	vaesenc	%xmm15,%xmm12,%xmm12
   2471 	vmovups	32(%r15),%xmm14
   2472 	xorl	%eax,%edi
   2473 	shrdl	$7,%ebp,%ebp
   2474 	addl	%edx,%ecx
   2475 	vmovdqa	%xmm8,16(%rsp)
   2476 	addl	36(%rsp),%ebx
   2477 	xorl	%ebp,%edi
   2478 	movl	%ecx,%esi
   2479 	shldl	$5,%ecx,%ecx
   2480 	addl	%edi,%ebx
   2481 	xorl	%ebp,%esi
   2482 	shrdl	$7,%edx,%edx
   2483 	addl	%ecx,%ebx
   2484 	addl	40(%rsp),%eax
   2485 	xorl	%edx,%esi
   2486 	movl	%ebx,%edi
   2487 	shldl	$5,%ebx,%ebx
   2488 	addl	%esi,%eax
   2489 	xorl	%edx,%edi
   2490 	shrdl	$7,%ecx,%ecx
   2491 	addl	%ebx,%eax
   2492 	addl	44(%rsp),%ebp
   2493 	vaesenc	%xmm14,%xmm12,%xmm12
   2494 	vmovups	48(%r15),%xmm15
   2495 	xorl	%ecx,%edi
   2496 	movl	%eax,%esi
   2497 	shldl	$5,%eax,%eax
   2498 	addl	%edi,%ebp
   2499 	xorl	%ecx,%esi
   2500 	shrdl	$7,%ebx,%ebx
   2501 	addl	%eax,%ebp
   2502 	addl	48(%rsp),%edx
   2503 	xorl	%ebx,%esi
   2504 	vpshufb	%xmm9,%xmm3,%xmm3
   2505 	movl	%ebp,%edi
   2506 	shldl	$5,%ebp,%ebp
   2507 	vpaddd	%xmm10,%xmm2,%xmm8
   2508 	addl	%esi,%edx
   2509 	xorl	%ebx,%edi
   2510 	shrdl	$7,%eax,%eax
   2511 	addl	%ebp,%edx
   2512 	vmovdqa	%xmm8,32(%rsp)
   2513 	addl	52(%rsp),%ecx
   2514 	xorl	%eax,%edi
   2515 	movl	%edx,%esi
   2516 	shldl	$5,%edx,%edx
   2517 	addl	%edi,%ecx
   2518 	cmpl	$11,%r8d
   2519 	jb	.Lvaesenclast9
   2520 	vaesenc	%xmm15,%xmm12,%xmm12
   2521 	vmovups	64(%r15),%xmm14
   2522 	vaesenc	%xmm14,%xmm12,%xmm12
   2523 	vmovups	80(%r15),%xmm15
   2524 	je	.Lvaesenclast9
   2525 	vaesenc	%xmm15,%xmm12,%xmm12
   2526 	vmovups	96(%r15),%xmm14
   2527 	vaesenc	%xmm14,%xmm12,%xmm12
   2528 	vmovups	112(%r15),%xmm15
   2529 .Lvaesenclast9:
   2530 	vaesenclast	%xmm15,%xmm12,%xmm12
   2531 	vmovups	-112(%r15),%xmm15
   2532 	vmovups	16-112(%r15),%xmm14
   2533 	xorl	%eax,%esi
   2534 	shrdl	$7,%ebp,%ebp
   2535 	addl	%edx,%ecx
   2536 	addl	56(%rsp),%ebx
   2537 	xorl	%ebp,%esi
   2538 	movl	%ecx,%edi
   2539 	shldl	$5,%ecx,%ecx
   2540 	addl	%esi,%ebx
   2541 	xorl	%ebp,%edi
   2542 	shrdl	$7,%edx,%edx
   2543 	addl	%ecx,%ebx
   2544 	addl	60(%rsp),%eax
   2545 	xorl	%edx,%edi
   2546 	movl	%ebx,%esi
   2547 	shldl	$5,%ebx,%ebx
   2548 	addl	%edi,%eax
   2549 	shrdl	$7,%ecx,%ecx
   2550 	addl	%ebx,%eax
   2551 	vmovups	%xmm12,48(%r13,%r12,1)
   2552 	leaq	64(%r12),%r12
   2553 
   2554 	addl	0(%r9),%eax
   2555 	addl	4(%r9),%esi
   2556 	addl	8(%r9),%ecx
   2557 	addl	12(%r9),%edx
   2558 	movl	%eax,0(%r9)
   2559 	addl	16(%r9),%ebp
   2560 	movl	%esi,4(%r9)
   2561 	movl	%esi,%ebx
   2562 	movl	%ecx,8(%r9)
   2563 	movl	%ecx,%edi
   2564 	movl	%edx,12(%r9)
   2565 	xorl	%edx,%edi
   2566 	movl	%ebp,16(%r9)
   2567 	andl	%edi,%esi
   2568 	jmp	.Loop_avx
   2569 
   2570 .Ldone_avx:
   2571 	addl	16(%rsp),%ebx
   2572 	xorl	%ebp,%esi
   2573 	movl	%ecx,%edi
   2574 	shldl	$5,%ecx,%ecx
   2575 	addl	%esi,%ebx
   2576 	xorl	%ebp,%edi
   2577 	shrdl	$7,%edx,%edx
   2578 	addl	%ecx,%ebx
   2579 	addl	20(%rsp),%eax
   2580 	xorl	%edx,%edi
   2581 	movl	%ebx,%esi
   2582 	shldl	$5,%ebx,%ebx
   2583 	addl	%edi,%eax
   2584 	xorl	%edx,%esi
   2585 	shrdl	$7,%ecx,%ecx
   2586 	addl	%ebx,%eax
   2587 	addl	24(%rsp),%ebp
   2588 	vaesenc	%xmm14,%xmm12,%xmm12
   2589 	vmovups	16(%r15),%xmm15
   2590 	xorl	%ecx,%esi
   2591 	movl	%eax,%edi
   2592 	shldl	$5,%eax,%eax
   2593 	addl	%esi,%ebp
   2594 	xorl	%ecx,%edi
   2595 	shrdl	$7,%ebx,%ebx
   2596 	addl	%eax,%ebp
   2597 	addl	28(%rsp),%edx
   2598 	xorl	%ebx,%edi
   2599 	movl	%ebp,%esi
   2600 	shldl	$5,%ebp,%ebp
   2601 	addl	%edi,%edx
   2602 	xorl	%ebx,%esi
   2603 	shrdl	$7,%eax,%eax
   2604 	addl	%ebp,%edx
   2605 	addl	32(%rsp),%ecx
   2606 	xorl	%eax,%esi
   2607 	movl	%edx,%edi
   2608 	shldl	$5,%edx,%edx
   2609 	addl	%esi,%ecx
   2610 	vaesenc	%xmm15,%xmm12,%xmm12
   2611 	vmovups	32(%r15),%xmm14
   2612 	xorl	%eax,%edi
   2613 	shrdl	$7,%ebp,%ebp
   2614 	addl	%edx,%ecx
   2615 	addl	36(%rsp),%ebx
   2616 	xorl	%ebp,%edi
   2617 	movl	%ecx,%esi
   2618 	shldl	$5,%ecx,%ecx
   2619 	addl	%edi,%ebx
   2620 	xorl	%ebp,%esi
   2621 	shrdl	$7,%edx,%edx
   2622 	addl	%ecx,%ebx
   2623 	addl	40(%rsp),%eax
   2624 	xorl	%edx,%esi
   2625 	movl	%ebx,%edi
   2626 	shldl	$5,%ebx,%ebx
   2627 	addl	%esi,%eax
   2628 	xorl	%edx,%edi
   2629 	shrdl	$7,%ecx,%ecx
   2630 	addl	%ebx,%eax
   2631 	addl	44(%rsp),%ebp
   2632 	vaesenc	%xmm14,%xmm12,%xmm12
   2633 	vmovups	48(%r15),%xmm15
   2634 	xorl	%ecx,%edi
   2635 	movl	%eax,%esi
   2636 	shldl	$5,%eax,%eax
   2637 	addl	%edi,%ebp
   2638 	xorl	%ecx,%esi
   2639 	shrdl	$7,%ebx,%ebx
   2640 	addl	%eax,%ebp
   2641 	addl	48(%rsp),%edx
   2642 	xorl	%ebx,%esi
   2643 	movl	%ebp,%edi
   2644 	shldl	$5,%ebp,%ebp
   2645 	addl	%esi,%edx
   2646 	xorl	%ebx,%edi
   2647 	shrdl	$7,%eax,%eax
   2648 	addl	%ebp,%edx
   2649 	addl	52(%rsp),%ecx
   2650 	xorl	%eax,%edi
   2651 	movl	%edx,%esi
   2652 	shldl	$5,%edx,%edx
   2653 	addl	%edi,%ecx
   2654 	cmpl	$11,%r8d
   2655 	jb	.Lvaesenclast10
   2656 	vaesenc	%xmm15,%xmm12,%xmm12
   2657 	vmovups	64(%r15),%xmm14
   2658 	vaesenc	%xmm14,%xmm12,%xmm12
   2659 	vmovups	80(%r15),%xmm15
   2660 	je	.Lvaesenclast10
   2661 	vaesenc	%xmm15,%xmm12,%xmm12
   2662 	vmovups	96(%r15),%xmm14
   2663 	vaesenc	%xmm14,%xmm12,%xmm12
   2664 	vmovups	112(%r15),%xmm15
   2665 .Lvaesenclast10:
   2666 	vaesenclast	%xmm15,%xmm12,%xmm12
   2667 	vmovups	-112(%r15),%xmm15
   2668 	vmovups	16-112(%r15),%xmm14
   2669 	xorl	%eax,%esi
   2670 	shrdl	$7,%ebp,%ebp
   2671 	addl	%edx,%ecx
   2672 	addl	56(%rsp),%ebx
   2673 	xorl	%ebp,%esi
   2674 	movl	%ecx,%edi
   2675 	shldl	$5,%ecx,%ecx
   2676 	addl	%esi,%ebx
   2677 	xorl	%ebp,%edi
   2678 	shrdl	$7,%edx,%edx
   2679 	addl	%ecx,%ebx
   2680 	addl	60(%rsp),%eax
   2681 	xorl	%edx,%edi
   2682 	movl	%ebx,%esi
   2683 	shldl	$5,%ebx,%ebx
   2684 	addl	%edi,%eax
   2685 	shrdl	$7,%ecx,%ecx
   2686 	addl	%ebx,%eax
   2687 	vmovups	%xmm12,48(%r13,%r12,1)
   2688 	movq	88(%rsp),%r8
   2689 
   2690 	addl	0(%r9),%eax
   2691 	addl	4(%r9),%esi
   2692 	addl	8(%r9),%ecx
   2693 	movl	%eax,0(%r9)
   2694 	addl	12(%r9),%edx
   2695 	movl	%esi,4(%r9)
   2696 	addl	16(%r9),%ebp
   2697 	movl	%ecx,8(%r9)
   2698 	movl	%edx,12(%r9)
   2699 	movl	%ebp,16(%r9)
   2700 	vmovups	%xmm12,(%r8)
   2701 	vzeroall
   2702 	leaq	104(%rsp),%rsi
   2703 .cfi_def_cfa	%rsi,56
   2704 	movq	0(%rsi),%r15
   2705 .cfi_restore	%r15
   2706 	movq	8(%rsi),%r14
   2707 .cfi_restore	%r14
   2708 	movq	16(%rsi),%r13
   2709 .cfi_restore	%r13
   2710 	movq	24(%rsi),%r12
   2711 .cfi_restore	%r12
   2712 	movq	32(%rsi),%rbp
   2713 .cfi_restore	%rbp
   2714 	movq	40(%rsi),%rbx
   2715 .cfi_restore	%rbx
   2716 	leaq	48(%rsi),%rsp
   2717 .cfi_def_cfa	%rsp,8
   2718 .Lepilogue_avx:
   2719 	.byte	0xf3,0xc3
   2720 .cfi_endproc
   2721 .size	aesni_cbc_sha1_enc_avx,.-aesni_cbc_sha1_enc_avx
   2722 .align	64
   2723 K_XX_XX:
   2724 .long	0x5a827999,0x5a827999,0x5a827999,0x5a827999
   2725 .long	0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
   2726 .long	0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
   2727 .long	0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
   2728 .long	0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
   2729 .byte	0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0
   2730 
   2731 .byte	65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
   2732 .align	64
   2733 .type	aesni_cbc_sha1_enc_shaext,@function
   2734 .align	32
   2735 aesni_cbc_sha1_enc_shaext:
   2736 .cfi_startproc
   2737 	movq	8(%rsp),%r10
   2738 	movdqu	(%r9),%xmm8
   2739 	movd	16(%r9),%xmm9
   2740 	movdqa	K_XX_XX+80(%rip),%xmm7
   2741 
   2742 	movl	240(%rcx),%r11d
   2743 	subq	%rdi,%rsi
   2744 	movups	(%rcx),%xmm15
   2745 	movups	(%r8),%xmm2
   2746 	movups	16(%rcx),%xmm0
   2747 	leaq	112(%rcx),%rcx
   2748 
   2749 	pshufd	$27,%xmm8,%xmm8
   2750 	pshufd	$27,%xmm9,%xmm9
   2751 	jmp	.Loop_shaext
   2752 
   2753 .align	16
   2754 .Loop_shaext:
   2755 	movups	0(%rdi),%xmm14
   2756 	xorps	%xmm15,%xmm14
   2757 	xorps	%xmm14,%xmm2
   2758 	movups	-80(%rcx),%xmm1
   2759 .byte	102,15,56,220,208
   2760 	movdqu	(%r10),%xmm3
   2761 	movdqa	%xmm9,%xmm12
   2762 .byte	102,15,56,0,223
   2763 	movdqu	16(%r10),%xmm4
   2764 	movdqa	%xmm8,%xmm11
   2765 	movups	-64(%rcx),%xmm0
   2766 .byte	102,15,56,220,209
   2767 .byte	102,15,56,0,231
   2768 
   2769 	paddd	%xmm3,%xmm9
   2770 	movdqu	32(%r10),%xmm5
   2771 	leaq	64(%r10),%r10
   2772 	pxor	%xmm12,%xmm3
   2773 	movups	-48(%rcx),%xmm1
   2774 .byte	102,15,56,220,208
   2775 	pxor	%xmm12,%xmm3
   2776 	movdqa	%xmm8,%xmm10
   2777 .byte	102,15,56,0,239
   2778 .byte	69,15,58,204,193,0
   2779 .byte	68,15,56,200,212
   2780 	movups	-32(%rcx),%xmm0
   2781 .byte	102,15,56,220,209
   2782 .byte	15,56,201,220
   2783 	movdqu	-16(%r10),%xmm6
   2784 	movdqa	%xmm8,%xmm9
   2785 .byte	102,15,56,0,247
   2786 	movups	-16(%rcx),%xmm1
   2787 .byte	102,15,56,220,208
   2788 .byte	69,15,58,204,194,0
   2789 .byte	68,15,56,200,205
   2790 	pxor	%xmm5,%xmm3
   2791 .byte	15,56,201,229
   2792 	movups	0(%rcx),%xmm0
   2793 .byte	102,15,56,220,209
   2794 	movdqa	%xmm8,%xmm10
   2795 .byte	69,15,58,204,193,0
   2796 .byte	68,15,56,200,214
   2797 	movups	16(%rcx),%xmm1
   2798 .byte	102,15,56,220,208
   2799 .byte	15,56,202,222
   2800 	pxor	%xmm6,%xmm4
   2801 .byte	15,56,201,238
   2802 	movups	32(%rcx),%xmm0
   2803 .byte	102,15,56,220,209
   2804 	movdqa	%xmm8,%xmm9
   2805 .byte	69,15,58,204,194,0
   2806 .byte	68,15,56,200,203
   2807 	movups	48(%rcx),%xmm1
   2808 .byte	102,15,56,220,208
   2809 .byte	15,56,202,227
   2810 	pxor	%xmm3,%xmm5
   2811 .byte	15,56,201,243
   2812 	cmpl	$11,%r11d
   2813 	jb	.Laesenclast11
   2814 	movups	64(%rcx),%xmm0
   2815 .byte	102,15,56,220,209
   2816 	movups	80(%rcx),%xmm1
   2817 .byte	102,15,56,220,208
   2818 	je	.Laesenclast11
   2819 	movups	96(%rcx),%xmm0
   2820 .byte	102,15,56,220,209
   2821 	movups	112(%rcx),%xmm1
   2822 .byte	102,15,56,220,208
   2823 .Laesenclast11:
   2824 .byte	102,15,56,221,209
   2825 	movups	16-112(%rcx),%xmm0
   2826 	movdqa	%xmm8,%xmm10
   2827 .byte	69,15,58,204,193,0
   2828 .byte	68,15,56,200,212
   2829 	movups	16(%rdi),%xmm14
   2830 	xorps	%xmm15,%xmm14
   2831 	movups	%xmm2,0(%rsi,%rdi,1)
   2832 	xorps	%xmm14,%xmm2
   2833 	movups	-80(%rcx),%xmm1
   2834 .byte	102,15,56,220,208
   2835 .byte	15,56,202,236
   2836 	pxor	%xmm4,%xmm6
   2837 .byte	15,56,201,220
   2838 	movups	-64(%rcx),%xmm0
   2839 .byte	102,15,56,220,209
   2840 	movdqa	%xmm8,%xmm9
   2841 .byte	69,15,58,204,194,1
   2842 .byte	68,15,56,200,205
   2843 	movups	-48(%rcx),%xmm1
   2844 .byte	102,15,56,220,208
   2845 .byte	15,56,202,245
   2846 	pxor	%xmm5,%xmm3
   2847 .byte	15,56,201,229
   2848 	movups	-32(%rcx),%xmm0
   2849 .byte	102,15,56,220,209
   2850 	movdqa	%xmm8,%xmm10
   2851 .byte	69,15,58,204,193,1
   2852 .byte	68,15,56,200,214
   2853 	movups	-16(%rcx),%xmm1
   2854 .byte	102,15,56,220,208
   2855 .byte	15,56,202,222
   2856 	pxor	%xmm6,%xmm4
   2857 .byte	15,56,201,238
   2858 	movups	0(%rcx),%xmm0
   2859 .byte	102,15,56,220,209
   2860 	movdqa	%xmm8,%xmm9
   2861 .byte	69,15,58,204,194,1
   2862 .byte	68,15,56,200,203
   2863 	movups	16(%rcx),%xmm1
   2864 .byte	102,15,56,220,208
   2865 .byte	15,56,202,227
   2866 	pxor	%xmm3,%xmm5
   2867 .byte	15,56,201,243
   2868 	movups	32(%rcx),%xmm0
   2869 .byte	102,15,56,220,209
   2870 	movdqa	%xmm8,%xmm10
   2871 .byte	69,15,58,204,193,1
   2872 .byte	68,15,56,200,212
   2873 	movups	48(%rcx),%xmm1
   2874 .byte	102,15,56,220,208
   2875 .byte	15,56,202,236
   2876 	pxor	%xmm4,%xmm6
   2877 .byte	15,56,201,220
   2878 	cmpl	$11,%r11d
   2879 	jb	.Laesenclast12
   2880 	movups	64(%rcx),%xmm0
   2881 .byte	102,15,56,220,209
   2882 	movups	80(%rcx),%xmm1
   2883 .byte	102,15,56,220,208
   2884 	je	.Laesenclast12
   2885 	movups	96(%rcx),%xmm0
   2886 .byte	102,15,56,220,209
   2887 	movups	112(%rcx),%xmm1
   2888 .byte	102,15,56,220,208
   2889 .Laesenclast12:
   2890 .byte	102,15,56,221,209
   2891 	movups	16-112(%rcx),%xmm0
   2892 	movdqa	%xmm8,%xmm9
   2893 .byte	69,15,58,204,194,1
   2894 .byte	68,15,56,200,205
   2895 	movups	32(%rdi),%xmm14
   2896 	xorps	%xmm15,%xmm14
   2897 	movups	%xmm2,16(%rsi,%rdi,1)
   2898 	xorps	%xmm14,%xmm2
   2899 	movups	-80(%rcx),%xmm1
   2900 .byte	102,15,56,220,208
   2901 .byte	15,56,202,245
   2902 	pxor	%xmm5,%xmm3
   2903 .byte	15,56,201,229
   2904 	movups	-64(%rcx),%xmm0
   2905 .byte	102,15,56,220,209
   2906 	movdqa	%xmm8,%xmm10
   2907 .byte	69,15,58,204,193,2
   2908 .byte	68,15,56,200,214
   2909 	movups	-48(%rcx),%xmm1
   2910 .byte	102,15,56,220,208
   2911 .byte	15,56,202,222
   2912 	pxor	%xmm6,%xmm4
   2913 .byte	15,56,201,238
   2914 	movups	-32(%rcx),%xmm0
   2915 .byte	102,15,56,220,209
   2916 	movdqa	%xmm8,%xmm9
   2917 .byte	69,15,58,204,194,2
   2918 .byte	68,15,56,200,203
   2919 	movups	-16(%rcx),%xmm1
   2920 .byte	102,15,56,220,208
   2921 .byte	15,56,202,227
   2922 	pxor	%xmm3,%xmm5
   2923 .byte	15,56,201,243
   2924 	movups	0(%rcx),%xmm0
   2925 .byte	102,15,56,220,209
   2926 	movdqa	%xmm8,%xmm10
   2927 .byte	69,15,58,204,193,2
   2928 .byte	68,15,56,200,212
   2929 	movups	16(%rcx),%xmm1
   2930 .byte	102,15,56,220,208
   2931 .byte	15,56,202,236
   2932 	pxor	%xmm4,%xmm6
   2933 .byte	15,56,201,220
   2934 	movups	32(%rcx),%xmm0
   2935 .byte	102,15,56,220,209
   2936 	movdqa	%xmm8,%xmm9
   2937 .byte	69,15,58,204,194,2
   2938 .byte	68,15,56,200,205
   2939 	movups	48(%rcx),%xmm1
   2940 .byte	102,15,56,220,208
   2941 .byte	15,56,202,245
   2942 	pxor	%xmm5,%xmm3
   2943 .byte	15,56,201,229
   2944 	cmpl	$11,%r11d
   2945 	jb	.Laesenclast13
   2946 	movups	64(%rcx),%xmm0
   2947 .byte	102,15,56,220,209
   2948 	movups	80(%rcx),%xmm1
   2949 .byte	102,15,56,220,208
   2950 	je	.Laesenclast13
   2951 	movups	96(%rcx),%xmm0
   2952 .byte	102,15,56,220,209
   2953 	movups	112(%rcx),%xmm1
   2954 .byte	102,15,56,220,208
   2955 .Laesenclast13:
   2956 .byte	102,15,56,221,209
   2957 	movups	16-112(%rcx),%xmm0
   2958 	movdqa	%xmm8,%xmm10
   2959 .byte	69,15,58,204,193,2
   2960 .byte	68,15,56,200,214
   2961 	movups	48(%rdi),%xmm14
   2962 	xorps	%xmm15,%xmm14
   2963 	movups	%xmm2,32(%rsi,%rdi,1)
   2964 	xorps	%xmm14,%xmm2
   2965 	movups	-80(%rcx),%xmm1
   2966 .byte	102,15,56,220,208
   2967 .byte	15,56,202,222
   2968 	pxor	%xmm6,%xmm4
   2969 .byte	15,56,201,238
   2970 	movups	-64(%rcx),%xmm0
   2971 .byte	102,15,56,220,209
   2972 	movdqa	%xmm8,%xmm9
   2973 .byte	69,15,58,204,194,3
   2974 .byte	68,15,56,200,203
   2975 	movups	-48(%rcx),%xmm1
   2976 .byte	102,15,56,220,208
   2977 .byte	15,56,202,227
   2978 	pxor	%xmm3,%xmm5
   2979 .byte	15,56,201,243
   2980 	movups	-32(%rcx),%xmm0
   2981 .byte	102,15,56,220,209
   2982 	movdqa	%xmm8,%xmm10
   2983 .byte	69,15,58,204,193,3
   2984 .byte	68,15,56,200,212
   2985 .byte	15,56,202,236
   2986 	pxor	%xmm4,%xmm6
   2987 	movups	-16(%rcx),%xmm1
   2988 .byte	102,15,56,220,208
   2989 	movdqa	%xmm8,%xmm9
   2990 .byte	69,15,58,204,194,3
   2991 .byte	68,15,56,200,205
   2992 .byte	15,56,202,245
   2993 	movups	0(%rcx),%xmm0
   2994 .byte	102,15,56,220,209
   2995 	movdqa	%xmm12,%xmm5
   2996 	movdqa	%xmm8,%xmm10
   2997 .byte	69,15,58,204,193,3
   2998 .byte	68,15,56,200,214
   2999 	movups	16(%rcx),%xmm1
   3000 .byte	102,15,56,220,208
   3001 	movdqa	%xmm8,%xmm9
   3002 .byte	69,15,58,204,194,3
   3003 .byte	68,15,56,200,205
   3004 	movups	32(%rcx),%xmm0
   3005 .byte	102,15,56,220,209
   3006 	movups	48(%rcx),%xmm1
   3007 .byte	102,15,56,220,208
   3008 	cmpl	$11,%r11d
   3009 	jb	.Laesenclast14
   3010 	movups	64(%rcx),%xmm0
   3011 .byte	102,15,56,220,209
   3012 	movups	80(%rcx),%xmm1
   3013 .byte	102,15,56,220,208
   3014 	je	.Laesenclast14
   3015 	movups	96(%rcx),%xmm0
   3016 .byte	102,15,56,220,209
   3017 	movups	112(%rcx),%xmm1
   3018 .byte	102,15,56,220,208
   3019 .Laesenclast14:
   3020 .byte	102,15,56,221,209
   3021 	movups	16-112(%rcx),%xmm0
   3022 	decq	%rdx
   3023 
   3024 	paddd	%xmm11,%xmm8
   3025 	movups	%xmm2,48(%rsi,%rdi,1)
   3026 	leaq	64(%rdi),%rdi
   3027 	jnz	.Loop_shaext
   3028 
   3029 	pshufd	$27,%xmm8,%xmm8
   3030 	pshufd	$27,%xmm9,%xmm9
   3031 	movups	%xmm2,(%r8)
   3032 	movdqu	%xmm8,(%r9)
   3033 	movd	%xmm9,16(%r9)
   3034 	.byte	0xf3,0xc3
   3035 .cfi_endproc
   3036 .size	aesni_cbc_sha1_enc_shaext,.-aesni_cbc_sha1_enc_shaext
   3037 	.section ".note.gnu.property", "a"
   3038 	.p2align 3
   3039 	.long 1f - 0f
   3040 	.long 4f - 1f
   3041 	.long 5
   3042 0:
   3043 	# "GNU" encoded with .byte, since .asciz isn't supported
   3044 	# on Solaris.
   3045 	.byte 0x47
   3046 	.byte 0x4e
   3047 	.byte 0x55
   3048 	.byte 0
   3049 1:
   3050 	.p2align 3
   3051 	.long 0xc0000002
   3052 	.long 3f - 2f
   3053 2:
   3054 	.long 3
   3055 3:
   3056 	.p2align 3
   3057 4:
   3058