some float constants
Trying to go slowly to find where problems arise.
Weirdly, I think I got everything except hsl_to_rgb.
CQ_INCLUDE_TRYBOTS=skia.primary:Test-Win7-MSVC-Golo-CPU-AVX-x86_64-Release,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release-SK_CPU_LIMIT_SSE41,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release-SK_CPU_LIMIT_SSE2
Change-Id: I4d85a4c1f40bd87e7cb18fc9b5ce020812dc31db
Reviewed-on: https://skia-review.googlesource.com/14905
Reviewed-by: Mike Klein <mtklein@chromium.org>
Commit-Queue: Mike Klein <mtklein@chromium.org>
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index bb77bec..0932fd0 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -7347,14 +7347,14 @@
.byte 197,249,110,199 // vmovd %edi,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,173,63,0,0 // vbroadcastss 0x3fad(%rip),%ymm1 # 4070 <_sk_callback_hsw+0x126>
+ .byte 196,226,125,24,13,125,60,0,0 // vbroadcastss 0x3c7d(%rip),%ymm1 # 3d40 <_sk_callback_hsw+0x125>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,2 // vaddps (%rdx),%ymm0,%ymm0
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,145,63,0,0 // vbroadcastss 0x3f91(%rip),%ymm2 # 4074 <_sk_callback_hsw+0x12a>
+ .byte 196,226,125,24,21,97,60,0,0 // vbroadcastss 0x3c61(%rip),%ymm2 # 3d44 <_sk_callback_hsw+0x129>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7389,16 +7389,14 @@
.globl _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 196,98,125,24,5,17,60,0,0 // vbroadcastss 0x3c11(%rip),%ymm8 # 3d48 <_sk_callback_hsw+0x12d>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
- .byte 196,194,69,168,193 // vfmadd213ps %ymm9,%ymm7,%ymm0
- .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9
- .byte 196,194,69,168,201 // vfmadd213ps %ymm9,%ymm7,%ymm1
- .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9
- .byte 196,194,69,168,209 // vfmadd213ps %ymm9,%ymm7,%ymm2
+ .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7408,9 +7406,7 @@
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,228,59,0,0 // vbroadcastss 0x3be4(%rip),%ymm8 # 3d4c <_sk_callback_hsw+0x131>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7449,9 +7445,7 @@
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,139,59,0,0 // vbroadcastss 0x3b8b(%rip),%ymm8 # 3d50 <_sk_callback_hsw+0x135>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7464,9 +7458,7 @@
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,110,59,0,0 // vbroadcastss 0x3b6e(%rip),%ymm0 # 3d54 <_sk_callback_hsw+0x139>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7479,9 +7471,7 @@
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,81,59,0,0 // vbroadcastss 0x3b51(%rip),%ymm8 # 3d58 <_sk_callback_hsw+0x13d>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7494,9 +7484,7 @@
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,48,59,0,0 // vbroadcastss 0x3b30(%rip),%ymm8 # 3d5c <_sk_callback_hsw+0x141>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7520,13 +7508,11 @@
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,251,58,0,0 // vbroadcastss 0x3afb(%rip),%ymm8 # 3d60 <_sk_callback_hsw+0x145>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 196,98,53,184,208 // vfmadd231ps %ymm0,%ymm9,%ymm10
+ .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
.byte 196,194,93,168,194 // vfmadd213ps %ymm10,%ymm4,%ymm0
.byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
.byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
@@ -7570,13 +7556,11 @@
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,118,58,0,0 // vbroadcastss 0x3a76(%rip),%ymm8 # 3d64 <_sk_callback_hsw+0x149>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 196,194,53,168,194 // vfmadd213ps %ymm10,%ymm9,%ymm0
+ .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
.byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
@@ -7606,9 +7590,7 @@
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,254,57,0,0 // vbroadcastss 0x39fe(%rip),%ymm8 # 3d68 <_sk_callback_hsw+0x14d>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7633,9 +7615,7 @@
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,173,57,0,0 // vbroadcastss 0x39ad(%rip),%ymm8 # 3d6c <_sk_callback_hsw+0x151>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7663,9 +7643,7 @@
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,80,57,0,0 // vbroadcastss 0x3950(%rip),%ymm8 # 3d70 <_sk_callback_hsw+0x155>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7687,9 +7665,7 @@
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,14,57,0,0 // vbroadcastss 0x390e(%rip),%ymm8 # 3d74 <_sk_callback_hsw+0x159>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7699,9 +7675,7 @@
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,252,56,0,0 // vbroadcastss 0x38fc(%rip),%ymm8 # 3d78 <_sk_callback_hsw+0x15d>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -7759,9 +7733,7 @@
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 196,98,125,24,13,7,56,0,0 // vbroadcastss 0x3807(%rip),%ymm9 # 3d7c <_sk_callback_hsw+0x161>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -7814,13 +7786,11 @@
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,40,55,0,0 // vbroadcastss 0x3728(%rip),%ymm8 # 3d80 <_sk_callback_hsw+0x165>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
+ .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,98,45,184,216 // vfmadd231ps %ymm0,%ymm10,%ymm11
+ .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11
.byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
.byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12
.byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
@@ -7832,7 +7802,7 @@
.byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11
.byte 197,116,88,225 // vaddps %ymm1,%ymm1,%ymm12
@@ -7845,7 +7815,7 @@
.byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
.byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
.byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
.byte 197,108,88,218 // vaddps %ymm2,%ymm2,%ymm11
@@ -7858,7 +7828,7 @@
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
.byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -7867,13 +7837,11 @@
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,96,54,0,0 // vbroadcastss 0x3660(%rip),%ymm8 # 3d84 <_sk_callback_hsw+0x169>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
+ .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,98,45,184,216 // vfmadd231ps %ymm0,%ymm10,%ymm11
+ .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11
.byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9
.byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12
.byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
@@ -7885,7 +7853,7 @@
.byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11
.byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
@@ -7898,7 +7866,7 @@
.byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
.byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
.byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
.byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
@@ -7911,7 +7879,7 @@
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
.byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -7921,99 +7889,99 @@
FUNCTION(_sk_softlight_hsw)
_sk_softlight_hsw:
.byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,44,194,223,1 // vcmpltps %ymm7,%ymm10,%ymm11
+ .byte 197,252,40,209 // vmovaps %ymm1,%ymm2
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10
.byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8
- .byte 196,67,45,74,224,176 // vblendvps %ymm11,%ymm8,%ymm10,%ymm12
- .byte 196,65,28,88,196 // vaddps %ymm12,%ymm12,%ymm8
- .byte 196,65,60,88,232 // vaddps %ymm8,%ymm8,%ymm13
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 196,65,28,92,240 // vsubps %ymm8,%ymm12,%ymm14
- .byte 184,0,0,224,64 // mov $0x40e00000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 196,65,28,89,249 // vmulps %ymm9,%ymm12,%ymm15
- .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,65,124,82,236 // vrsqrtps %ymm12,%ymm13
- .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
- .byte 196,65,20,92,236 // vsubps %ymm12,%ymm13,%ymm13
- .byte 197,92,88,244 // vaddps %ymm4,%ymm4,%ymm14
- .byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14
- .byte 197,12,194,247,2 // vcmpleps %ymm7,%ymm14,%ymm14
- .byte 196,67,21,74,239,224 // vblendvps %ymm14,%ymm15,%ymm13,%ymm13
+ .byte 196,67,53,74,232,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm13
+ .byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
+ .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
+ .byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
+ .byte 196,98,125,24,29,107,53,0,0 // vbroadcastss 0x356b(%rip),%ymm11 # 3d8c <_sk_callback_hsw+0x171>
+ .byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
+ .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
+ .byte 196,98,125,24,37,92,53,0,0 // vbroadcastss 0x355c(%rip),%ymm12 # 3d90 <_sk_callback_hsw+0x175>
+ .byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
+ .byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
+ .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
+ .byte 196,65,12,92,245 // vsubps %ymm13,%ymm14,%ymm14
+ .byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15
+ .byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15
+ .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
+ .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
+ .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
+ .byte 196,98,125,24,5,31,53,0,0 // vbroadcastss 0x351f(%rip),%ymm8 # 3d88 <_sk_callback_hsw+0x16d>
+ .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
+ .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
+ .byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 197,20,89,236 // vmulps %ymm4,%ymm13,%ymm13
+ .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
+ .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14
+ .byte 196,195,125,74,197,224 // vblendvps %ymm14,%ymm13,%ymm0,%ymm0
+ .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
+ .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0
+ .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
.byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14
- .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
- .byte 196,98,5,168,227 // vfmadd213ps %ymm3,%ymm15,%ymm12
- .byte 197,28,89,228 // vmulps %ymm4,%ymm12,%ymm12
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13
- .byte 196,98,101,184,236 // vfmadd231ps %ymm4,%ymm3,%ymm13
- .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,195,21,74,212,224 // vblendvps %ymm14,%ymm12,%ymm13,%ymm2
- .byte 197,84,94,239 // vdivps %ymm7,%ymm5,%ymm13
- .byte 196,67,45,74,237,176 // vblendvps %ymm11,%ymm13,%ymm10,%ymm13
- .byte 196,65,20,88,245 // vaddps %ymm13,%ymm13,%ymm14
.byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14
.byte 196,66,13,168,246 // vfmadd213ps %ymm14,%ymm14,%ymm14
- .byte 196,65,20,92,248 // vsubps %ymm8,%ymm13,%ymm15
+ .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15
.byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14
- .byte 196,66,53,184,245 // vfmadd231ps %ymm13,%ymm9,%ymm14
- .byte 196,65,124,82,253 // vrsqrtps %ymm13,%ymm15
+ .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
+ .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15
.byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15
- .byte 196,65,4,92,253 // vsubps %ymm13,%ymm15,%ymm15
- .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 196,67,5,74,230,192 // vblendvps %ymm12,%ymm14,%ymm15,%ymm12
- .byte 197,116,88,241 // vaddps %ymm1,%ymm1,%ymm14
- .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
+ .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15
+ .byte 197,84,88,237 // vaddps %ymm5,%ymm5,%ymm13
+ .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
+ .byte 197,20,194,239,2 // vcmpleps %ymm7,%ymm13,%ymm13
+ .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14
.byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 196,98,5,168,235 // vfmadd213ps %ymm3,%ymm15,%ymm13
+ .byte 196,226,5,168,195 // vfmadd213ps %ymm3,%ymm15,%ymm0
.byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,228 // vmulps %ymm12,%ymm15,%ymm12
- .byte 197,20,89,237 // vmulps %ymm5,%ymm13,%ymm13
- .byte 196,98,101,184,229 // vfmadd231ps %ymm5,%ymm3,%ymm12
+ .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13
+ .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
+ .byte 196,98,101,184,237 // vfmadd231ps %ymm5,%ymm3,%ymm13
.byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,67,29,74,237,224 // vblendvps %ymm14,%ymm13,%ymm12,%ymm13
- .byte 197,76,94,231 // vdivps %ymm7,%ymm6,%ymm12
- .byte 196,67,45,74,212,176 // vblendvps %ymm11,%ymm12,%ymm10,%ymm10
- .byte 196,65,44,88,218 // vaddps %ymm10,%ymm10,%ymm11
+ .byte 196,99,21,74,240,224 // vblendvps %ymm14,%ymm0,%ymm13,%ymm14
+ .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0
+ .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
+ .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
+ .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
+ .byte 196,66,53,168,201 // vfmadd213ps %ymm9,%ymm9,%ymm9
+ .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10
+ .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9
+ .byte 196,66,125,184,204 // vfmadd231ps %ymm12,%ymm0,%ymm9
+ .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10
+ .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10
+ .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
+ .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
.byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 196,66,37,168,219 // vfmadd213ps %ymm11,%ymm11,%ymm11
- .byte 196,65,44,92,224 // vsubps %ymm8,%ymm10,%ymm12
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,66,45,168,203 // vfmadd213ps %ymm11,%ymm10,%ymm9
- .byte 196,65,124,82,218 // vrsqrtps %ymm10,%ymm11
- .byte 196,65,124,83,219 // vrcpps %ymm11,%ymm11
- .byte 196,65,36,92,218 // vsubps %ymm10,%ymm11,%ymm11
- .byte 197,76,88,230 // vaddps %ymm6,%ymm6,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 196,67,37,74,201,192 // vblendvps %ymm12,%ymm9,%ymm11,%ymm9
- .byte 197,124,16,116,36,200 // vmovups -0x38(%rsp),%ymm14
- .byte 196,65,12,88,222 // vaddps %ymm14,%ymm14,%ymm11
- .byte 197,36,92,227 // vsubps %ymm3,%ymm11,%ymm12
- .byte 196,65,60,92,210 // vsubps %ymm10,%ymm8,%ymm10
- .byte 196,98,29,168,211 // vfmadd213ps %ymm3,%ymm12,%ymm10
- .byte 197,28,89,231 // vmulps %ymm7,%ymm12,%ymm12
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 197,44,89,214 // vmulps %ymm6,%ymm10,%ymm10
+ .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
+ .byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9
+ .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12
+ .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10
+ .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 196,226,37,168,195 // vfmadd213ps %ymm3,%ymm11,%ymm0
+ .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11
+ .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9
+ .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
.byte 196,98,101,184,206 // vfmadd231ps %ymm6,%ymm3,%ymm9
- .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11
- .byte 196,67,53,74,202,176 // vblendvps %ymm11,%ymm10,%ymm9,%ymm9
+ .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10
+ .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
+ .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,98,45,184,216 // vfmadd231ps %ymm0,%ymm10,%ymm11
- .byte 196,193,108,88,195 // vaddps %ymm11,%ymm2,%ymm0
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
+ .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
+ .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0
+ .byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1
.byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,193,44,89,214 // vmulps %ymm14,%ymm10,%ymm2
+ .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1
+ .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2
.byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
@@ -8036,9 +8004,7 @@
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,164,51,0,0 // vbroadcastss 0x33a4(%rip),%ymm8 # 3d94 <_sk_callback_hsw+0x179>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -8050,9 +8016,7 @@
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,135,51,0,0 // vbroadcastss 0x3387(%rip),%ymm8 # 3d98 <_sk_callback_hsw+0x17d>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -8138,9 +8102,7 @@
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
+ .byte 196,98,125,24,21,207,50,0,0 // vbroadcastss 0x32cf(%rip),%ymm10 # 3d9c <_sk_callback_hsw+0x181>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -8153,41 +8115,31 @@
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 184,145,131,158,61 // mov $0x3d9e8391,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,5,176,50,0,0 // vbroadcastss 0x32b0(%rip),%ymm8 # 3da0 <_sk_callback_hsw+0x185>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 184,154,153,153,62 // mov $0x3e99999a,%eax
- .byte 197,121,110,216 // vmovd %eax,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 184,92,143,50,63 // mov $0x3f328f5c,%eax
- .byte 197,121,110,224 // vmovd %eax,%xmm12
- .byte 196,66,125,88,228 // vpbroadcastd %xmm12,%ymm12
- .byte 196,65,125,111,235 // vmovdqa %ymm11,%ymm13
- .byte 196,66,125,168,236 // vfmadd213ps %ymm12,%ymm0,%ymm13
- .byte 184,10,215,35,59 // mov $0x3b23d70a,%eax
- .byte 197,121,110,240 // vmovd %eax,%xmm14
- .byte 196,66,125,88,246 // vpbroadcastd %xmm14,%ymm14
+ .byte 196,98,125,24,29,162,50,0,0 // vbroadcastss 0x32a2(%rip),%ymm11 # 3da4 <_sk_callback_hsw+0x189>
+ .byte 196,98,125,24,37,157,50,0,0 // vbroadcastss 0x329d(%rip),%ymm12 # 3da8 <_sk_callback_hsw+0x18d>
+ .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
+ .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
+ .byte 196,98,125,24,53,142,50,0,0 // vbroadcastss 0x328e(%rip),%ymm14 # 3dac <_sk_callback_hsw+0x191>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 184,174,71,97,61 // mov $0x3d6147ae,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
+ .byte 196,98,125,24,21,132,50,0,0 // vbroadcastss 0x3284(%rip),%ymm10 # 3db0 <_sk_callback_hsw+0x195>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
- .byte 197,60,89,201 // vmulps %ymm1,%ymm8,%ymm9
+ .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
.byte 197,116,89,233 // vmulps %ymm1,%ymm1,%ymm13
- .byte 196,65,125,111,251 // vmovdqa %ymm11,%ymm15
- .byte 196,66,117,168,252 // vfmadd213ps %ymm12,%ymm1,%ymm15
+ .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
+ .byte 196,66,117,168,251 // vfmadd213ps %ymm11,%ymm1,%ymm15
.byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
.byte 196,193,116,194,202,1 // vcmpltps %ymm10,%ymm1,%ymm1
.byte 196,195,5,74,201,16 // vblendvps %ymm1,%ymm9,%ymm15,%ymm1
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
.byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
- .byte 196,66,109,168,220 // vfmadd213ps %ymm12,%ymm2,%ymm11
- .byte 196,66,53,168,222 // vfmadd213ps %ymm14,%ymm9,%ymm11
+ .byte 196,66,109,168,227 // vfmadd213ps %ymm11,%ymm2,%ymm12
+ .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
.byte 196,193,108,194,210,1 // vcmpltps %ymm10,%ymm2,%ymm2
- .byte 196,195,37,74,208,32 // vblendvps %ymm2,%ymm8,%ymm11,%ymm2
+ .byte 196,195,29,74,208,32 // vblendvps %ymm2,%ymm8,%ymm12,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8196,50 +8148,37 @@
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,192 // vrsqrtps %ymm0,%ymm8
- .byte 196,65,124,83,216 // vrcpps %ymm8,%ymm11
- .byte 196,65,124,82,224 // vrsqrtps %ymm8,%ymm12
- .byte 184,41,92,71,65 // mov $0x41475c29,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,232 // vmulps %ymm0,%ymm8,%ymm13
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 184,194,135,210,62 // mov $0x3ed287c2,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 184,206,111,48,63 // mov $0x3f306fce,%eax
- .byte 197,121,110,240 // vmovd %eax,%xmm14
- .byte 196,66,125,88,246 // vpbroadcastd %xmm14,%ymm14
- .byte 184,168,87,202,61 // mov $0x3dca57a8,%eax
- .byte 53,0,0,0,128 // xor $0x80000000,%eax
- .byte 197,121,110,248 // vmovd %eax,%xmm15
- .byte 196,66,125,88,255 // vpbroadcastd %xmm15,%ymm15
- .byte 196,66,13,168,223 // vfmadd213ps %ymm15,%ymm14,%ymm11
- .byte 196,66,45,184,220 // vfmadd231ps %ymm12,%ymm10,%ymm11
- .byte 196,65,52,93,219 // vminps %ymm11,%ymm9,%ymm11
- .byte 184,4,231,140,59 // mov $0x3b8ce704,%eax
- .byte 197,121,110,224 // vmovd %eax,%xmm12
- .byte 196,66,125,88,228 // vpbroadcastd %xmm12,%ymm12
- .byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
- .byte 196,195,37,74,197,0 // vblendvps %ymm0,%ymm13,%ymm11,%ymm0
- .byte 197,124,82,217 // vrsqrtps %ymm1,%ymm11
- .byte 196,65,124,83,235 // vrcpps %ymm11,%ymm13
- .byte 196,65,124,82,219 // vrsqrtps %ymm11,%ymm11
- .byte 196,66,13,168,239 // vfmadd213ps %ymm15,%ymm14,%ymm13
- .byte 196,66,45,184,235 // vfmadd231ps %ymm11,%ymm10,%ymm13
- .byte 197,60,89,217 // vmulps %ymm1,%ymm8,%ymm11
- .byte 196,65,52,93,237 // vminps %ymm13,%ymm9,%ymm13
- .byte 196,193,116,194,204,1 // vcmpltps %ymm12,%ymm1,%ymm1
- .byte 196,195,21,74,203,16 // vblendvps %ymm1,%ymm11,%ymm13,%ymm1
- .byte 197,124,82,218 // vrsqrtps %ymm2,%ymm11
- .byte 196,65,124,83,235 // vrcpps %ymm11,%ymm13
- .byte 196,66,13,168,239 // vfmadd213ps %ymm15,%ymm14,%ymm13
- .byte 196,65,124,82,219 // vrsqrtps %ymm11,%ymm11
- .byte 196,66,45,184,235 // vfmadd231ps %ymm11,%ymm10,%ymm13
- .byte 196,65,52,93,205 // vminps %ymm13,%ymm9,%ymm9
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
- .byte 196,193,108,194,212,1 // vcmpltps %ymm12,%ymm2,%ymm2
+ .byte 196,65,124,83,200 // vrcpps %ymm8,%ymm9
+ .byte 196,65,124,82,208 // vrsqrtps %ymm8,%ymm10
+ .byte 196,98,125,24,5,30,50,0,0 // vbroadcastss 0x321e(%rip),%ymm8 # 3db4 <_sk_callback_hsw+0x199>
+ .byte 196,65,124,89,216 // vmulps %ymm8,%ymm0,%ymm11
+ .byte 196,98,125,24,37,20,50,0,0 // vbroadcastss 0x3214(%rip),%ymm12 # 3db8 <_sk_callback_hsw+0x19d>
+ .byte 196,98,125,24,45,15,50,0,0 // vbroadcastss 0x320f(%rip),%ymm13 # 3dbc <_sk_callback_hsw+0x1a1>
+ .byte 196,66,21,168,204 // vfmadd213ps %ymm12,%ymm13,%ymm9
+ .byte 196,98,125,24,53,5,50,0,0 // vbroadcastss 0x3205(%rip),%ymm14 # 3dc0 <_sk_callback_hsw+0x1a5>
+ .byte 196,66,13,184,202 // vfmadd231ps %ymm10,%ymm14,%ymm9
+ .byte 196,98,125,24,21,251,49,0,0 // vbroadcastss 0x31fb(%rip),%ymm10 # 3dc4 <_sk_callback_hsw+0x1a9>
+ .byte 196,65,44,93,201 // vminps %ymm9,%ymm10,%ymm9
+ .byte 196,98,125,24,61,241,49,0,0 // vbroadcastss 0x31f1(%rip),%ymm15 # 3dc8 <_sk_callback_hsw+0x1ad>
+ .byte 196,193,124,194,199,1 // vcmpltps %ymm15,%ymm0,%ymm0
+ .byte 196,195,53,74,195,0 // vblendvps %ymm0,%ymm11,%ymm9,%ymm0
+ .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
+ .byte 196,65,124,83,217 // vrcpps %ymm9,%ymm11
+ .byte 196,65,124,82,201 // vrsqrtps %ymm9,%ymm9
+ .byte 196,66,21,168,220 // vfmadd213ps %ymm12,%ymm13,%ymm11
+ .byte 196,66,13,184,217 // vfmadd231ps %ymm9,%ymm14,%ymm11
+ .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
+ .byte 196,65,44,93,219 // vminps %ymm11,%ymm10,%ymm11
+ .byte 196,193,116,194,207,1 // vcmpltps %ymm15,%ymm1,%ymm1
+ .byte 196,195,37,74,201,16 // vblendvps %ymm1,%ymm9,%ymm11,%ymm1
+ .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9
+ .byte 196,65,124,83,217 // vrcpps %ymm9,%ymm11
+ .byte 196,66,21,168,220 // vfmadd213ps %ymm12,%ymm13,%ymm11
+ .byte 196,65,124,82,201 // vrsqrtps %ymm9,%ymm9
+ .byte 196,66,13,184,217 // vfmadd231ps %ymm9,%ymm14,%ymm11
+ .byte 196,65,44,93,203 // vminps %ymm11,%ymm10,%ymm9
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 196,193,108,194,215,1 // vcmpltps %ymm15,%ymm2,%ymm2
.byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8248,66 +8187,43 @@
.globl _sk_rgb_to_hsl_hsw
FUNCTION(_sk_rgb_to_hsl_hsw)
_sk_rgb_to_hsl_hsw:
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
- .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 197,252,40,227 // vmovaps %ymm3,%ymm4
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 65,184,171,170,42,62 // mov $0x3e2aaaab,%r8d
- .byte 184,0,0,192,64 // mov $0x40c00000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 65,185,0,0,0,64 // mov $0x40000000,%r9d
- .byte 184,0,0,128,64 // mov $0x40800000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 197,100,95,217 // vmaxps %ymm1,%ymm3,%ymm11
- .byte 197,36,95,218 // vmaxps %ymm2,%ymm11,%ymm11
- .byte 197,100,93,225 // vminps %ymm1,%ymm3,%ymm12
- .byte 197,28,93,226 // vminps %ymm2,%ymm12,%ymm12
- .byte 196,65,36,92,236 // vsubps %ymm12,%ymm11,%ymm13
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,60,94,197 // vdivps %ymm13,%ymm8,%ymm8
- .byte 197,116,194,242,1 // vcmpltps %ymm2,%ymm1,%ymm14
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 197,124,95,193 // vmaxps %ymm1,%ymm0,%ymm8
+ .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
+ .byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9
+ .byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9
+ .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
+ .byte 196,98,125,24,29,107,49,0,0 // vbroadcastss 0x316b(%rip),%ymm11 # 3dcc <_sk_callback_hsw+0x1b1>
+ .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
+ .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
+ .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
+ .byte 196,98,125,24,53,88,49,0,0 // vbroadcastss 0x3158(%rip),%ymm14 # 3dd0 <_sk_callback_hsw+0x1b5>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,67,5,74,201,224 // vblendvps %ymm14,%ymm9,%ymm15,%ymm9
- .byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
- .byte 196,66,61,168,241 // vfmadd213ps %ymm9,%ymm8,%ymm14
- .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0
- .byte 197,100,92,201 // vsubps %ymm1,%ymm3,%ymm9
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,66,61,168,202 // vfmadd213ps %ymm10,%ymm8,%ymm9
- .byte 196,193,121,110,209 // vmovd %r9d,%xmm2
- .byte 196,98,125,88,210 // vpbroadcastd %xmm2,%ymm10
- .byte 196,194,61,168,194 // vfmadd213ps %ymm10,%ymm8,%ymm0
- .byte 197,164,194,201,0 // vcmpeqps %ymm1,%ymm11,%ymm1
- .byte 196,227,53,74,192,16 // vblendvps %ymm1,%ymm0,%ymm9,%ymm0
- .byte 184,0,0,0,63 // mov $0x3f000000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 197,164,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm2
- .byte 196,195,125,74,198,32 // vblendvps %ymm2,%ymm14,%ymm0,%ymm0
- .byte 196,193,36,88,220 // vaddps %ymm12,%ymm11,%ymm3
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
- .byte 197,228,89,209 // vmulps %ymm1,%ymm3,%ymm2
- .byte 197,244,194,202,1 // vcmpltps %ymm2,%ymm1,%ymm1
- .byte 196,65,44,92,195 // vsubps %ymm11,%ymm10,%ymm8
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 196,195,101,74,200,16 // vblendvps %ymm1,%ymm8,%ymm3,%ymm1
- .byte 196,193,36,194,220,0 // vcmpeqps %ymm12,%ymm11,%ymm3
- .byte 197,148,94,201 // vdivps %ymm1,%ymm13,%ymm1
- .byte 196,195,125,74,199,48 // vblendvps %ymm3,%ymm15,%ymm0,%ymm0
- .byte 196,195,117,74,207,48 // vblendvps %ymm3,%ymm15,%ymm1,%ymm1
- .byte 196,193,121,110,216 // vmovd %r8d,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
+ .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
+ .byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
+ .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
+ .byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
+ .byte 196,98,125,24,53,63,49,0,0 // vbroadcastss 0x313f(%rip),%ymm14 # 3dd8 <_sk_callback_hsw+0x1bd>
+ .byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
+ .byte 196,98,125,24,53,45,49,0,0 // vbroadcastss 0x312d(%rip),%ymm14 # 3dd4 <_sk_callback_hsw+0x1b9>
+ .byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
+ .byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
+ .byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
+ .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
+ .byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
+ .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
+ .byte 196,98,125,24,29,16,49,0,0 // vbroadcastss 0x3110(%rip),%ymm11 # 3de0 <_sk_callback_hsw+0x1c5>
+ .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
+ .byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
+ .byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
+ .byte 196,65,28,92,225 // vsubps %ymm9,%ymm12,%ymm12
+ .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
+ .byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8
+ .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
+ .byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
+ .byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
+ .byte 196,98,125,24,5,211,48,0,0 // vbroadcastss 0x30d3(%rip),%ymm8 # 3ddc <_sk_callback_hsw+0x1c1>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 197,252,40,229 // vmovaps %ymm5,%ymm4
- .byte 197,252,40,238 // vmovaps %ymm6,%ymm5
- .byte 197,252,40,247 // vmovaps %ymm7,%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
HIDDEN _sk_hsl_to_rgb_hsw
@@ -8437,13 +8353,11 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,56 // jne 105a <_sk_scale_u8_hsw+0x48>
+ .byte 117,51 // jne f70 <_sk_scale_u8_hsw+0x43>
.byte 197,122,126,0 // vmovq (%rax),%xmm8
.byte 196,66,125,49,192 // vpmovzxbd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 196,98,125,24,13,144,46,0,0 // vbroadcastss 0x2e90(%rip),%ymm9 # 3de4 <_sk_callback_hsw+0x1c9>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -8461,9 +8375,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 1062 <_sk_scale_u8_hsw+0x50>
+ .byte 117,234 // jne f78 <_sk_scale_u8_hsw+0x4b>
.byte 196,65,249,110,193 // vmovq %r9,%xmm8
- .byte 235,167 // jmp 1026 <_sk_scale_u8_hsw+0x14>
+ .byte 235,172 // jmp f41 <_sk_scale_u8_hsw+0x14>
HIDDEN _sk_lerp_1_float_hsw
.globl _sk_lerp_1_float_hsw
@@ -8491,13 +8405,11 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,76 // jne 110a <_sk_lerp_u8_hsw+0x5c>
+ .byte 117,71 // jne 101b <_sk_lerp_u8_hsw+0x57>
.byte 197,122,126,0 // vmovq (%rax),%xmm8
.byte 196,66,125,49,192 // vpmovzxbd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 196,98,125,24,13,253,45,0,0 // vbroadcastss 0x2dfd(%rip),%ymm9 # 3de8 <_sk_callback_hsw+0x1cd>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -8519,9 +8431,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 1112 <_sk_lerp_u8_hsw+0x64>
+ .byte 117,234 // jne 1023 <_sk_lerp_u8_hsw+0x5f>
.byte 196,65,249,110,193 // vmovq %r9,%xmm8
- .byte 235,147 // jmp 10c2 <_sk_lerp_u8_hsw+0x14>
+ .byte 235,152 // jmp fd8 <_sk_lerp_u8_hsw+0x14>
HIDDEN _sk_lerp_565_hsw
.globl _sk_lerp_565_hsw
@@ -8530,49 +8442,41 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,167,0,0,0 // jne 11e4 <_sk_lerp_565_hsw+0xb5>
+ .byte 15,133,149,0,0,0 // jne 10e3 <_sk_lerp_565_hsw+0xa3>
.byte 196,193,122,111,28,122 // vmovdqu (%r10,%rdi,2),%xmm3
- .byte 196,98,125,51,203 // vpmovzxwd %xmm3,%ymm9
- .byte 196,98,125,88,5,39,47,0,0 // vpbroadcastd 0x2f27(%rip),%ymm8 # 4078 <_sk_callback_hsw+0x12e>
- .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
+ .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
+ .byte 196,98,125,88,5,138,45,0,0 // vpbroadcastd 0x2d8a(%rip),%ymm8 # 3dec <_sk_callback_hsw+0x1d1>
+ .byte 196,65,101,219,192 // vpand %ymm8,%ymm3,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,60,89,211 // vmulps %ymm3,%ymm8,%ymm10
- .byte 196,98,125,88,5,6,47,0,0 // vpbroadcastd 0x2f06(%rip),%ymm8 # 407c <_sk_callback_hsw+0x132>
- .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,60,89,219 // vmulps %ymm3,%ymm8,%ymm11
- .byte 196,98,125,88,5,229,46,0,0 // vpbroadcastd 0x2ee5(%rip),%ymm8 # 4080 <_sk_callback_hsw+0x136>
- .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 196,98,125,24,13,123,45,0,0 // vbroadcastss 0x2d7b(%rip),%ymm9 # 3df0 <_sk_callback_hsw+0x1d5>
+ .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
+ .byte 196,98,125,88,13,113,45,0,0 // vpbroadcastd 0x2d71(%rip),%ymm9 # 3df4 <_sk_callback_hsw+0x1d9>
+ .byte 196,65,101,219,201 // vpand %ymm9,%ymm3,%ymm9
+ .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
+ .byte 196,98,125,24,21,98,45,0,0 // vbroadcastss 0x2d62(%rip),%ymm10 # 3df8 <_sk_callback_hsw+0x1dd>
+ .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,88,21,88,45,0,0 // vpbroadcastd 0x2d58(%rip),%ymm10 # 3dfc <_sk_callback_hsw+0x1e1>
+ .byte 196,193,101,219,218 // vpand %ymm10,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,21,74,45,0,0 // vbroadcastss 0x2d4a(%rip),%ymm10 # 3e00 <_sk_callback_hsw+0x1e5>
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,45,168,196 // vfmadd213ps %ymm4,%ymm10,%ymm0
+ .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,37,168,205 // vfmadd213ps %ymm5,%ymm11,%ymm1
+ .byte 196,226,53,168,205 // vfmadd213ps %ymm5,%ymm9,%ymm1
.byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
.byte 196,226,101,168,214 // vfmadd213ps %ymm6,%ymm3,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,35,45,0,0 // vbroadcastss 0x2d23(%rip),%ymm3 # 3e04 <_sk_callback_hsw+0x1e9>
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,71,255,255,255 // ja 1143 <_sk_lerp_565_hsw+0x14>
+ .byte 15,135,89,255,255,255 // ja 1054 <_sk_lerp_565_hsw+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 1250 <_sk_lerp_565_hsw+0x121>
+ .byte 76,141,13,74,0,0,0 // lea 0x4a(%rip),%r9 # 1150 <_sk_lerp_565_hsw+0x110>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -8584,27 +8488,27 @@
.byte 196,193,97,196,92,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm3,%xmm3
.byte 196,193,97,196,92,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm3,%xmm3
.byte 196,193,97,196,28,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm3,%xmm3
- .byte 233,243,254,255,255 // jmpq 1143 <_sk_lerp_565_hsw+0x14>
- .byte 244 // hlt
+ .byte 233,5,255,255,255 // jmpq 1054 <_sk_lerp_565_hsw+0x14>
+ .byte 144 // nop
+ .byte 243,255 // repz (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 235,255 // jmp 1155 <_sk_lerp_565_hsw+0x115>
+ .byte 255 // (bad)
+ .byte 255,227 // jmpq *%rbx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 236 // in (%dx),%al
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,211 // callq *%rbx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
+ .byte 255,203 // dec %ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
+ .byte 191 // .byte 0xbf
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -8618,26 +8522,24 @@
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 117,109 // jne 12ee <_sk_load_tables_hsw+0x82>
+ .byte 117,105 // jne 11ea <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,25 // vmovdqu (%r9),%ymm3
- .byte 197,229,219,13,242,46,0,0 // vpand 0x2ef2(%rip),%ymm3,%ymm1 # 4180 <_sk_callback_hsw+0x236>
+ .byte 197,229,219,13,18,47,0,0 // vpand 0x2f12(%rip),%ymm3,%ymm1 # 40a0 <_sk_callback_hsw+0x485>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 72,139,72,8 // mov 0x8(%rax),%rcx
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
.byte 196,226,109,146,4,137 // vgatherdps %ymm2,(%rcx,%ymm1,4),%ymm0
- .byte 196,226,101,0,21,242,46,0,0 // vpshufb 0x2ef2(%rip),%ymm3,%ymm2 # 41a0 <_sk_callback_hsw+0x256>
+ .byte 196,226,101,0,21,18,47,0,0 // vpshufb 0x2f12(%rip),%ymm3,%ymm2 # 40c0 <_sk_callback_hsw+0x4a5>
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,12,145 // vgatherdps %ymm9,(%r9,%ymm2,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,250,46,0,0 // vpshufb 0x2efa(%rip),%ymm3,%ymm9 # 41c0 <_sk_callback_hsw+0x276>
+ .byte 196,98,101,0,13,26,47,0,0 // vpshufb 0x2f1a(%rip),%ymm3,%ymm9 # 40e0 <_sk_callback_hsw+0x4c5>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,42,44,0,0 // vbroadcastss 0x2c2a(%rip),%ymm8 # 3e08 <_sk_callback_hsw+0x1ed>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,137,193 // mov %r8,%rcx
.byte 255,224 // jmpq *%rax
@@ -8649,7 +8551,7 @@
.byte 196,193,249,110,194 // vmovq %r10,%xmm0
.byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0
.byte 196,194,125,140,25 // vpmaskmovd (%r9),%ymm0,%ymm3
- .byte 233,111,255,255,255 // jmpq 1286 <_sk_load_tables_hsw+0x1a>
+ .byte 233,115,255,255,255 // jmpq 1186 <_sk_load_tables_hsw+0x1a>
HIDDEN _sk_load_tables_u16_be_hsw
.globl _sk_load_tables_u16_be_hsw
@@ -8659,7 +8561,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,208,0,0,0 // jne 13fd <_sk_load_tables_u16_be_hsw+0xe6>
+ .byte 15,133,201,0,0,0 // jne 12f2 <_sk_load_tables_u16_be_hsw+0xdf>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -8671,11 +8573,11 @@
.byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
.byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
.byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
- .byte 197,113,105,235 // vpunpckhwd %xmm3,%xmm1,%xmm13
+ .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,185,109,208 // vpunpckhqdq %xmm0,%xmm8,%xmm2
- .byte 196,65,49,108,197 // vpunpcklqdq %xmm13,%xmm9,%xmm8
- .byte 197,121,111,21,129,47,0,0 // vmovdqa 0x2f81(%rip),%xmm10 # 4300 <_sk_callback_hsw+0x3b6>
+ .byte 197,49,108,195 // vpunpcklqdq %xmm3,%xmm9,%xmm8
+ .byte 197,121,111,21,166,47,0,0 // vmovdqa 0x2fa6(%rip),%xmm10 # 4220 <_sk_callback_hsw+0x605>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
@@ -8691,44 +8593,42 @@
.byte 196,193,57,219,210 // vpand %xmm10,%xmm8,%xmm2
.byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8
.byte 196,162,37,146,20,128 // vgatherdps %ymm11,(%rax,%ymm8,4),%ymm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,98,125,88,195 // vpbroadcastd %xmm3,%ymm8
- .byte 196,193,49,109,221 // vpunpckhqdq %xmm13,%xmm9,%xmm3
- .byte 197,177,113,243,8 // vpsllw $0x8,%xmm3,%xmm9
+ .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3
+ .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
.byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,177,235,219 // vpor %xmm3,%xmm9,%xmm3
+ .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,35,43,0,0 // vbroadcastss 0x2b23(%rip),%ymm8 # 3e0c <_sk_callback_hsw+0x1f1>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 1463 <_sk_load_tables_u16_be_hsw+0x14c>
+ .byte 116,85 // je 1358 <_sk_load_tables_u16_be_hsw+0x145>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 1463 <_sk_load_tables_u16_be_hsw+0x14c>
+ .byte 114,72 // jb 1358 <_sk_load_tables_u16_be_hsw+0x145>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 1470 <_sk_load_tables_u16_be_hsw+0x159>
+ .byte 116,72 // je 1365 <_sk_load_tables_u16_be_hsw+0x152>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 1470 <_sk_load_tables_u16_be_hsw+0x159>
+ .byte 114,59 // jb 1365 <_sk_load_tables_u16_be_hsw+0x152>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,2,255,255,255 // je 1348 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,9,255,255,255 // je 1244 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,241,254,255,255 // jb 1348 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,248,254,255,255 // jb 1244 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,229,254,255,255 // jmpq 1348 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,236,254,255,255 // jmpq 1244 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,216,254,255,255 // jmpq 1348 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,223,254,255,255 // jmpq 1244 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,207,254,255,255 // jmpq 1348 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,214,254,255,255 // jmpq 1244 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -8738,7 +8638,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,127 // lea (%rdi,%rdi,2),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,198,0,0,0 // jne 1551 <_sk_load_tables_rgb_u16_be_hsw+0xd8>
+ .byte 15,133,193,0,0,0 // jne 1441 <_sk_load_tables_rgb_u16_be_hsw+0xd3>
.byte 196,129,122,111,4,72 // vmovdqu (%r8,%r9,2),%xmm0
.byte 196,129,122,111,84,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm2
.byte 196,129,122,111,76,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm1
@@ -8759,7 +8659,7 @@
.byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3
.byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2
.byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8
- .byte 197,121,111,13,27,46,0,0 // vmovdqa 0x2e1b(%rip),%xmm9 # 4310 <_sk_callback_hsw+0x3c6>
+ .byte 197,121,111,13,70,46,0,0 // vmovdqa 0x2e46(%rip),%xmm9 # 4230 <_sk_callback_hsw+0x615>
.byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -8775,44 +8675,42 @@
.byte 196,193,57,219,209 // vpand %xmm9,%xmm8,%xmm2
.byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8
.byte 196,162,101,146,20,128 // vgatherdps %ymm3,(%rax,%ymm8,4),%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,209,41,0,0 // vbroadcastss 0x29d1(%rip),%ymm3 # 3e10 <_sk_callback_hsw+0x1f5>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,129,121,196,68,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 156a <_sk_load_tables_rgb_u16_be_hsw+0xf1>
- .byte 233,85,255,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,5 // jne 145a <_sk_load_tables_rgb_u16_be_hsw+0xec>
+ .byte 233,90,255,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,72,6 // vmovd 0x6(%r8,%r9,2),%xmm1
.byte 196,1,113,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 1599 <_sk_load_tables_rgb_u16_be_hsw+0x120>
+ .byte 114,26 // jb 1489 <_sk_load_tables_rgb_u16_be_hsw+0x11b>
.byte 196,129,121,110,76,72,12 // vmovd 0xc(%r8,%r9,2),%xmm1
.byte 196,129,113,196,84,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 159e <_sk_load_tables_rgb_u16_be_hsw+0x125>
- .byte 233,38,255,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,33,255,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 148e <_sk_load_tables_rgb_u16_be_hsw+0x120>
+ .byte 233,43,255,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,38,255,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,72,18 // vmovd 0x12(%r8,%r9,2),%xmm1
.byte 196,1,113,196,76,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 15cd <_sk_load_tables_rgb_u16_be_hsw+0x154>
+ .byte 114,26 // jb 14bd <_sk_load_tables_rgb_u16_be_hsw+0x14f>
.byte 196,129,121,110,76,72,24 // vmovd 0x18(%r8,%r9,2),%xmm1
.byte 196,129,113,196,76,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 15d2 <_sk_load_tables_rgb_u16_be_hsw+0x159>
- .byte 233,242,254,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,237,254,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 14c2 <_sk_load_tables_rgb_u16_be_hsw+0x154>
+ .byte 233,247,254,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,242,254,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,92,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm3
.byte 196,1,97,196,92,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 15fb <_sk_load_tables_rgb_u16_be_hsw+0x182>
+ .byte 114,20 // jb 14eb <_sk_load_tables_rgb_u16_be_hsw+0x17d>
.byte 196,129,121,110,92,72,36 // vmovd 0x24(%r8,%r9,2),%xmm3
.byte 196,129,97,196,92,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 233,196,254,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,191,254,255,255 // jmpq 14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,201,254,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,196,254,255,255 // jmpq 13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
@@ -8825,10 +8723,8 @@
.byte 65,84 // push %r12
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,127,67 // mov $0x437f0000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,15,41,0,0 // vbroadcastss 0x290f(%rip),%ymm8 # 3e14 <_sk_callback_hsw+0x1f9>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 68,137,197 // mov %r8d,%ebp
@@ -8863,12 +8759,10 @@
.byte 67,15,182,44,33 // movzbl (%r9,%r12,1),%ebp
.byte 196,227,121,32,197,7 // vpinsrb $0x7,%ebp,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 189,129,128,128,59 // mov $0x3b808081,%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,98,125,88,200 // vpbroadcastd %xmm0,%ymm9
- .byte 196,193,44,89,193 // vmulps %ymm9,%ymm10,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,96,40,0,0 // vbroadcastss 0x2860(%rip),%ymm9 # 3e18 <_sk_callback_hsw+0x1fd>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,227,249,22,205,1 // vpextrq $0x1,%xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
@@ -8899,9 +8793,9 @@
.byte 196,227,113,32,205,7 // vpinsrb $0x7,%ebp,%xmm1,%xmm1
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,227,249,22,213,1 // vpextrq $0x1,%xmm2,%rbp
.byte 65,137,233 // mov %ebp,%r9d
@@ -8932,9 +8826,9 @@
.byte 196,227,105,32,213,7 // vpinsrb $0x7,%ebp,%xmm2,%xmm2
.byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,227,249,22,221,1 // vpextrq $0x1,%xmm3,%rbp
.byte 65,137,232 // mov %ebp,%r8d
@@ -8965,7 +8859,7 @@
.byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3
.byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
+ .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -9026,11 +8920,9 @@
.byte 67,15,182,44,33 // movzbl (%r9,%r12,1),%ebp
.byte 196,227,121,32,197,7 // vpinsrb $0x7,%ebp,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 189,129,128,128,59 // mov $0x3b808081,%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,98,125,88,200 // vpbroadcastd %xmm0,%ymm9
- .byte 196,193,44,89,193 // vmulps %ymm9,%ymm10,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,153,37,0,0 // vbroadcastss 0x2599(%rip),%ymm9 # 3e1c <_sk_callback_hsw+0x201>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,227,249,22,205,1 // vpextrq $0x1,%xmm1,%rbp
@@ -9062,7 +8954,7 @@
.byte 196,227,113,32,205,7 // vpinsrb $0x7,%ebp,%xmm1,%xmm1
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 72,139,64,16 // mov 0x10(%rax),%rax
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -9095,7 +8987,7 @@
.byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2
.byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -9192,44 +9084,42 @@
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,152,36,0,0 // vbroadcastss 0x2498(%rip),%ymm12 # 4084 <_sk_callback_hsw+0x13a>
- .byte 196,98,125,24,45,147,36,0,0 // vbroadcastss 0x2493(%rip),%ymm13 # 4088 <_sk_callback_hsw+0x13e>
+ .byte 196,98,125,24,37,76,35,0,0 // vbroadcastss 0x234c(%rip),%ymm12 # 3e20 <_sk_callback_hsw+0x205>
+ .byte 196,98,125,24,45,71,35,0,0 // vbroadcastss 0x2347(%rip),%ymm13 # 3e24 <_sk_callback_hsw+0x209>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,137,36,0,0 // vbroadcastss 0x2489(%rip),%ymm13 # 408c <_sk_callback_hsw+0x142>
+ .byte 196,98,125,24,45,61,35,0,0 // vbroadcastss 0x233d(%rip),%ymm13 # 3e28 <_sk_callback_hsw+0x20d>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,127,36,0,0 // vbroadcastss 0x247f(%rip),%ymm13 # 4090 <_sk_callback_hsw+0x146>
+ .byte 196,98,125,24,45,51,35,0,0 // vbroadcastss 0x2333(%rip),%ymm13 # 3e2c <_sk_callback_hsw+0x211>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,117,36,0,0 // vbroadcastss 0x2475(%rip),%ymm11 # 4094 <_sk_callback_hsw+0x14a>
+ .byte 196,98,125,24,29,41,35,0,0 // vbroadcastss 0x2329(%rip),%ymm11 # 3e30 <_sk_callback_hsw+0x215>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,107,36,0,0 // vbroadcastss 0x246b(%rip),%ymm12 # 4098 <_sk_callback_hsw+0x14e>
+ .byte 196,98,125,24,37,31,35,0,0 // vbroadcastss 0x231f(%rip),%ymm12 # 3e34 <_sk_callback_hsw+0x219>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,97,36,0,0 // vbroadcastss 0x2461(%rip),%ymm12 # 409c <_sk_callback_hsw+0x152>
+ .byte 196,98,125,24,37,21,35,0,0 // vbroadcastss 0x2315(%rip),%ymm12 # 3e38 <_sk_callback_hsw+0x21d>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,66,36,0,0 // vbroadcastss 0x2442(%rip),%ymm11 # 40a0 <_sk_callback_hsw+0x156>
+ .byte 196,98,125,24,29,246,34,0,0 // vbroadcastss 0x22f6(%rip),%ymm11 # 3e3c <_sk_callback_hsw+0x221>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,56,36,0,0 // vbroadcastss 0x2438(%rip),%ymm11 # 40a4 <_sk_callback_hsw+0x15a>
+ .byte 196,98,125,24,29,236,34,0,0 // vbroadcastss 0x22ec(%rip),%ymm11 # 3e40 <_sk_callback_hsw+0x225>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,46,36,0,0 // vbroadcastss 0x242e(%rip),%ymm0 # 40a8 <_sk_callback_hsw+0x15e>
+ .byte 196,226,125,24,5,226,34,0,0 // vbroadcastss 0x22e2(%rip),%ymm0 # 3e44 <_sk_callback_hsw+0x229>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,36,36,0,0 // vbroadcastss 0x2424(%rip),%ymm10 # 40ac <_sk_callback_hsw+0x162>
+ .byte 196,98,125,24,21,216,34,0,0 // vbroadcastss 0x22d8(%rip),%ymm10 # 3e48 <_sk_callback_hsw+0x22d>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,23,36,0,0 // vbroadcastss 0x2417(%rip),%ymm10 # 40b0 <_sk_callback_hsw+0x166>
+ .byte 196,98,125,24,21,203,34,0,0 // vbroadcastss 0x22cb(%rip),%ymm10 # 3e4c <_sk_callback_hsw+0x231>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 197,188,93,192 // vminps %ymm0,%ymm8,%ymm0
+ .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,5,162,34,0,0 // vbroadcastss 0x22a2(%rip),%ymm8 # 3e50 <_sk_callback_hsw+0x235>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9248,44 +9138,42 @@
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,158,35,0,0 // vbroadcastss 0x239e(%rip),%ymm12 # 40b4 <_sk_callback_hsw+0x16a>
- .byte 196,98,125,24,45,153,35,0,0 // vbroadcastss 0x2399(%rip),%ymm13 # 40b8 <_sk_callback_hsw+0x16e>
+ .byte 196,98,125,24,37,90,34,0,0 // vbroadcastss 0x225a(%rip),%ymm12 # 3e54 <_sk_callback_hsw+0x239>
+ .byte 196,98,125,24,45,85,34,0,0 // vbroadcastss 0x2255(%rip),%ymm13 # 3e58 <_sk_callback_hsw+0x23d>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,143,35,0,0 // vbroadcastss 0x238f(%rip),%ymm13 # 40bc <_sk_callback_hsw+0x172>
+ .byte 196,98,125,24,45,75,34,0,0 // vbroadcastss 0x224b(%rip),%ymm13 # 3e5c <_sk_callback_hsw+0x241>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,133,35,0,0 // vbroadcastss 0x2385(%rip),%ymm13 # 40c0 <_sk_callback_hsw+0x176>
+ .byte 196,98,125,24,45,65,34,0,0 // vbroadcastss 0x2241(%rip),%ymm13 # 3e60 <_sk_callback_hsw+0x245>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,123,35,0,0 // vbroadcastss 0x237b(%rip),%ymm11 # 40c4 <_sk_callback_hsw+0x17a>
+ .byte 196,98,125,24,29,55,34,0,0 // vbroadcastss 0x2237(%rip),%ymm11 # 3e64 <_sk_callback_hsw+0x249>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,113,35,0,0 // vbroadcastss 0x2371(%rip),%ymm12 # 40c8 <_sk_callback_hsw+0x17e>
+ .byte 196,98,125,24,37,45,34,0,0 // vbroadcastss 0x222d(%rip),%ymm12 # 3e68 <_sk_callback_hsw+0x24d>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,103,35,0,0 // vbroadcastss 0x2367(%rip),%ymm12 # 40cc <_sk_callback_hsw+0x182>
+ .byte 196,98,125,24,37,35,34,0,0 // vbroadcastss 0x2223(%rip),%ymm12 # 3e6c <_sk_callback_hsw+0x251>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,72,35,0,0 // vbroadcastss 0x2348(%rip),%ymm11 # 40d0 <_sk_callback_hsw+0x186>
+ .byte 196,98,125,24,29,4,34,0,0 // vbroadcastss 0x2204(%rip),%ymm11 # 3e70 <_sk_callback_hsw+0x255>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,62,35,0,0 // vbroadcastss 0x233e(%rip),%ymm11 # 40d4 <_sk_callback_hsw+0x18a>
+ .byte 196,98,125,24,29,250,33,0,0 // vbroadcastss 0x21fa(%rip),%ymm11 # 3e74 <_sk_callback_hsw+0x259>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,52,35,0,0 // vbroadcastss 0x2334(%rip),%ymm1 # 40d8 <_sk_callback_hsw+0x18e>
+ .byte 196,226,125,24,13,240,33,0,0 // vbroadcastss 0x21f0(%rip),%ymm1 # 3e78 <_sk_callback_hsw+0x25d>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,42,35,0,0 // vbroadcastss 0x232a(%rip),%ymm10 # 40dc <_sk_callback_hsw+0x192>
+ .byte 196,98,125,24,21,230,33,0,0 // vbroadcastss 0x21e6(%rip),%ymm10 # 3e7c <_sk_callback_hsw+0x261>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,29,35,0,0 // vbroadcastss 0x231d(%rip),%ymm10 # 40e0 <_sk_callback_hsw+0x196>
+ .byte 196,98,125,24,21,217,33,0,0 // vbroadcastss 0x21d9(%rip),%ymm10 # 3e80 <_sk_callback_hsw+0x265>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
- .byte 197,188,93,201 // vminps %ymm1,%ymm8,%ymm1
+ .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
+ .byte 196,98,125,24,5,176,33,0,0 // vbroadcastss 0x21b0(%rip),%ymm8 # 3e84 <_sk_callback_hsw+0x269>
+ .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9304,44 +9192,42 @@
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,164,34,0,0 // vbroadcastss 0x22a4(%rip),%ymm12 # 40e4 <_sk_callback_hsw+0x19a>
- .byte 196,98,125,24,45,159,34,0,0 // vbroadcastss 0x229f(%rip),%ymm13 # 40e8 <_sk_callback_hsw+0x19e>
+ .byte 196,98,125,24,37,104,33,0,0 // vbroadcastss 0x2168(%rip),%ymm12 # 3e88 <_sk_callback_hsw+0x26d>
+ .byte 196,98,125,24,45,99,33,0,0 // vbroadcastss 0x2163(%rip),%ymm13 # 3e8c <_sk_callback_hsw+0x271>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,149,34,0,0 // vbroadcastss 0x2295(%rip),%ymm13 # 40ec <_sk_callback_hsw+0x1a2>
+ .byte 196,98,125,24,45,89,33,0,0 // vbroadcastss 0x2159(%rip),%ymm13 # 3e90 <_sk_callback_hsw+0x275>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,139,34,0,0 // vbroadcastss 0x228b(%rip),%ymm13 # 40f0 <_sk_callback_hsw+0x1a6>
+ .byte 196,98,125,24,45,79,33,0,0 // vbroadcastss 0x214f(%rip),%ymm13 # 3e94 <_sk_callback_hsw+0x279>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,129,34,0,0 // vbroadcastss 0x2281(%rip),%ymm11 # 40f4 <_sk_callback_hsw+0x1aa>
+ .byte 196,98,125,24,29,69,33,0,0 // vbroadcastss 0x2145(%rip),%ymm11 # 3e98 <_sk_callback_hsw+0x27d>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,119,34,0,0 // vbroadcastss 0x2277(%rip),%ymm12 # 40f8 <_sk_callback_hsw+0x1ae>
+ .byte 196,98,125,24,37,59,33,0,0 // vbroadcastss 0x213b(%rip),%ymm12 # 3e9c <_sk_callback_hsw+0x281>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,109,34,0,0 // vbroadcastss 0x226d(%rip),%ymm12 # 40fc <_sk_callback_hsw+0x1b2>
+ .byte 196,98,125,24,37,49,33,0,0 // vbroadcastss 0x2131(%rip),%ymm12 # 3ea0 <_sk_callback_hsw+0x285>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,78,34,0,0 // vbroadcastss 0x224e(%rip),%ymm11 # 4100 <_sk_callback_hsw+0x1b6>
+ .byte 196,98,125,24,29,18,33,0,0 // vbroadcastss 0x2112(%rip),%ymm11 # 3ea4 <_sk_callback_hsw+0x289>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,68,34,0,0 // vbroadcastss 0x2244(%rip),%ymm11 # 4104 <_sk_callback_hsw+0x1ba>
+ .byte 196,98,125,24,29,8,33,0,0 // vbroadcastss 0x2108(%rip),%ymm11 # 3ea8 <_sk_callback_hsw+0x28d>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,58,34,0,0 // vbroadcastss 0x223a(%rip),%ymm2 # 4108 <_sk_callback_hsw+0x1be>
+ .byte 196,226,125,24,21,254,32,0,0 // vbroadcastss 0x20fe(%rip),%ymm2 # 3eac <_sk_callback_hsw+0x291>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,48,34,0,0 // vbroadcastss 0x2230(%rip),%ymm10 # 410c <_sk_callback_hsw+0x1c2>
+ .byte 196,98,125,24,21,244,32,0,0 // vbroadcastss 0x20f4(%rip),%ymm10 # 3eb0 <_sk_callback_hsw+0x295>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,35,34,0,0 // vbroadcastss 0x2223(%rip),%ymm10 # 4110 <_sk_callback_hsw+0x1c6>
+ .byte 196,98,125,24,21,231,32,0,0 // vbroadcastss 0x20e7(%rip),%ymm10 # 3eb4 <_sk_callback_hsw+0x299>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,108,95,192 // vmaxps %ymm8,%ymm2,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,188,93,210 // vminps %ymm2,%ymm8,%ymm2
+ .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,24,5,190,32,0,0 // vbroadcastss 0x20be(%rip),%ymm8 # 3eb8 <_sk_callback_hsw+0x29d>
+ .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9360,44 +9246,42 @@
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,170,33,0,0 // vbroadcastss 0x21aa(%rip),%ymm12 # 4114 <_sk_callback_hsw+0x1ca>
- .byte 196,98,125,24,45,165,33,0,0 // vbroadcastss 0x21a5(%rip),%ymm13 # 4118 <_sk_callback_hsw+0x1ce>
+ .byte 196,98,125,24,37,118,32,0,0 // vbroadcastss 0x2076(%rip),%ymm12 # 3ebc <_sk_callback_hsw+0x2a1>
+ .byte 196,98,125,24,45,113,32,0,0 // vbroadcastss 0x2071(%rip),%ymm13 # 3ec0 <_sk_callback_hsw+0x2a5>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,155,33,0,0 // vbroadcastss 0x219b(%rip),%ymm13 # 411c <_sk_callback_hsw+0x1d2>
+ .byte 196,98,125,24,45,103,32,0,0 // vbroadcastss 0x2067(%rip),%ymm13 # 3ec4 <_sk_callback_hsw+0x2a9>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,145,33,0,0 // vbroadcastss 0x2191(%rip),%ymm13 # 4120 <_sk_callback_hsw+0x1d6>
+ .byte 196,98,125,24,45,93,32,0,0 // vbroadcastss 0x205d(%rip),%ymm13 # 3ec8 <_sk_callback_hsw+0x2ad>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,135,33,0,0 // vbroadcastss 0x2187(%rip),%ymm11 # 4124 <_sk_callback_hsw+0x1da>
+ .byte 196,98,125,24,29,83,32,0,0 // vbroadcastss 0x2053(%rip),%ymm11 # 3ecc <_sk_callback_hsw+0x2b1>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,125,33,0,0 // vbroadcastss 0x217d(%rip),%ymm12 # 4128 <_sk_callback_hsw+0x1de>
+ .byte 196,98,125,24,37,73,32,0,0 // vbroadcastss 0x2049(%rip),%ymm12 # 3ed0 <_sk_callback_hsw+0x2b5>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,115,33,0,0 // vbroadcastss 0x2173(%rip),%ymm12 # 412c <_sk_callback_hsw+0x1e2>
+ .byte 196,98,125,24,37,63,32,0,0 // vbroadcastss 0x203f(%rip),%ymm12 # 3ed4 <_sk_callback_hsw+0x2b9>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,84,33,0,0 // vbroadcastss 0x2154(%rip),%ymm11 # 4130 <_sk_callback_hsw+0x1e6>
+ .byte 196,98,125,24,29,32,32,0,0 // vbroadcastss 0x2020(%rip),%ymm11 # 3ed8 <_sk_callback_hsw+0x2bd>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,74,33,0,0 // vbroadcastss 0x214a(%rip),%ymm11 # 4134 <_sk_callback_hsw+0x1ea>
+ .byte 196,98,125,24,29,22,32,0,0 // vbroadcastss 0x2016(%rip),%ymm11 # 3edc <_sk_callback_hsw+0x2c1>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,64,33,0,0 // vbroadcastss 0x2140(%rip),%ymm3 # 4138 <_sk_callback_hsw+0x1ee>
+ .byte 196,226,125,24,29,12,32,0,0 // vbroadcastss 0x200c(%rip),%ymm3 # 3ee0 <_sk_callback_hsw+0x2c5>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,54,33,0,0 // vbroadcastss 0x2136(%rip),%ymm10 # 413c <_sk_callback_hsw+0x1f2>
+ .byte 196,98,125,24,21,2,32,0,0 // vbroadcastss 0x2002(%rip),%ymm10 # 3ee4 <_sk_callback_hsw+0x2c9>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,41,33,0,0 // vbroadcastss 0x2129(%rip),%ymm10 # 4140 <_sk_callback_hsw+0x1f6>
+ .byte 196,98,125,24,21,245,31,0,0 // vbroadcastss 0x1ff5(%rip),%ymm10 # 3ee8 <_sk_callback_hsw+0x2cd>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,100,95,192 // vmaxps %ymm8,%ymm3,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,188,93,219 // vminps %ymm3,%ymm8,%ymm3
+ .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
+ .byte 196,98,125,24,5,204,31,0,0 // vbroadcastss 0x1fcc(%rip),%ymm8 # 3eec <_sk_callback_hsw+0x2d1>
+ .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9405,68 +9289,44 @@
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 184,0,0,200,66 // mov $0x42c80000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 184,0,0,0,67 // mov $0x43000000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,194,53,170,202 // vfmsub213ps %ymm10,%ymm9,%ymm1
- .byte 196,194,53,170,210 // vfmsub213ps %ymm10,%ymm9,%ymm2
- .byte 184,0,0,128,65 // mov $0x41800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 196,66,125,168,193 // vfmadd213ps %ymm9,%ymm0,%ymm8
- .byte 184,203,61,13,60 // mov $0x3c0d3dcb,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 184,111,18,3,59 // mov $0x3b03126f,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 196,194,117,168,192 // vfmadd213ps %ymm8,%ymm1,%ymm0
- .byte 184,10,215,163,59 // mov $0x3ba3d70a,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,201 // vpbroadcastd %xmm1,%ymm9
- .byte 196,66,109,172,200 // vfnmadd213ps %ymm8,%ymm2,%ymm9
- .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
- .byte 197,124,89,217 // vmulps %ymm1,%ymm0,%ymm11
- .byte 184,194,24,17,60 // mov $0x3c1118c2,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 196,65,108,194,211,1 // vcmpltps %ymm11,%ymm2,%ymm10
- .byte 184,203,61,13,62 // mov $0x3e0d3dcb,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,225 // vpbroadcastd %xmm1,%ymm12
- .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0
- .byte 184,80,128,3,62 // mov $0x3e038050,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,233 // vpbroadcastd %xmm1,%ymm13
- .byte 196,193,124,89,197 // vmulps %ymm13,%ymm0,%ymm0
- .byte 196,67,125,74,219,160 // vblendvps %ymm10,%ymm11,%ymm0,%ymm11
+ .byte 196,98,125,24,5,190,31,0,0 // vbroadcastss 0x1fbe(%rip),%ymm8 # 3ef0 <_sk_callback_hsw+0x2d5>
+ .byte 196,98,125,24,13,185,31,0,0 // vbroadcastss 0x1fb9(%rip),%ymm9 # 3ef4 <_sk_callback_hsw+0x2d9>
+ .byte 196,98,125,24,21,180,31,0,0 // vbroadcastss 0x1fb4(%rip),%ymm10 # 3ef8 <_sk_callback_hsw+0x2dd>
+ .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
+ .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
+ .byte 196,98,125,24,13,165,31,0,0 // vbroadcastss 0x1fa5(%rip),%ymm9 # 3efc <_sk_callback_hsw+0x2e1>
+ .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
+ .byte 196,226,125,24,5,155,31,0,0 // vbroadcastss 0x1f9b(%rip),%ymm0 # 3f00 <_sk_callback_hsw+0x2e5>
+ .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
+ .byte 196,98,125,24,5,146,31,0,0 // vbroadcastss 0x1f92(%rip),%ymm8 # 3f04 <_sk_callback_hsw+0x2e9>
+ .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
+ .byte 196,98,125,24,13,136,31,0,0 // vbroadcastss 0x1f88(%rip),%ymm9 # 3f08 <_sk_callback_hsw+0x2ed>
+ .byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 196,226,125,24,21,117,31,0,0 // vbroadcastss 0x1f75(%rip),%ymm2 # 3f0c <_sk_callback_hsw+0x2f1>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 196,65,60,89,197 // vmulps %ymm13,%ymm8,%ymm8
- .byte 196,227,61,74,201,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm1
- .byte 196,65,52,89,193 // vmulps %ymm9,%ymm9,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,193,108,194,208,1 // vcmpltps %ymm8,%ymm2,%ymm2
- .byte 196,65,52,92,204 // vsubps %ymm12,%ymm9,%ymm9
- .byte 196,65,52,89,205 // vmulps %ymm13,%ymm9,%ymm9
- .byte 196,67,53,74,192,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm8
- .byte 184,31,215,118,63 // mov $0x3f76d71f,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 184,246,64,83,63 // mov $0x3f5340f6,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,29,107,31,0,0 // vbroadcastss 0x1f6b(%rip),%ymm11 # 3f10 <_sk_callback_hsw+0x2f5>
+ .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,37,97,31,0,0 // vbroadcastss 0x1f61(%rip),%ymm12 # 3f14 <_sk_callback_hsw+0x2f9>
+ .byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
+ .byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
+ .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
+ .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
+ .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
+ .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
+ .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
+ .byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
+ .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
+ .byte 197,236,194,208,1 // vcmpltps %ymm0,%ymm2,%ymm2
+ .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
+ .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
+ .byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
+ .byte 196,226,125,24,5,22,31,0,0 // vbroadcastss 0x1f16(%rip),%ymm0 # 3f18 <_sk_callback_hsw+0x2fd>
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,13,31,0,0 // vbroadcastss 0x1f0d(%rip),%ymm8 # 3f1c <_sk_callback_hsw+0x301>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9479,13 +9339,11 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,50 // jne 21c0 <_sk_load_a8_hsw+0x42>
+ .byte 117,45 // jne 2055 <_sk_load_a8_hsw+0x3d>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,226,30,0,0 // vbroadcastss 0x1ee2(%rip),%ymm1 # 3f20 <_sk_callback_hsw+0x305>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -9502,9 +9360,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 21c8 <_sk_load_a8_hsw+0x4a>
+ .byte 117,234 // jne 205d <_sk_load_a8_hsw+0x45>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,173 // jmp 2192 <_sk_load_a8_hsw+0x14>
+ .byte 235,178 // jmp 202c <_sk_load_a8_hsw+0x14>
HIDDEN _sk_gather_a8_hsw
.globl _sk_gather_a8_hsw
@@ -9550,9 +9408,7 @@
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,237,29,0,0 // vbroadcastss 0x1ded(%rip),%ymm1 # 3f24 <_sk_callback_hsw+0x309>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -9569,39 +9425,37 @@
FUNCTION(_sk_store_a8_hsw)
_sk_store_a8_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,200,29,0,0 // vbroadcastss 0x1dc8(%rip),%ymm8 # 3f28 <_sk_callback_hsw+0x30d>
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 22fd <_sk_store_a8_hsw+0x3b>
- .byte 196,65,123,17,4,57 // vmovsd %xmm8,(%r9,%rdi,1)
+ .byte 117,10 // jne 2189 <_sk_store_a8_hsw+0x37>
+ .byte 196,65,123,17,4,58 // vmovsd %xmm8,(%r10,%rdi,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 22f9 <_sk_store_a8_hsw+0x37>
+ .byte 119,236 // ja 2185 <_sk_store_a8_hsw+0x33>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,67,0,0,0 // lea 0x43(%rip),%r8 # 2360 <_sk_store_a8_hsw+0x9e>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,67,0,0,0 // lea 0x43(%rip),%r9 # 21ec <_sk_store_a8_hsw+0x9a>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,68,57,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,3,6 // vpextrb $0x6,%xmm8,0x3(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,1,2 // vpextrb $0x2,%xmm8,0x1(%r9,%rdi,1)
- .byte 196,67,121,20,4,57,0 // vpextrb $0x0,%xmm8,(%r9,%rdi,1)
- .byte 235,154 // jmp 22f9 <_sk_store_a8_hsw+0x37>
+ .byte 196,67,121,20,68,58,6,12 // vpextrb $0xc,%xmm8,0x6(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,5,10 // vpextrb $0xa,%xmm8,0x5(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,4,8 // vpextrb $0x8,%xmm8,0x4(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,3,6 // vpextrb $0x6,%xmm8,0x3(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,2,4 // vpextrb $0x4,%xmm8,0x2(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,1,2 // vpextrb $0x2,%xmm8,0x1(%r10,%rdi,1)
+ .byte 196,67,121,20,4,58,0 // vpextrb $0x0,%xmm8,(%r10,%rdi,1)
+ .byte 235,154 // jmp 2185 <_sk_store_a8_hsw+0x33>
.byte 144 // nop
.byte 246,255 // idiv %bh
.byte 255 // (bad)
@@ -9635,18 +9489,14 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,60 // jne 23c8 <_sk_load_g8_hsw+0x4c>
+ .byte 117,50 // jne 224a <_sk_load_g8_hsw+0x42>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,254,28,0,0 // vbroadcastss 0x1cfe(%rip),%ymm1 # 3f2c <_sk_callback_hsw+0x311>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,217 // vpbroadcastd %xmm1,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,243,28,0,0 // vbroadcastss 0x1cf3(%rip),%ymm3 # 3f30 <_sk_callback_hsw+0x315>
.byte 76,137,193 // mov %r8,%rcx
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -9660,9 +9510,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 23d0 <_sk_load_g8_hsw+0x54>
+ .byte 117,234 // jne 2252 <_sk_load_g8_hsw+0x4a>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,163 // jmp 2390 <_sk_load_g8_hsw+0x14>
+ .byte 235,173 // jmp 221c <_sk_load_g8_hsw+0x14>
HIDDEN _sk_gather_g8_hsw
.globl _sk_gather_g8_hsw
@@ -9708,14 +9558,10 @@
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,8,28,0,0 // vbroadcastss 0x1c08(%rip),%ymm1 # 3f34 <_sk_callback_hsw+0x319>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,217 // vpbroadcastd %xmm1,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,253,27,0,0 // vbroadcastss 0x1bfd(%rip),%ymm3 # 3f38 <_sk_callback_hsw+0x31d>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -9731,9 +9577,9 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 24e3 <_sk_gather_i8_hsw+0xf>
+ .byte 116,5 // je 235b <_sk_gather_i8_hsw+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 24e5 <_sk_gather_i8_hsw+0x11>
+ .byte 235,2 // jmp 235d <_sk_gather_i8_hsw+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,87 // push %r15
.byte 65,86 // push %r14
@@ -9771,16 +9617,14 @@
.byte 73,139,64,8 // mov 0x8(%r8),%rax
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,226,117,144,28,128 // vpgatherdd %ymm1,(%rax,%ymm0,4),%ymm3
- .byte 197,229,219,5,77,28,0,0 // vpand 0x1c4d(%rip),%ymm3,%ymm0 # 41e0 <_sk_callback_hsw+0x296>
+ .byte 197,229,219,5,245,28,0,0 // vpand 0x1cf5(%rip),%ymm3,%ymm0 # 4100 <_sk_callback_hsw+0x4e5>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
+ .byte 196,98,125,24,5,36,27,0,0 // vbroadcastss 0x1b24(%rip),%ymm8 # 3f3c <_sk_callback_hsw+0x321>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,77,28,0,0 // vpshufb 0x1c4d(%rip),%ymm3,%ymm1 # 4200 <_sk_callback_hsw+0x2b6>
+ .byte 196,226,101,0,13,250,28,0,0 // vpshufb 0x1cfa(%rip),%ymm3,%ymm1 # 4120 <_sk_callback_hsw+0x505>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,91,28,0,0 // vpshufb 0x1c5b(%rip),%ymm3,%ymm2 # 4220 <_sk_callback_hsw+0x2d6>
+ .byte 196,226,101,0,21,8,29,0,0 // vpshufb 0x1d08(%rip),%ymm3,%ymm2 # 4140 <_sk_callback_hsw+0x525>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -9801,43 +9645,35 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,134,0,0,0 // jne 267d <_sk_load_565_hsw+0x94>
+ .byte 117,114 // jne 24d8 <_sk_load_565_hsw+0x7c>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,57,27,0,0 // vpbroadcastd 0x1b39(%rip),%ymm0 # 4144 <_sk_callback_hsw+0x1fa>
+ .byte 196,226,125,88,5,198,26,0,0 // vpbroadcastd 0x1ac6(%rip),%ymm0 # 3f40 <_sk_callback_hsw+0x325>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,185,26,0,0 // vbroadcastss 0x1ab9(%rip),%ymm1 # 3f44 <_sk_callback_hsw+0x329>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,26,27,0,0 // vpbroadcastd 0x1b1a(%rip),%ymm1 # 4148 <_sk_callback_hsw+0x1fe>
+ .byte 196,226,125,88,13,176,26,0,0 // vpbroadcastd 0x1ab0(%rip),%ymm1 # 3f48 <_sk_callback_hsw+0x32d>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
+ .byte 196,226,125,24,29,163,26,0,0 // vbroadcastss 0x1aa3(%rip),%ymm3 # 3f4c <_sk_callback_hsw+0x331>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,251,26,0,0 // vpbroadcastd 0x1afb(%rip),%ymm3 # 414c <_sk_callback_hsw+0x202>
+ .byte 196,226,125,88,29,154,26,0,0 // vpbroadcastd 0x1a9a(%rip),%ymm3 # 3f50 <_sk_callback_hsw+0x335>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
+ .byte 196,226,125,24,29,141,26,0,0 // vbroadcastss 0x1a8d(%rip),%ymm3 # 3f54 <_sk_callback_hsw+0x339>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,130,26,0,0 // vbroadcastss 0x1a82(%rip),%ymm3 # 3f58 <_sk_callback_hsw+0x33d>
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,104,255,255,255 // ja 25fd <_sk_load_565_hsw+0x14>
+ .byte 119,128 // ja 246c <_sk_load_565_hsw+0x10>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 26ec <_sk_load_565_hsw+0x103>
+ .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 2540 <_sk_load_565_hsw+0xe4>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -9849,26 +9685,27 @@
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,20,255,255,255 // jmpq 25fd <_sk_load_565_hsw+0x14>
- .byte 15,31,0 // nopl (%rax)
- .byte 241 // icebp
+ .byte 233,44,255,255,255 // jmpq 246c <_sk_load_565_hsw+0x10>
+ .byte 244 // hlt
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe20026f4 <_sk_callback_hsw+0xffffffffe1ffe7aa>
+ .byte 236 // in (%dx),%al
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,228 // jmpq *%rsp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 217,255 // fcos
+ .byte 220,255 // fdivr %st,%st(7)
.byte 255 // (bad)
- .byte 255,209 // callq *%rcx
+ .byte 255,212 // callq *%rsp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189 // .byte 0xbd
+ .byte 255,192 // inc %eax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -9918,31 +9755,23 @@
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,141,25,0,0 // vpbroadcastd 0x198d(%rip),%ymm0 # 4150 <_sk_callback_hsw+0x206>
+ .byte 196,226,125,88,5,69,25,0,0 // vpbroadcastd 0x1945(%rip),%ymm0 # 3f5c <_sk_callback_hsw+0x341>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,56,25,0,0 // vbroadcastss 0x1938(%rip),%ymm1 # 3f60 <_sk_callback_hsw+0x345>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,110,25,0,0 // vpbroadcastd 0x196e(%rip),%ymm1 # 4154 <_sk_callback_hsw+0x20a>
+ .byte 196,226,125,88,13,47,25,0,0 // vpbroadcastd 0x192f(%rip),%ymm1 # 3f64 <_sk_callback_hsw+0x349>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
+ .byte 196,226,125,24,29,34,25,0,0 // vbroadcastss 0x1922(%rip),%ymm3 # 3f68 <_sk_callback_hsw+0x34d>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,79,25,0,0 // vpbroadcastd 0x194f(%rip),%ymm3 # 4158 <_sk_callback_hsw+0x20e>
+ .byte 196,226,125,88,29,25,25,0,0 // vpbroadcastd 0x1919(%rip),%ymm3 # 3f6c <_sk_callback_hsw+0x351>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
+ .byte 196,226,125,24,29,12,25,0,0 // vbroadcastss 0x190c(%rip),%ymm3 # 3f70 <_sk_callback_hsw+0x355>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,1,25,0,0 // vbroadcastss 0x1901(%rip),%ymm3 # 3f74 <_sk_callback_hsw+0x359>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -9954,49 +9783,121 @@
FUNCTION(_sk_store_565_hsw)
_sk_store_565_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,248,65 // mov $0x41f80000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,238,24,0,0 // vbroadcastss 0x18ee(%rip),%ymm8 # 3f78 <_sk_callback_hsw+0x35d>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 184,0,0,124,66 // mov $0x427c0000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10
+ .byte 196,98,125,24,21,217,24,0,0 // vbroadcastss 0x18d9(%rip),%ymm10 # 3f7c <_sk_callback_hsw+0x361>
+ .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 28a8 <_sk_store_565_hsw+0x6c>
- .byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
+ .byte 117,10 // jne 26e1 <_sk_store_565_hsw+0x65>
+ .byte 196,65,122,127,4,122 // vmovdqu %xmm8,(%r10,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 28a4 <_sk_store_565_hsw+0x68>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,69,0,0,0 // lea 0x45(%rip),%r8 # 2908 <_sk_store_565_hsw+0xcc>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 119,236 // ja 26dd <_sk_store_565_hsw+0x61>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,68,0,0,0 // lea 0x44(%rip),%r9 # 2740 <_sk_store_565_hsw+0xc4>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,68,121,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,6,3 // vpextrw $0x3,%xmm8,0x6(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
- .byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 28a4 <_sk_store_565_hsw+0x68>
- .byte 15,31,0 // nopl (%rax)
+ .byte 196,67,121,21,68,122,12,6 // vpextrw $0x6,%xmm8,0xc(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,10,5 // vpextrw $0x5,%xmm8,0xa(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,8,4 // vpextrw $0x4,%xmm8,0x8(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,6,3 // vpextrw $0x3,%xmm8,0x6(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,4,2 // vpextrw $0x2,%xmm8,0x4(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,2,1 // vpextrw $0x1,%xmm8,0x2(%r10,%rdi,2)
+ .byte 196,67,121,21,4,122,0 // vpextrw $0x0,%xmm8,(%r10,%rdi,2)
+ .byte 235,159 // jmp 26dd <_sk_store_565_hsw+0x61>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 245 // cmc
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,229 // jmpq *%rbp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_4444_hsw
+.globl _sk_load_4444_hsw
+FUNCTION(_sk_load_4444_hsw)
+_sk_load_4444_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 72,133,201 // test %rcx,%rcx
+ .byte 15,133,138,0,0,0 // jne 27f4 <_sk_load_4444_hsw+0x98>
+ .byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
+ .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
+ .byte 196,226,125,88,5,2,24,0,0 // vpbroadcastd 0x1802(%rip),%ymm0 # 3f80 <_sk_callback_hsw+0x365>
+ .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,226,125,24,13,245,23,0,0 // vbroadcastss 0x17f5(%rip),%ymm1 # 3f84 <_sk_callback_hsw+0x369>
+ .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
+ .byte 196,226,125,88,13,236,23,0,0 // vpbroadcastd 0x17ec(%rip),%ymm1 # 3f88 <_sk_callback_hsw+0x36d>
+ .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,226,125,24,21,223,23,0,0 // vbroadcastss 0x17df(%rip),%ymm2 # 3f8c <_sk_callback_hsw+0x371>
+ .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
+ .byte 196,226,125,88,21,214,23,0,0 // vpbroadcastd 0x17d6(%rip),%ymm2 # 3f90 <_sk_callback_hsw+0x375>
+ .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,98,125,24,5,201,23,0,0 // vbroadcastss 0x17c9(%rip),%ymm8 # 3f94 <_sk_callback_hsw+0x379>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,88,5,191,23,0,0 // vpbroadcastd 0x17bf(%rip),%ymm8 # 3f98 <_sk_callback_hsw+0x37d>
+ .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,177,23,0,0 // vbroadcastss 0x17b1(%rip),%ymm8 # 3f9c <_sk_callback_hsw+0x381>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,200 // mov %ecx,%r8d
+ .byte 65,128,224,7 // and $0x7,%r8b
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 65,254,200 // dec %r8b
+ .byte 65,128,248,6 // cmp $0x6,%r8b
+ .byte 15,135,100,255,255,255 // ja 2770 <_sk_load_4444_hsw+0x14>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 2860 <_sk_load_4444_hsw+0x104>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,12,6 // vpinsrw $0x6,0xc(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,10,5 // vpinsrw $0x5,0xa(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,8,4 // vpinsrw $0x4,0x8(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,6,3 // vpinsrw $0x3,0x6(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
+ .byte 233,16,255,255,255 // jmpq 2770 <_sk_load_4444_hsw+0x14>
.byte 244 // hlt
.byte 255 // (bad)
.byte 255 // (bad)
@@ -10016,92 +9917,7 @@
.byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_hsw
-.globl _sk_load_4444_hsw
-FUNCTION(_sk_load_4444_hsw)
-_sk_load_4444_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,16 // mov (%rax),%r10
- .byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,156,0,0,0 // jne 29ce <_sk_load_4444_hsw+0xaa>
- .byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
- .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,22,24,0,0 // vpbroadcastd 0x1816(%rip),%ymm0 # 415c <_sk_callback_hsw+0x212>
- .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,247,23,0,0 // vpbroadcastd 0x17f7(%rip),%ymm1 # 4160 <_sk_callback_hsw+0x216>
- .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,216,23,0,0 // vpbroadcastd 0x17d8(%rip),%ymm2 # 4164 <_sk_callback_hsw+0x21a>
- .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
- .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,88,5,185,23,0,0 // vpbroadcastd 0x17b9(%rip),%ymm8 # 4168 <_sk_callback_hsw+0x21e>
- .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 65,128,224,7 // and $0x7,%r8b
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 65,254,200 // dec %r8b
- .byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,82,255,255,255 // ja 2938 <_sk_load_4444_hsw+0x14>
- .byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,75,0,0,0 // lea 0x4b(%rip),%r9 # 2a3c <_sk_load_4444_hsw+0x118>
- .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,122,12,6 // vpinsrw $0x6,0xc(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,122,10,5 // vpinsrw $0x5,0xa(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,122,8,4 // vpinsrw $0x4,0x8(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,122,6,3 // vpinsrw $0x3,0x6(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
- .byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,254,254,255,255 // jmpq 2938 <_sk_load_4444_hsw+0x14>
- .byte 102,144 // xchg %ax,%ax
- .byte 242,255 // repnz (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190 // .byte 0xbe
+ .byte 255,192 // inc %eax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10151,34 +9967,26 @@
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,89,22,0,0 // vpbroadcastd 0x1659(%rip),%ymm0 # 416c <_sk_callback_hsw+0x222>
+ .byte 196,226,125,88,5,105,22,0,0 // vpbroadcastd 0x1669(%rip),%ymm0 # 3fa0 <_sk_callback_hsw+0x385>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,92,22,0,0 // vbroadcastss 0x165c(%rip),%ymm1 # 3fa4 <_sk_callback_hsw+0x389>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,58,22,0,0 // vpbroadcastd 0x163a(%rip),%ymm1 # 4170 <_sk_callback_hsw+0x226>
+ .byte 196,226,125,88,13,83,22,0,0 // vpbroadcastd 0x1653(%rip),%ymm1 # 3fa8 <_sk_callback_hsw+0x38d>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
+ .byte 196,226,125,24,21,70,22,0,0 // vbroadcastss 0x1646(%rip),%ymm2 # 3fac <_sk_callback_hsw+0x391>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,27,22,0,0 // vpbroadcastd 0x161b(%rip),%ymm2 # 4174 <_sk_callback_hsw+0x22a>
+ .byte 196,226,125,88,21,61,22,0,0 // vpbroadcastd 0x163d(%rip),%ymm2 # 3fb0 <_sk_callback_hsw+0x395>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
- .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,88,5,252,21,0,0 // vpbroadcastd 0x15fc(%rip),%ymm8 # 4178 <_sk_callback_hsw+0x22e>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,98,125,24,5,48,22,0,0 // vbroadcastss 0x1630(%rip),%ymm8 # 3fb4 <_sk_callback_hsw+0x399>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,88,5,38,22,0,0 // vpbroadcastd 0x1626(%rip),%ymm8 # 3fb8 <_sk_callback_hsw+0x39d>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,24,22,0,0 // vbroadcastss 0x1618(%rip),%ymm8 # 3fbc <_sk_callback_hsw+0x3a1>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -10191,70 +9999,68 @@
FUNCTION(_sk_store_4444_hsw)
_sk_store_4444_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,112,65 // mov $0x41700000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,254,21,0,0 // vbroadcastss 0x15fe(%rip),%ymm8 # 3fc0 <_sk_callback_hsw+0x3a5>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 197,60,89,210 // vmulps %ymm2,%ymm8,%ymm10
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 2c14 <_sk_store_4444_hsw+0x72>
- .byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
+ .byte 117,10 // jne 2a25 <_sk_store_4444_hsw+0x71>
+ .byte 196,65,122,127,4,122 // vmovdqu %xmm8,(%r10,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 2c10 <_sk_store_4444_hsw+0x6e>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,69,0,0,0 // lea 0x45(%rip),%r8 # 2c74 <_sk_store_4444_hsw+0xd2>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 119,236 // ja 2a21 <_sk_store_4444_hsw+0x6d>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,68,0,0,0 // lea 0x44(%rip),%r9 # 2a84 <_sk_store_4444_hsw+0xd0>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,68,121,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,6,3 // vpextrw $0x3,%xmm8,0x6(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
- .byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 2c10 <_sk_store_4444_hsw+0x6e>
- .byte 15,31,0 // nopl (%rax)
- .byte 244 // hlt
+ .byte 196,67,121,21,68,122,12,6 // vpextrw $0x6,%xmm8,0xc(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,10,5 // vpextrw $0x5,%xmm8,0xa(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,8,4 // vpextrw $0x4,%xmm8,0x8(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,6,3 // vpextrw $0x3,%xmm8,0x6(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,4,2 // vpextrw $0x2,%xmm8,0x4(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,2,1 // vpextrw $0x1,%xmm8,0x2(%r10,%rdi,2)
+ .byte 196,67,121,21,4,122,0 // vpextrw $0x0,%xmm8,(%r10,%rdi,2)
+ .byte 235,159 // jmp 2a21 <_sk_store_4444_hsw+0x6d>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 245 // cmc
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 236 // in (%dx),%al
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
+ .byte 221,255 // (bad)
.byte 255 // (bad)
- .byte 255,212 // callq *%rsp
+ .byte 255,213 // callq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,204 // dec %esp
+ .byte 255,205 // dec %ebp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,196 // inc %esp
+ .byte 255,197 // inc %ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10268,18 +10074,16 @@
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 117,93 // jne 2d02 <_sk_load_8888_hsw+0x72>
+ .byte 117,88 // jne 2b0d <_sk_load_8888_hsw+0x6d>
.byte 196,193,126,111,25 // vmovdqu (%r9),%ymm3
- .byte 197,229,219,5,142,21,0,0 // vpand 0x158e(%rip),%ymm3,%ymm0 # 4240 <_sk_callback_hsw+0x2f6>
+ .byte 197,229,219,5,158,22,0,0 // vpand 0x169e(%rip),%ymm3,%ymm0 # 4160 <_sk_callback_hsw+0x545>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
+ .byte 196,98,125,24,5,245,20,0,0 // vbroadcastss 0x14f5(%rip),%ymm8 # 3fc4 <_sk_callback_hsw+0x3a9>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,142,21,0,0 // vpshufb 0x158e(%rip),%ymm3,%ymm1 # 4260 <_sk_callback_hsw+0x316>
+ .byte 196,226,101,0,13,163,22,0,0 // vpshufb 0x16a3(%rip),%ymm3,%ymm1 # 4180 <_sk_callback_hsw+0x565>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,156,21,0,0 // vpshufb 0x159c(%rip),%ymm3,%ymm2 # 4280 <_sk_callback_hsw+0x336>
+ .byte 196,226,101,0,21,177,22,0,0 // vpshufb 0x16b1(%rip),%ymm3,%ymm2 # 41a0 <_sk_callback_hsw+0x585>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -10296,7 +10100,7 @@
.byte 196,225,249,110,192 // vmovq %rax,%xmm0
.byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0
.byte 196,194,125,140,25 // vpmaskmovd (%r9),%ymm0,%ymm3
- .byte 235,130 // jmp 2caa <_sk_load_8888_hsw+0x1a>
+ .byte 235,135 // jmp 2aba <_sk_load_8888_hsw+0x1a>
HIDDEN _sk_gather_8888_hsw
.globl _sk_gather_8888_hsw
@@ -10311,16 +10115,14 @@
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 197,229,219,5,74,21,0,0 // vpand 0x154a(%rip),%ymm3,%ymm0 # 42a0 <_sk_callback_hsw+0x356>
+ .byte 197,229,219,5,95,22,0,0 // vpand 0x165f(%rip),%ymm3,%ymm0 # 41c0 <_sk_callback_hsw+0x5a5>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
+ .byte 196,98,125,24,5,90,20,0,0 // vbroadcastss 0x145a(%rip),%ymm8 # 3fc8 <_sk_callback_hsw+0x3ad>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,74,21,0,0 // vpshufb 0x154a(%rip),%ymm3,%ymm1 # 42c0 <_sk_callback_hsw+0x376>
+ .byte 196,226,101,0,13,100,22,0,0 // vpshufb 0x1664(%rip),%ymm3,%ymm1 # 41e0 <_sk_callback_hsw+0x5c5>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,88,21,0,0 // vpshufb 0x1558(%rip),%ymm3,%ymm2 # 42e0 <_sk_callback_hsw+0x396>
+ .byte 196,226,101,0,21,114,22,0,0 // vpshufb 0x1672(%rip),%ymm3,%ymm2 # 4200 <_sk_callback_hsw+0x5e5>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -10337,25 +10139,23 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,5,10,20,0,0 // vbroadcastss 0x140a(%rip),%ymm8 # 3fcc <_sk_callback_hsw+0x3b1>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 197,60,89,210 // vmulps %ymm2,%ymm8,%ymm10
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,12 // jne 2e17 <_sk_store_8888_hsw+0x74>
+ .byte 117,12 // jne 2c1c <_sk_store_8888_hsw+0x73>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,137,193 // mov %r8,%rcx
@@ -10368,7 +10168,7 @@
.byte 196,97,249,110,200 // vmovq %rax,%xmm9
.byte 196,66,125,33,201 // vpmovsxbd %xmm9,%ymm9
.byte 196,66,53,142,1 // vpmaskmovd %ymm8,%ymm9,(%r9)
- .byte 235,211 // jmp 2e10 <_sk_store_8888_hsw+0x6d>
+ .byte 235,211 // jmp 2c15 <_sk_store_8888_hsw+0x6c>
HIDDEN _sk_load_f16_hsw
.globl _sk_load_f16_hsw
@@ -10377,7 +10177,7 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,97 // jne 2ea8 <_sk_load_f16_hsw+0x6b>
+ .byte 117,97 // jne 2cad <_sk_load_f16_hsw+0x6b>
.byte 197,121,16,4,248 // vmovupd (%rax,%rdi,8),%xmm8
.byte 197,249,16,84,248,16 // vmovupd 0x10(%rax,%rdi,8),%xmm2
.byte 197,249,16,92,248,32 // vmovupd 0x20(%rax,%rdi,8),%xmm3
@@ -10403,29 +10203,29 @@
.byte 197,123,16,4,248 // vmovsd (%rax,%rdi,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,79 // je 2f07 <_sk_load_f16_hsw+0xca>
+ .byte 116,79 // je 2d0c <_sk_load_f16_hsw+0xca>
.byte 197,57,22,68,248,8 // vmovhpd 0x8(%rax,%rdi,8),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,67 // jb 2f07 <_sk_load_f16_hsw+0xca>
+ .byte 114,67 // jb 2d0c <_sk_load_f16_hsw+0xca>
.byte 197,251,16,84,248,16 // vmovsd 0x10(%rax,%rdi,8),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,68 // je 2f14 <_sk_load_f16_hsw+0xd7>
+ .byte 116,68 // je 2d19 <_sk_load_f16_hsw+0xd7>
.byte 197,233,22,84,248,24 // vmovhpd 0x18(%rax,%rdi,8),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,56 // jb 2f14 <_sk_load_f16_hsw+0xd7>
+ .byte 114,56 // jb 2d19 <_sk_load_f16_hsw+0xd7>
.byte 197,251,16,92,248,32 // vmovsd 0x20(%rax,%rdi,8),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,114,255,255,255 // je 2e5e <_sk_load_f16_hsw+0x21>
+ .byte 15,132,114,255,255,255 // je 2c63 <_sk_load_f16_hsw+0x21>
.byte 197,225,22,92,248,40 // vmovhpd 0x28(%rax,%rdi,8),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,98,255,255,255 // jb 2e5e <_sk_load_f16_hsw+0x21>
+ .byte 15,130,98,255,255,255 // jb 2c63 <_sk_load_f16_hsw+0x21>
.byte 197,122,126,76,248,48 // vmovq 0x30(%rax,%rdi,8),%xmm9
- .byte 233,87,255,255,255 // jmpq 2e5e <_sk_load_f16_hsw+0x21>
+ .byte 233,87,255,255,255 // jmpq 2c63 <_sk_load_f16_hsw+0x21>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,74,255,255,255 // jmpq 2e5e <_sk_load_f16_hsw+0x21>
+ .byte 233,74,255,255,255 // jmpq 2c63 <_sk_load_f16_hsw+0x21>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,65,255,255,255 // jmpq 2e5e <_sk_load_f16_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq 2c63 <_sk_load_f16_hsw+0x21>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -10483,7 +10283,7 @@
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,27 // jne 300c <_sk_store_f16_hsw+0x65>
+ .byte 117,27 // jne 2e11 <_sk_store_f16_hsw+0x65>
.byte 197,120,17,28,248 // vmovups %xmm11,(%rax,%rdi,8)
.byte 197,120,17,84,248,16 // vmovups %xmm10,0x10(%rax,%rdi,8)
.byte 197,120,17,76,248,32 // vmovups %xmm9,0x20(%rax,%rdi,8)
@@ -10492,22 +10292,22 @@
.byte 255,224 // jmpq *%rax
.byte 197,121,214,28,248 // vmovq %xmm11,(%rax,%rdi,8)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,241 // je 3008 <_sk_store_f16_hsw+0x61>
+ .byte 116,241 // je 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,23,92,248,8 // vmovhpd %xmm11,0x8(%rax,%rdi,8)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,229 // jb 3008 <_sk_store_f16_hsw+0x61>
+ .byte 114,229 // jb 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,214,84,248,16 // vmovq %xmm10,0x10(%rax,%rdi,8)
- .byte 116,221 // je 3008 <_sk_store_f16_hsw+0x61>
+ .byte 116,221 // je 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,23,84,248,24 // vmovhpd %xmm10,0x18(%rax,%rdi,8)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,209 // jb 3008 <_sk_store_f16_hsw+0x61>
+ .byte 114,209 // jb 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,214,76,248,32 // vmovq %xmm9,0x20(%rax,%rdi,8)
- .byte 116,201 // je 3008 <_sk_store_f16_hsw+0x61>
+ .byte 116,201 // je 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,23,76,248,40 // vmovhpd %xmm9,0x28(%rax,%rdi,8)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,189 // jb 3008 <_sk_store_f16_hsw+0x61>
+ .byte 114,189 // jb 2e0d <_sk_store_f16_hsw+0x61>
.byte 197,121,214,68,248,48 // vmovq %xmm8,0x30(%rax,%rdi,8)
- .byte 235,181 // jmp 3008 <_sk_store_f16_hsw+0x61>
+ .byte 235,181 // jmp 2e0d <_sk_store_f16_hsw+0x61>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -10517,7 +10317,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,205,0,0,0 // jne 3136 <_sk_load_u16_be_hsw+0xe3>
+ .byte 15,133,204,0,0,0 // jne 2f3a <_sk_load_u16_be_hsw+0xe2>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -10530,65 +10330,63 @@
.byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,98,125,88,208 // vpbroadcastd %xmm0,%ymm10
.byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
.byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
.byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 196,98,125,24,21,1,17,0,0 // vbroadcastss 0x1101(%rip),%ymm10 # 3fd0 <_sk_callback_hsw+0x3b5>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
.byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
.byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
.byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2
.byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
.byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
.byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
.byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
.byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
.byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 319c <_sk_load_u16_be_hsw+0x149>
+ .byte 116,85 // je 2fa0 <_sk_load_u16_be_hsw+0x148>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 319c <_sk_load_u16_be_hsw+0x149>
+ .byte 114,72 // jb 2fa0 <_sk_load_u16_be_hsw+0x148>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 31a9 <_sk_load_u16_be_hsw+0x156>
+ .byte 116,72 // je 2fad <_sk_load_u16_be_hsw+0x155>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 31a9 <_sk_load_u16_be_hsw+0x156>
+ .byte 114,59 // jb 2fad <_sk_load_u16_be_hsw+0x155>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,5,255,255,255 // je 3084 <_sk_load_u16_be_hsw+0x31>
+ .byte 15,132,6,255,255,255 // je 2e89 <_sk_load_u16_be_hsw+0x31>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,244,254,255,255 // jb 3084 <_sk_load_u16_be_hsw+0x31>
+ .byte 15,130,245,254,255,255 // jb 2e89 <_sk_load_u16_be_hsw+0x31>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,232,254,255,255 // jmpq 3084 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,233,254,255,255 // jmpq 2e89 <_sk_load_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,219,254,255,255 // jmpq 3084 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,220,254,255,255 // jmpq 2e89 <_sk_load_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,210,254,255,255 // jmpq 3084 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,211,254,255,255 // jmpq 2e89 <_sk_load_u16_be_hsw+0x31>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -10598,7 +10396,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,127 // lea (%rdi,%rdi,2),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,211,0,0,0 // jne 3297 <_sk_load_rgb_u16_be_hsw+0xe5>
+ .byte 15,133,204,0,0,0 // jne 3094 <_sk_load_rgb_u16_be_hsw+0xde>
.byte 196,193,122,111,4,64 // vmovdqu (%r8,%rax,2),%xmm0
.byte 196,193,122,111,84,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm2
.byte 196,193,122,111,76,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm1
@@ -10616,68 +10414,64 @@
.byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
.byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,98,125,88,208 // vpbroadcastd %xmm0,%ymm10
.byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
.byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
.byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 196,98,125,24,21,146,15,0,0 // vbroadcastss 0xf92(%rip),%ymm10 # 3fd4 <_sk_callback_hsw+0x3b9>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
.byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
.byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
.byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2
.byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
.byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
.byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
.byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,70,15,0,0 // vbroadcastss 0xf46(%rip),%ymm3 # 3fd8 <_sk_callback_hsw+0x3bd>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,193,121,196,68,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 32b0 <_sk_load_rgb_u16_be_hsw+0xfe>
- .byte 233,72,255,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,5 // jne 30ad <_sk_load_rgb_u16_be_hsw+0xf7>
+ .byte 233,79,255,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,76,64,6 // vmovd 0x6(%r8,%rax,2),%xmm1
.byte 196,65,113,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 32df <_sk_load_rgb_u16_be_hsw+0x12d>
+ .byte 114,26 // jb 30dc <_sk_load_rgb_u16_be_hsw+0x126>
.byte 196,193,121,110,76,64,12 // vmovd 0xc(%r8,%rax,2),%xmm1
.byte 196,193,113,196,84,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 32e4 <_sk_load_rgb_u16_be_hsw+0x132>
- .byte 233,25,255,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,20,255,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 30e1 <_sk_load_rgb_u16_be_hsw+0x12b>
+ .byte 233,32,255,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,27,255,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,76,64,18 // vmovd 0x12(%r8,%rax,2),%xmm1
.byte 196,65,113,196,76,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 3313 <_sk_load_rgb_u16_be_hsw+0x161>
+ .byte 114,26 // jb 3110 <_sk_load_rgb_u16_be_hsw+0x15a>
.byte 196,193,121,110,76,64,24 // vmovd 0x18(%r8,%rax,2),%xmm1
.byte 196,193,113,196,76,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 3318 <_sk_load_rgb_u16_be_hsw+0x166>
- .byte 233,229,254,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,224,254,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 3115 <_sk_load_rgb_u16_be_hsw+0x15f>
+ .byte 233,236,254,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,231,254,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,92,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm3
.byte 196,65,97,196,92,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 3341 <_sk_load_rgb_u16_be_hsw+0x18f>
+ .byte 114,20 // jb 313e <_sk_load_rgb_u16_be_hsw+0x188>
.byte 196,193,121,110,92,64,36 // vmovd 0x24(%r8,%rax,2),%xmm3
.byte 196,193,97,196,92,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
- .byte 233,183,254,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,178,254,255,255 // jmpq 31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,190,254,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,185,254,255,255 // jmpq 2ffc <_sk_load_rgb_u16_be_hsw+0x46>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -10685,32 +10479,30 @@
_sk_store_u16_be_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 184,0,255,127,71 // mov $0x477fff00,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
+ .byte 196,98,125,24,5,131,14,0,0 // vbroadcastss 0xe83(%rip),%ymm8 # 3fdc <_sk_callback_hsw+0x3c1>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
.byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
.byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
.byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
.byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
.byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
.byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
.byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
.byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
- .byte 197,60,89,218 // vmulps %ymm2,%ymm8,%ymm11
+ .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
.byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
.byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
.byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
.byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12
.byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
@@ -10726,31 +10518,31 @@
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,31 // jne 3441 <_sk_store_u16_be_hsw+0xfb>
- .byte 196,1,120,17,28,72 // vmovups %xmm11,(%r8,%r9,2)
- .byte 196,1,120,17,84,72,16 // vmovups %xmm10,0x10(%r8,%r9,2)
- .byte 196,1,120,17,76,72,32 // vmovups %xmm9,0x20(%r8,%r9,2)
- .byte 196,1,122,127,68,72,48 // vmovdqu %xmm8,0x30(%r8,%r9,2)
+ .byte 117,31 // jne 323d <_sk_store_u16_be_hsw+0xfa>
+ .byte 196,65,120,17,28,64 // vmovups %xmm11,(%r8,%rax,2)
+ .byte 196,65,120,17,84,64,16 // vmovups %xmm10,0x10(%r8,%rax,2)
+ .byte 196,65,120,17,76,64,32 // vmovups %xmm9,0x20(%r8,%rax,2)
+ .byte 196,65,122,127,68,64,48 // vmovdqu %xmm8,0x30(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 196,1,121,214,28,72 // vmovq %xmm11,(%r8,%r9,2)
+ .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,23,92,72,8 // vmovhpd %xmm11,0x8(%r8,%r9,2)
+ .byte 116,240 // je 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,214,84,72,16 // vmovq %xmm10,0x10(%r8,%r9,2)
- .byte 116,218 // je 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,23,84,72,24 // vmovhpd %xmm10,0x18(%r8,%r9,2)
+ .byte 114,227 // jb 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
+ .byte 116,218 // je 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,214,76,72,32 // vmovq %xmm9,0x20(%r8,%r9,2)
- .byte 116,196 // je 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,23,76,72,40 // vmovhpd %xmm9,0x28(%r8,%r9,2)
+ .byte 114,205 // jb 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
+ .byte 116,196 // je 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,183 // jb 343d <_sk_store_u16_be_hsw+0xf7>
- .byte 196,1,121,214,68,72,48 // vmovq %xmm8,0x30(%r8,%r9,2)
- .byte 235,174 // jmp 343d <_sk_store_u16_be_hsw+0xf7>
+ .byte 114,183 // jb 3239 <_sk_store_u16_be_hsw+0xf6>
+ .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
+ .byte 235,174 // jmp 3239 <_sk_store_u16_be_hsw+0xf6>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -10758,10 +10550,10 @@
_sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 119,110 // ja 3505 <_sk_load_f32_hsw+0x76>
+ .byte 119,110 // ja 3301 <_sk_load_f32_hsw+0x76>
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3530 <_sk_load_f32_hsw+0xa1>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 332c <_sk_load_f32_hsw+0xa1>
.byte 73,99,4,138 // movslq (%r10,%rcx,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
@@ -10822,7 +10614,7 @@
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,55 // jne 35bd <_sk_store_f32_hsw+0x6d>
+ .byte 117,55 // jne 33b9 <_sk_store_f32_hsw+0x6d>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -10835,22 +10627,22 @@
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 116,240 // je 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 114,227 // jb 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 116,218 // je 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 114,205 // jb 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 116,195 // je 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,181 // jb 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 114,181 // jb 33b5 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 35b9 <_sk_store_f32_hsw+0x69>
+ .byte 235,171 // jmp 33b5 <_sk_store_f32_hsw+0x69>
HIDDEN _sk_clamp_x_hsw
.globl _sk_clamp_x_hsw
@@ -10960,20 +10752,14 @@
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 184,208,179,89,62 // mov $0x3e59b3d0,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,98,125,88,195 // vpbroadcastd %xmm3,%ymm8
- .byte 184,89,23,55,63 // mov $0x3f371759,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 196,98,125,168,193 // vfmadd213ps %ymm1,%ymm0,%ymm8
- .byte 184,152,221,147,61 // mov $0x3d93dd98,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,216 // vpbroadcastd %xmm0,%ymm3
- .byte 196,194,109,168,216 // vfmadd213ps %ymm8,%ymm2,%ymm3
+ .byte 196,226,125,24,29,157,10,0,0 // vbroadcastss 0xa9d(%rip),%ymm3 # 3fe0 <_sk_callback_hsw+0x3c5>
+ .byte 196,98,125,24,5,152,10,0,0 // vbroadcastss 0xa98(%rip),%ymm8 # 3fe4 <_sk_callback_hsw+0x3c9>
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
+ .byte 196,226,125,24,29,137,10,0,0 // vbroadcastss 0xa89(%rip),%ymm3 # 3fe8 <_sk_callback_hsw+0x3cd>
+ .byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 255,224 // jmpq *%rax
@@ -11115,7 +10901,7 @@
.byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
.byte 76,139,0 // mov (%rax),%r8
.byte 77,133,192 // test %r8,%r8
- .byte 15,132,143,0,0,0 // je 3a49 <_sk_linear_gradient_hsw+0xb5>
+ .byte 15,132,143,0,0,0 // je 3837 <_sk_linear_gradient_hsw+0xb5>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
@@ -11142,8 +10928,8 @@
.byte 196,67,13,74,201,208 // vblendvps %ymm13,%ymm9,%ymm14,%ymm9
.byte 72,131,192,36 // add $0x24,%rax
.byte 73,255,200 // dec %r8
- .byte 117,140 // jne 39d3 <_sk_linear_gradient_hsw+0x3f>
- .byte 235,17 // jmp 3a5a <_sk_linear_gradient_hsw+0xc6>
+ .byte 117,140 // jne 37c1 <_sk_linear_gradient_hsw+0x3f>
+ .byte 235,17 // jmp 3848 <_sk_linear_gradient_hsw+0xc6>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
@@ -11182,13 +10968,11 @@
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,60,88,200 // vaddps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,5,48,7,0,0 // vbroadcastss 0x730(%rip),%ymm8 # 3fec <_sk_callback_hsw+0x3d1>
+ .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 197,60,88,193 // vaddps %ymm1,%ymm8,%ymm8
+ .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
.byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
.byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
.byte 197,252,17,0 // vmovups %ymm0,(%rax)
@@ -11218,13 +11002,9 @@
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,196,6,0,0 // vbroadcastss 0x6c4(%rip),%ymm0 # 3ff0 <_sk_callback_hsw+0x3d5>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,187,6,0,0 // vbroadcastss 0x6bb(%rip),%ymm8 # 3ff4 <_sk_callback_hsw+0x3d9>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -11235,9 +11015,7 @@
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,163,6,0,0 // vbroadcastss 0x6a3(%rip),%ymm0 # 3ff8 <_sk_callback_hsw+0x3dd>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -11249,13 +11027,9 @@
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,135,6,0,0 // vbroadcastss 0x687(%rip),%ymm1 # 3ffc <_sk_callback_hsw+0x3e1>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,125,6,0,0 // vbroadcastss 0x67d(%rip),%ymm8 # 4000 <_sk_callback_hsw+0x3e5>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -11266,9 +11040,7 @@
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,101,6,0,0 // vbroadcastss 0x665(%rip),%ymm1 # 4004 <_sk_callback_hsw+0x3e9>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -11280,23 +11052,15 @@
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,191 // mov $0xbfc00000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,72,6,0,0 // vbroadcastss 0x648(%rip),%ymm0 # 4008 <_sk_callback_hsw+0x3ed>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,63,6,0,0 // vbroadcastss 0x63f(%rip),%ymm8 # 400c <_sk_callback_hsw+0x3f1>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,61,168,211 // vfmadd213ps %ymm11,%ymm8,%ymm10
- .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
+ .byte 196,98,125,24,21,48,6,0,0 // vbroadcastss 0x630(%rip),%ymm10 # 4010 <_sk_callback_hsw+0x3f5>
+ .byte 196,98,125,24,29,43,6,0,0 // vbroadcastss 0x62b(%rip),%ymm11 # 4014 <_sk_callback_hsw+0x3f9>
+ .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
+ .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11306,30 +11070,18 @@
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,14,6,0,0 // vbroadcastss 0x60e(%rip),%ymm0 # 4018 <_sk_callback_hsw+0x3fd>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,5,6,0,0 // vbroadcastss 0x605(%rip),%ymm8 # 401c <_sk_callback_hsw+0x401>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,66,61,168,202 // vfmadd213ps %ymm10,%ymm8,%ymm9
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 196,98,125,24,13,251,5,0,0 // vbroadcastss 0x5fb(%rip),%ymm9 # 4020 <_sk_callback_hsw+0x405>
+ .byte 196,98,125,24,21,246,5,0,0 // vbroadcastss 0x5f6(%rip),%ymm10 # 4024 <_sk_callback_hsw+0x409>
+ .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
+ .byte 196,98,125,24,13,236,5,0,0 // vbroadcastss 0x5ec(%rip),%ymm9 # 4028 <_sk_callback_hsw+0x40d>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
+ .byte 196,98,125,24,21,226,5,0,0 // vbroadcastss 0x5e2(%rip),%ymm10 # 402c <_sk_callback_hsw+0x411>
+ .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
+ .byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11338,23 +11090,15 @@
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,98,125,88,192 // vpbroadcastd %xmm0,%ymm8
+ .byte 196,98,125,24,5,202,5,0,0 // vbroadcastss 0x5ca(%rip),%ymm8 # 4030 <_sk_callback_hsw+0x415>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,53,168,211 // vfmadd213ps %ymm11,%ymm9,%ymm10
- .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,66,53,184,194 // vfmadd231ps %ymm10,%ymm9,%ymm8
+ .byte 196,98,125,24,21,188,5,0,0 // vbroadcastss 0x5bc(%rip),%ymm10 # 4034 <_sk_callback_hsw+0x419>
+ .byte 196,98,125,24,29,183,5,0,0 // vbroadcastss 0x5b7(%rip),%ymm11 # 4038 <_sk_callback_hsw+0x41d>
+ .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
+ .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
+ .byte 196,98,125,24,5,168,5,0,0 // vbroadcastss 0x5a8(%rip),%ymm8 # 403c <_sk_callback_hsw+0x421>
+ .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11364,20 +11108,14 @@
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
+ .byte 196,226,125,24,5,144,5,0,0 // vbroadcastss 0x590(%rip),%ymm0 # 4040 <_sk_callback_hsw+0x425>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,61,168,211 // vfmadd213ps %ymm11,%ymm8,%ymm10
- .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
+ .byte 196,98,125,24,21,125,5,0,0 // vbroadcastss 0x57d(%rip),%ymm10 # 4044 <_sk_callback_hsw+0x429>
+ .byte 196,98,125,24,29,120,5,0,0 // vbroadcastss 0x578(%rip),%ymm11 # 4048 <_sk_callback_hsw+0x42d>
+ .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
+ .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11387,23 +11125,15 @@
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,191 // mov $0xbfc00000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,91,5,0,0 // vbroadcastss 0x55b(%rip),%ymm1 # 404c <_sk_callback_hsw+0x431>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,81,5,0,0 // vbroadcastss 0x551(%rip),%ymm8 # 4050 <_sk_callback_hsw+0x435>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,61,168,211 // vfmadd213ps %ymm11,%ymm8,%ymm10
- .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
+ .byte 196,98,125,24,21,66,5,0,0 // vbroadcastss 0x542(%rip),%ymm10 # 4054 <_sk_callback_hsw+0x439>
+ .byte 196,98,125,24,29,61,5,0,0 // vbroadcastss 0x53d(%rip),%ymm11 # 4058 <_sk_callback_hsw+0x43d>
+ .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
+ .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11413,30 +11143,18 @@
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,32,5,0,0 // vbroadcastss 0x520(%rip),%ymm1 # 405c <_sk_callback_hsw+0x441>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
+ .byte 196,98,125,24,5,22,5,0,0 // vbroadcastss 0x516(%rip),%ymm8 # 4060 <_sk_callback_hsw+0x445>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,66,61,168,202 // vfmadd213ps %ymm10,%ymm8,%ymm9
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
+ .byte 196,98,125,24,13,12,5,0,0 // vbroadcastss 0x50c(%rip),%ymm9 # 4064 <_sk_callback_hsw+0x449>
+ .byte 196,98,125,24,21,7,5,0,0 // vbroadcastss 0x507(%rip),%ymm10 # 4068 <_sk_callback_hsw+0x44d>
+ .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
+ .byte 196,98,125,24,13,253,4,0,0 // vbroadcastss 0x4fd(%rip),%ymm9 # 406c <_sk_callback_hsw+0x451>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 197,124,17,136,160,0,0,0 // vmovups %ymm9,0xa0(%rax)
+ .byte 196,98,125,24,21,243,4,0,0 // vbroadcastss 0x4f3(%rip),%ymm10 # 4070 <_sk_callback_hsw+0x455>
+ .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
+ .byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11445,23 +11163,15 @@
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
+ .byte 196,98,125,24,5,219,4,0,0 // vbroadcastss 0x4db(%rip),%ymm8 # 4074 <_sk_callback_hsw+0x459>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,53,168,211 // vfmadd213ps %ymm11,%ymm9,%ymm10
- .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,66,53,184,194 // vfmadd231ps %ymm10,%ymm9,%ymm8
+ .byte 196,98,125,24,21,204,4,0,0 // vbroadcastss 0x4cc(%rip),%ymm10 # 4078 <_sk_callback_hsw+0x45d>
+ .byte 196,98,125,24,29,199,4,0,0 // vbroadcastss 0x4c7(%rip),%ymm11 # 407c <_sk_callback_hsw+0x461>
+ .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
+ .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
+ .byte 196,98,125,24,5,184,4,0,0 // vbroadcastss 0x4b8(%rip),%ymm8 # 4080 <_sk_callback_hsw+0x465>
+ .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11471,20 +11181,14 @@
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
+ .byte 196,226,125,24,13,160,4,0,0 // vbroadcastss 0x4a0(%rip),%ymm1 # 4084 <_sk_callback_hsw+0x469>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,125,88,219 // vpbroadcastd %xmm11,%ymm11
- .byte 196,66,61,168,211 // vfmadd213ps %ymm11,%ymm8,%ymm10
- .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
+ .byte 196,98,125,24,21,140,4,0,0 // vbroadcastss 0x48c(%rip),%ymm10 # 4088 <_sk_callback_hsw+0x46d>
+ .byte 196,98,125,24,29,135,4,0,0 // vbroadcastss 0x487(%rip),%ymm11 # 408c <_sk_callback_hsw+0x471>
+ .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
+ .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11570,20 +11274,80 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
- .byte 248 // clc
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 4085 <.literal4+0x15>
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,145 // cmpb $0x91,(%rdi)
+ .byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
+ .byte 154 // (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,10,215 // ds or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,41,92,71,65 // cmp $0x41475c29,%eax
+ .byte 168,87 // test $0x57,%al
+ .byte 202,189,206 // lret $0xcebd
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 194,135,210 // retq $0xd287
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 128,63,4 // cmpb $0x4,(%rdi)
+ .byte 231,140 // out %eax,$0x8c
+ .byte 59,0 // cmp (%rax),%eax
+ .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax)
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 129,128,128,59,129,128,128,59,0,248 // addl $0xf8003b80,-0x7f7ec480(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 3dfd <.literal4+0xbd>
+ .byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 52,255 // xor $0xff,%al
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
+ .byte 129,128,128,59,128,0,128,55,0,0 // addl $0x3780,0x803b80(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 408c <.literal4+0x1c>
+ .byte 127,0 // jg 3e28 <.literal4+0xe8>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4105 <.literal4+0x95>
+ .byte 119,115 // ja 3ea1 <.literal4+0x161>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11594,13 +11358,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 40bc <.literal4+0x4c>
+ .byte 127,0 // jg 3e5c <.literal4+0x11c>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4135 <.literal4+0xc5>
+ .byte 119,115 // ja 3ed5 <.literal4+0x195>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11611,13 +11375,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 40ec <.literal4+0x7c>
+ .byte 127,0 // jg 3e90 <.literal4+0x150>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4165 <.literal4+0xf5>
+ .byte 119,115 // ja 3f09 <.literal4+0x1c9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11628,13 +11392,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 411c <.literal4+0xac>
+ .byte 127,0 // jg 3ec4 <.literal4+0x184>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4195 <_sk_callback_hsw+0x24b>
+ .byte 119,115 // ja 3f3d <.literal4+0x1fd>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11645,34 +11409,149 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
+ .byte 0,128,63,0,0,200 // add %al,-0x37ffffc1(%rax)
+ .byte 66,0,0 // rex.X add %al,(%rax)
+ .byte 127,67 // jg 3f3b <.literal4+0x1fb>
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
+ .byte 13,60,111,18,3 // or $0x3126f3c,%eax
+ .byte 59,10 // cmp (%rdx),%ecx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b
+ .byte 190,80,128,3,62 // mov $0x3e038050,%esi
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 3f5b <.literal4+0x21b>
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 127,67 // jg 3f6f <.literal4+0x22f>
+ .byte 129,128,128,59,0,0,128,63,129,128 // addl $0x80813f80,0x3b80(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
+ .byte 0,128,63,129,128,128 // add %al,-0x7f7f7ec1(%rax)
+ .byte 59,0 // cmp (%rax),%eax
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 4151 <.literal4+0xe1>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 3f51 <.literal4+0x211>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
+ .byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 248 // clc
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 3f6d <.literal4+0x22d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 415d <.literal4+0xed>
- .byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 124,66 // jl 3fc2 <.literal4+0x282>
+ .byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0 // .byte 0x0
+ .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
+ .byte 112,65 // jo 4005 <.literal4+0x2c5>
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 127,67 // jg 4013 <.literal4+0x2d3>
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 255 // (bad)
+ .byte 127,71 // jg 4027 <.literal4+0x2e7>
+ .byte 208 // (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,89 // ds pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 152 // cwtl
+ .byte 221,147,61,0,0,0 // fstl 0x3d(%rbx)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,128,63,171 // sarb $0xab,0x3f800000(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,85 // sarb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,0,63 // mov $0x3f000000,%edi
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,85 // sarb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,57,142,99,61 // mov $0x3d638e39,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,171 // sarb $0xab,(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,128,63,171 // sarb $0xab,0x3f800000(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,85 // sarb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,0,63 // mov $0x3f000000,%edi
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,85 // sarb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,57,142,99,61 // mov $0x3d638e39,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,171 // sarb $0xab,(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,114,28,199,62 // mov $0x3ec71c72,%esi
BALIGN32
.byte 255,0 // incl (%rax)
@@ -11693,16 +11572,16 @@
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0041a8 <_sk_callback_hsw+0xa00025e>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0040c8 <_sk_callback_hsw+0xa0004ad>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120041b0 <_sk_callback_hsw+0x12000266>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120040d0 <_sk_callback_hsw+0x120004b5>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0041b8 <_sk_callback_hsw+0x1a00026e>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0040d8 <_sk_callback_hsw+0x1a0004bd>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30041c0 <_sk_callback_hsw+0x3000276>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30040e0 <_sk_callback_hsw+0x30004c5>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -11745,16 +11624,16 @@
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004208 <_sk_callback_hsw+0xa0002be>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004128 <_sk_callback_hsw+0xa00050d>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004210 <_sk_callback_hsw+0x120002c6>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004130 <_sk_callback_hsw+0x12000515>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004218 <_sk_callback_hsw+0x1a0002ce>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004138 <_sk_callback_hsw+0x1a00051d>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004220 <_sk_callback_hsw+0x30002d6>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004140 <_sk_callback_hsw+0x3000525>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -11797,16 +11676,16 @@
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004268 <_sk_callback_hsw+0xa00031e>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004188 <_sk_callback_hsw+0xa00056d>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004270 <_sk_callback_hsw+0x12000326>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004190 <_sk_callback_hsw+0x12000575>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004278 <_sk_callback_hsw+0x1a00032e>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004198 <_sk_callback_hsw+0x1a00057d>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004280 <_sk_callback_hsw+0x3000336>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30041a0 <_sk_callback_hsw+0x3000585>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -11849,16 +11728,16 @@
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0042c8 <_sk_callback_hsw+0xa00037e>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0041e8 <_sk_callback_hsw+0xa0005cd>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120042d0 <_sk_callback_hsw+0x12000386>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120041f0 <_sk_callback_hsw+0x120005d5>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0042d8 <_sk_callback_hsw+0x1a00038e>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0041f8 <_sk_callback_hsw+0x1a0005dd>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30042e0 <_sk_callback_hsw+0x3000396>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004200 <_sk_callback_hsw+0x30005e5>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -11979,14 +11858,14 @@
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,75,90,0,0 // vbroadcastss 0x5a4b(%rip),%ymm1 # 5b14 <_sk_callback_avx+0x126>
+ .byte 196,226,125,24,13,107,83,0,0 // vbroadcastss 0x536b(%rip),%ymm1 # 5434 <_sk_callback_avx+0x126>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,2 // vaddps (%rdx),%ymm0,%ymm0
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,47,90,0,0 // vbroadcastss 0x5a2f(%rip),%ymm2 # 5b18 <_sk_callback_avx+0x12a>
+ .byte 196,226,125,24,21,79,83,0,0 // vbroadcastss 0x534f(%rip),%ymm2 # 5438 <_sk_callback_avx+0x12a>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -12021,22 +11900,19 @@
.globl _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
- .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,124,92,203 // vsubps %ymm3,%ymm0,%ymm9
- .byte 197,180,89,196 // vmulps %ymm4,%ymm9,%ymm0
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 196,98,125,24,5,255,82,0,0 // vbroadcastss 0x52ff(%rip),%ymm8 # 543c <_sk_callback_avx+0x12e>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
+ .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,52,89,197 // vmulps %ymm5,%ymm9,%ymm8
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
+ .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9
+ .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1
.byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,52,89,198 // vmulps %ymm6,%ymm9,%ymm8
- .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2
+ .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9
+ .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 197,52,89,199 // vmulps %ymm7,%ymm9,%ymm8
+ .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12046,10 +11922,7 @@
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
+ .byte 196,98,125,24,13,193,82,0,0 // vbroadcastss 0x52c1(%rip),%ymm9 # 5440 <_sk_callback_avx+0x132>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -12091,10 +11964,7 @@
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,96,82,0,0 // vbroadcastss 0x5260(%rip),%ymm8 # 5444 <_sk_callback_avx+0x136>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -12107,10 +11977,7 @@
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 196,226,125,24,5,67,82,0,0 // vbroadcastss 0x5243(%rip),%ymm0 # 5448 <_sk_callback_avx+0x13a>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -12123,10 +11990,7 @@
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,38,82,0,0 // vbroadcastss 0x5226(%rip),%ymm8 # 544c <_sk_callback_avx+0x13e>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -12143,10 +12007,7 @@
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,249,81,0,0 // vbroadcastss 0x51f9(%rip),%ymm8 # 5450 <_sk_callback_avx+0x142>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -12174,15 +12035,12 @@
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,184,81,0,0 // vbroadcastss 0x51b8(%rip),%ymm8 # 5454 <_sk_callback_avx+0x146>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
+ .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
.byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
@@ -12237,15 +12095,12 @@
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,7,81,0,0 // vbroadcastss 0x5107(%rip),%ymm8 # 5458 <_sk_callback_avx+0x14a>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
+ .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10
.byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
@@ -12277,10 +12132,7 @@
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,135,80,0,0 // vbroadcastss 0x5087(%rip),%ymm8 # 545c <_sk_callback_avx+0x14e>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -12306,10 +12158,7 @@
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,51,80,0,0 // vbroadcastss 0x5033(%rip),%ymm8 # 5460 <_sk_callback_avx+0x152>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -12338,10 +12187,7 @@
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,211,79,0,0 // vbroadcastss 0x4fd3(%rip),%ymm8 # 5464 <_sk_callback_avx+0x156>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -12364,10 +12210,7 @@
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,142,79,0,0 // vbroadcastss 0x4f8e(%rip),%ymm8 # 5468 <_sk_callback_avx+0x15a>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -12378,10 +12221,7 @@
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,121,79,0,0 // vbroadcastss 0x4f79(%rip),%ymm8 # 546c <_sk_callback_avx+0x15e>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -12393,7 +12233,7 @@
.byte 196,65,68,93,237 // vminps %ymm13,%ymm7,%ymm13
.byte 196,65,68,92,237 // vsubps %ymm13,%ymm7,%ymm13
.byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 196,65,20,88,235 // vaddps %ymm11,%ymm13,%ymm13
+ .byte 196,65,36,88,237 // vaddps %ymm13,%ymm11,%ymm13
.byte 196,65,28,88,237 // vaddps %ymm13,%ymm12,%ymm13
.byte 197,28,88,224 // vaddps %ymm0,%ymm12,%ymm12
.byte 196,193,124,194,194,0 // vcmpeqps %ymm10,%ymm0,%ymm0
@@ -12443,10 +12283,7 @@
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
+ .byte 196,98,125,24,13,117,78,0,0 // vbroadcastss 0x4e75(%rip),%ymm9 # 5470 <_sk_callback_avx+0x162>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -12456,7 +12293,7 @@
.byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
+ .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12
.byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
.byte 197,20,88,232 // vaddps %ymm0,%ymm13,%ymm13
.byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0
@@ -12471,7 +12308,7 @@
.byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13
.byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
.byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
+ .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12
.byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
.byte 197,20,88,233 // vaddps %ymm1,%ymm13,%ymm13
.byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1
@@ -12503,15 +12340,12 @@
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,135,77,0,0 // vbroadcastss 0x4d87(%rip),%ymm8 # 5474 <_sk_callback_avx+0x166>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
+ .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11
.byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
.byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12
.byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
@@ -12523,7 +12357,7 @@
.byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
.byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
@@ -12537,7 +12371,7 @@
.byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
.byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
.byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
.byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
@@ -12551,7 +12385,7 @@
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
.byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -12561,15 +12395,12 @@
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,176,76,0,0 // vbroadcastss 0x4cb0(%rip),%ymm8 # 5478 <_sk_callback_avx+0x16a>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
+ .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11
.byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9
.byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12
.byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
@@ -12581,7 +12412,7 @@
.byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
.byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
.byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
.byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
@@ -12595,7 +12426,7 @@
.byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
.byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
.byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
.byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
.byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
.byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
@@ -12609,7 +12440,7 @@
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
.byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -12621,115 +12452,112 @@
_sk_softlight_avx:
.byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
.byte 197,252,40,209 // vmovaps %ymm1,%ymm2
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10
.byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8
- .byte 196,67,53,74,216,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm11
- .byte 196,65,36,88,195 // vaddps %ymm11,%ymm11,%ymm8
- .byte 196,65,60,88,224 // vaddps %ymm8,%ymm8,%ymm12
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,28,89,236 // vmulps %ymm12,%ymm12,%ymm13
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,65,36,92,232 // vsubps %ymm8,%ymm11,%ymm13
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 184,0,0,224,64 // mov $0x40e00000,%eax
- .byte 197,121,110,224 // vmovd %eax,%xmm12
- .byte 196,67,121,4,228,0 // vpermilps $0x0,%xmm12,%xmm12
- .byte 196,67,29,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm12,%ymm12
- .byte 196,65,36,89,244 // vmulps %ymm12,%ymm11,%ymm14
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,65,124,82,243 // vrsqrtps %ymm11,%ymm14
+ .byte 196,67,53,74,224,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm12
+ .byte 196,65,28,88,196 // vaddps %ymm12,%ymm12,%ymm8
+ .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
+ .byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
+ .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,29,167,75,0,0 // vbroadcastss 0x4ba7(%rip),%ymm11 # 5480 <_sk_callback_avx+0x172>
+ .byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
+ .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
+ .byte 196,98,125,24,45,152,75,0,0 // vbroadcastss 0x4b98(%rip),%ymm13 # 5484 <_sk_callback_avx+0x176>
+ .byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
+ .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
+ .byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
- .byte 196,65,12,92,243 // vsubps %ymm11,%ymm14,%ymm14
+ .byte 196,65,12,92,244 // vsubps %ymm12,%ymm14,%ymm14
.byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15
.byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
- .byte 196,67,13,74,237,240 // vblendvps %ymm15,%ymm13,%ymm14,%ymm13
+ .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
+ .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
+ .byte 196,98,125,24,5,86,75,0,0 // vbroadcastss 0x4b56(%rip),%ymm8 # 547c <_sk_callback_avx+0x16e>
+ .byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
+ .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
+ .byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 197,100,89,244 // vmulps %ymm4,%ymm3,%ymm14
+ .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
+ .byte 197,28,88,227 // vaddps %ymm3,%ymm12,%ymm12
+ .byte 197,28,89,228 // vmulps %ymm4,%ymm12,%ymm12
+ .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14
+ .byte 196,195,125,74,196,224 // vblendvps %ymm14,%ymm12,%ymm0,%ymm0
+ .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
+ .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0
+ .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
.byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14
- .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 196,65,60,92,219 // vsubps %ymm11,%ymm8,%ymm11
- .byte 196,65,4,89,219 // vmulps %ymm11,%ymm15,%ymm11
- .byte 197,36,88,219 // vaddps %ymm3,%ymm11,%ymm11
- .byte 197,36,89,220 // vmulps %ymm4,%ymm11,%ymm11
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13
- .byte 197,100,89,252 // vmulps %ymm4,%ymm3,%ymm15
- .byte 196,65,4,88,237 // vaddps %ymm13,%ymm15,%ymm13
- .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,195,21,74,203,224 // vblendvps %ymm14,%ymm11,%ymm13,%ymm1
- .byte 197,84,94,239 // vdivps %ymm7,%ymm5,%ymm13
- .byte 196,67,53,74,237,160 // vblendvps %ymm10,%ymm13,%ymm9,%ymm13
- .byte 196,65,20,88,245 // vaddps %ymm13,%ymm13,%ymm14
.byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14
.byte 196,65,12,89,254 // vmulps %ymm14,%ymm14,%ymm15
.byte 196,65,12,88,247 // vaddps %ymm15,%ymm14,%ymm14
- .byte 196,65,20,92,248 // vsubps %ymm8,%ymm13,%ymm15
+ .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15
.byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14
- .byte 196,65,28,89,253 // vmulps %ymm13,%ymm12,%ymm15
+ .byte 196,65,124,89,253 // vmulps %ymm13,%ymm0,%ymm15
.byte 196,65,4,88,246 // vaddps %ymm14,%ymm15,%ymm14
- .byte 196,65,124,82,253 // vrsqrtps %ymm13,%ymm15
+ .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15
.byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15
- .byte 196,65,4,92,253 // vsubps %ymm13,%ymm15,%ymm15
- .byte 197,84,88,221 // vaddps %ymm5,%ymm5,%ymm11
- .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
- .byte 196,67,5,74,222,176 // vblendvps %ymm11,%ymm14,%ymm15,%ymm11
- .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14
- .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
- .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,219 // vmulps %ymm11,%ymm15,%ymm11
- .byte 197,100,89,253 // vmulps %ymm5,%ymm3,%ymm15
- .byte 196,65,4,88,219 // vaddps %ymm11,%ymm15,%ymm11
- .byte 197,20,88,235 // vaddps %ymm3,%ymm13,%ymm13
- .byte 197,20,89,237 // vmulps %ymm5,%ymm13,%ymm13
- .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,67,37,74,237,224 // vblendvps %ymm14,%ymm13,%ymm11,%ymm13
- .byte 197,76,94,223 // vdivps %ymm7,%ymm6,%ymm11
- .byte 196,67,53,74,203,160 // vblendvps %ymm10,%ymm11,%ymm9,%ymm9
- .byte 196,65,52,88,209 // vaddps %ymm9,%ymm9,%ymm10
- .byte 196,65,44,88,210 // vaddps %ymm10,%ymm10,%ymm10
- .byte 196,65,44,89,218 // vmulps %ymm10,%ymm10,%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,92,216 // vsubps %ymm8,%ymm9,%ymm11
- .byte 196,65,36,89,210 // vmulps %ymm10,%ymm11,%ymm10
- .byte 196,65,28,89,217 // vmulps %ymm9,%ymm12,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 196,65,124,82,217 // vrsqrtps %ymm9,%ymm11
- .byte 196,65,124,83,219 // vrcpps %ymm11,%ymm11
- .byte 196,65,36,92,217 // vsubps %ymm9,%ymm11,%ymm11
- .byte 197,76,88,230 // vaddps %ymm6,%ymm6,%ymm12
+ .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15
+ .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
.byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
.byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 196,67,37,74,210,192 // vblendvps %ymm12,%ymm10,%ymm11,%ymm10
- .byte 197,124,16,116,36,200 // vmovups -0x38(%rsp),%ymm14
- .byte 196,65,12,88,222 // vaddps %ymm14,%ymm14,%ymm11
- .byte 197,36,92,227 // vsubps %ymm3,%ymm11,%ymm12
- .byte 196,65,60,92,201 // vsubps %ymm9,%ymm8,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 197,28,89,231 // vmulps %ymm7,%ymm12,%ymm12
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 197,100,89,230 // vmulps %ymm6,%ymm3,%ymm12
- .byte 196,65,28,88,210 // vaddps %ymm10,%ymm12,%ymm10
- .byte 197,52,88,203 // vaddps %ymm3,%ymm9,%ymm9
- .byte 197,52,89,206 // vmulps %ymm6,%ymm9,%ymm9
- .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11
+ .byte 196,67,5,74,230,192 // vblendvps %ymm12,%ymm14,%ymm15,%ymm12
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14
+ .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
+ .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
+ .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
+ .byte 196,65,4,89,228 // vmulps %ymm12,%ymm15,%ymm12
+ .byte 197,100,89,253 // vmulps %ymm5,%ymm3,%ymm15
+ .byte 196,65,4,88,228 // vaddps %ymm12,%ymm15,%ymm12
+ .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
+ .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
+ .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
+ .byte 196,99,29,74,240,224 // vblendvps %ymm14,%ymm0,%ymm12,%ymm14
+ .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0
+ .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
+ .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
+ .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
+ .byte 196,65,52,89,209 // vmulps %ymm9,%ymm9,%ymm10
+ .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
+ .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10
+ .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9
+ .byte 196,65,124,89,213 // vmulps %ymm13,%ymm0,%ymm10
+ .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
+ .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10
+ .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10
+ .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
+ .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
+ .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
+ .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
.byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9
+ .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12
+ .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10
+ .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
+ .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11
+ .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9
+ .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
+ .byte 196,65,36,88,201 // vaddps %ymm9,%ymm11,%ymm9
+ .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
+ .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
+ .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10
+ .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 197,188,89,204 // vmulps %ymm4,%ymm8,%ymm1
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
+ .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0
.byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1
.byte 197,188,89,213 // vmulps %ymm5,%ymm8,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
- .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,193,44,89,214 // vmulps %ymm14,%ymm10,%ymm2
+ .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1
+ .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2
.byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10
.byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
@@ -12754,10 +12582,7 @@
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,166,73,0,0 // vbroadcastss 0x49a6(%rip),%ymm8 # 5488 <_sk_callback_avx+0x17a>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -12769,10 +12594,7 @@
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,137,73,0,0 // vbroadcastss 0x4989(%rip),%ymm8 # 548c <_sk_callback_avx+0x17e>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -12858,10 +12680,7 @@
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
+ .byte 196,98,125,24,21,209,72,0,0 // vbroadcastss 0x48d1(%rip),%ymm10 # 5490 <_sk_callback_avx+0x182>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -12874,49 +12693,34 @@
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 184,145,131,158,61 // mov $0x3d9e8391,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,5,178,72,0,0 // vbroadcastss 0x48b2(%rip),%ymm8 # 5494 <_sk_callback_avx+0x186>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 184,154,153,153,62 // mov $0x3e99999a,%eax
- .byte 197,121,110,216 // vmovd %eax,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- .byte 184,92,143,50,63 // mov $0x3f328f5c,%eax
- .byte 197,121,110,224 // vmovd %eax,%xmm12
- .byte 196,67,121,4,228,0 // vpermilps $0x0,%xmm12,%xmm12
- .byte 196,67,29,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm12,%ymm12
- .byte 197,36,89,232 // vmulps %ymm0,%ymm11,%ymm13
- .byte 196,65,20,88,236 // vaddps %ymm12,%ymm13,%ymm13
- .byte 184,10,215,35,59 // mov $0x3b23d70a,%eax
- .byte 197,121,110,240 // vmovd %eax,%xmm14
- .byte 196,67,121,4,246,0 // vpermilps $0x0,%xmm14,%xmm14
- .byte 196,67,13,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm14,%ymm14
- .byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
- .byte 196,65,12,88,210 // vaddps %ymm10,%ymm14,%ymm10
- .byte 184,174,71,97,61 // mov $0x3d6147ae,%eax
- .byte 197,121,110,232 // vmovd %eax,%xmm13
- .byte 196,67,121,4,237,0 // vpermilps $0x0,%xmm13,%xmm13
- .byte 196,67,21,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm13,%ymm13
- .byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
+ .byte 196,98,125,24,29,164,72,0,0 // vbroadcastss 0x48a4(%rip),%ymm11 # 5498 <_sk_callback_avx+0x18a>
+ .byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
+ .byte 196,98,125,24,45,154,72,0,0 // vbroadcastss 0x489a(%rip),%ymm13 # 549c <_sk_callback_avx+0x18e>
+ .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
+ .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
+ .byte 196,98,125,24,37,139,72,0,0 // vbroadcastss 0x488b(%rip),%ymm12 # 54a0 <_sk_callback_avx+0x192>
+ .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
+ .byte 196,98,125,24,53,129,72,0,0 // vbroadcastss 0x4881(%rip),%ymm14 # 54a4 <_sk_callback_avx+0x196>
+ .byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
- .byte 197,60,89,201 // vmulps %ymm1,%ymm8,%ymm9
+ .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
- .byte 197,36,89,249 // vmulps %ymm1,%ymm11,%ymm15
- .byte 196,65,28,88,255 // vaddps %ymm15,%ymm12,%ymm15
+ .byte 196,65,116,89,251 // vmulps %ymm11,%ymm1,%ymm15
+ .byte 196,65,4,88,253 // vaddps %ymm13,%ymm15,%ymm15
.byte 196,65,44,89,215 // vmulps %ymm15,%ymm10,%ymm10
- .byte 196,65,12,88,210 // vaddps %ymm10,%ymm14,%ymm10
- .byte 196,193,116,194,205,1 // vcmpltps %ymm13,%ymm1,%ymm1
+ .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
+ .byte 196,193,116,194,206,1 // vcmpltps %ymm14,%ymm1,%ymm1
.byte 196,195,45,74,201,16 // vblendvps %ymm1,%ymm9,%ymm10,%ymm1
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
.byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
- .byte 197,36,89,210 // vmulps %ymm2,%ymm11,%ymm10
- .byte 196,65,28,88,210 // vaddps %ymm10,%ymm12,%ymm10
+ .byte 196,65,108,89,211 // vmulps %ymm11,%ymm2,%ymm10
+ .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,65,12,88,201 // vaddps %ymm9,%ymm14,%ymm9
- .byte 196,193,108,194,213,1 // vcmpltps %ymm13,%ymm2,%ymm2
+ .byte 196,65,52,88,204 // vaddps %ymm12,%ymm9,%ymm9
+ .byte 196,193,108,194,214,1 // vcmpltps %ymm14,%ymm2,%ymm2
.byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12926,62 +12730,43 @@
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,192 // vrsqrtps %ymm0,%ymm8
- .byte 196,65,124,83,232 // vrcpps %ymm8,%ymm13
- .byte 196,65,124,82,240 // vrsqrtps %ymm8,%ymm14
- .byte 184,41,92,71,65 // mov $0x41475c29,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,224 // vmulps %ymm0,%ymm8,%ymm12
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
- .byte 184,194,135,210,62 // mov $0x3ed287c2,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 184,206,111,48,63 // mov $0x3f306fce,%eax
- .byte 197,121,110,216 // vmovd %eax,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- .byte 184,168,87,202,61 // mov $0x3dca57a8,%eax
- .byte 53,0,0,0,128 // xor $0x80000000,%eax
- .byte 197,121,110,248 // vmovd %eax,%xmm15
- .byte 196,67,121,4,255,0 // vpermilps $0x0,%xmm15,%xmm15
- .byte 196,67,5,24,255,1 // vinsertf128 $0x1,%xmm15,%ymm15,%ymm15
- .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
- .byte 196,65,20,88,239 // vaddps %ymm15,%ymm13,%ymm13
- .byte 196,65,12,89,242 // vmulps %ymm10,%ymm14,%ymm14
- .byte 196,65,12,88,237 // vaddps %ymm13,%ymm14,%ymm13
- .byte 196,65,52,93,237 // vminps %ymm13,%ymm9,%ymm13
- .byte 184,4,231,140,59 // mov $0x3b8ce704,%eax
- .byte 197,121,110,240 // vmovd %eax,%xmm14
- .byte 196,67,121,4,246,0 // vpermilps $0x0,%xmm14,%xmm14
- .byte 196,67,13,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm14,%ymm14
- .byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
- .byte 196,195,21,74,196,0 // vblendvps %ymm0,%ymm12,%ymm13,%ymm0
- .byte 197,124,82,225 // vrsqrtps %ymm1,%ymm12
- .byte 196,65,124,83,236 // vrcpps %ymm12,%ymm13
- .byte 196,65,124,82,228 // vrsqrtps %ymm12,%ymm12
- .byte 196,65,36,89,237 // vmulps %ymm13,%ymm11,%ymm13
- .byte 196,65,4,88,237 // vaddps %ymm13,%ymm15,%ymm13
- .byte 196,65,44,89,228 // vmulps %ymm12,%ymm10,%ymm12
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 197,60,89,233 // vmulps %ymm1,%ymm8,%ymm13
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,193,116,194,206,1 // vcmpltps %ymm14,%ymm1,%ymm1
- .byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1
- .byte 197,124,82,226 // vrsqrtps %ymm2,%ymm12
- .byte 196,65,124,83,236 // vrcpps %ymm12,%ymm13
- .byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
- .byte 196,65,4,88,219 // vaddps %ymm11,%ymm15,%ymm11
- .byte 196,65,124,82,228 // vrsqrtps %ymm12,%ymm12
- .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
- .byte 196,193,108,194,214,1 // vcmpltps %ymm14,%ymm2,%ymm2
+ .byte 196,65,124,83,200 // vrcpps %ymm8,%ymm9
+ .byte 196,65,124,82,208 // vrsqrtps %ymm8,%ymm10
+ .byte 196,98,125,24,5,12,72,0,0 // vbroadcastss 0x480c(%rip),%ymm8 # 54a8 <_sk_callback_avx+0x19a>
+ .byte 196,65,124,89,216 // vmulps %ymm8,%ymm0,%ymm11
+ .byte 196,98,125,24,37,2,72,0,0 // vbroadcastss 0x4802(%rip),%ymm12 # 54ac <_sk_callback_avx+0x19e>
+ .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
+ .byte 196,98,125,24,45,248,71,0,0 // vbroadcastss 0x47f8(%rip),%ymm13 # 54b0 <_sk_callback_avx+0x1a2>
+ .byte 196,65,52,88,205 // vaddps %ymm13,%ymm9,%ymm9
+ .byte 196,98,125,24,53,238,71,0,0 // vbroadcastss 0x47ee(%rip),%ymm14 # 54b4 <_sk_callback_avx+0x1a6>
+ .byte 196,65,44,89,214 // vmulps %ymm14,%ymm10,%ymm10
+ .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
+ .byte 196,98,125,24,21,223,71,0,0 // vbroadcastss 0x47df(%rip),%ymm10 # 54b8 <_sk_callback_avx+0x1aa>
+ .byte 196,65,44,93,201 // vminps %ymm9,%ymm10,%ymm9
+ .byte 196,98,125,24,61,213,71,0,0 // vbroadcastss 0x47d5(%rip),%ymm15 # 54bc <_sk_callback_avx+0x1ae>
+ .byte 196,193,124,194,199,1 // vcmpltps %ymm15,%ymm0,%ymm0
+ .byte 196,195,53,74,195,0 // vblendvps %ymm0,%ymm11,%ymm9,%ymm0
+ .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
+ .byte 196,65,124,83,217 // vrcpps %ymm9,%ymm11
+ .byte 196,65,124,82,201 // vrsqrtps %ymm9,%ymm9
+ .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
+ .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
+ .byte 196,65,52,89,206 // vmulps %ymm14,%ymm9,%ymm9
+ .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
+ .byte 196,65,116,89,216 // vmulps %ymm8,%ymm1,%ymm11
+ .byte 196,65,44,93,201 // vminps %ymm9,%ymm10,%ymm9
+ .byte 196,193,116,194,207,1 // vcmpltps %ymm15,%ymm1,%ymm1
+ .byte 196,195,53,74,203,16 // vblendvps %ymm1,%ymm11,%ymm9,%ymm1
+ .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9
+ .byte 196,65,124,83,217 // vrcpps %ymm9,%ymm11
+ .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
+ .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
+ .byte 196,65,124,82,201 // vrsqrtps %ymm9,%ymm9
+ .byte 196,65,52,89,206 // vmulps %ymm14,%ymm9,%ymm9
+ .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
+ .byte 196,65,44,93,201 // vminps %ymm9,%ymm10,%ymm9
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 196,193,108,194,215,1 // vcmpltps %ymm15,%ymm2,%ymm2
.byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12995,58 +12780,40 @@
.byte 197,124,93,201 // vminps %ymm1,%ymm0,%ymm9
.byte 197,52,93,202 // vminps %ymm2,%ymm9,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,121,110,216 // vmovd %eax,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
+ .byte 196,98,125,24,29,59,71,0,0 // vbroadcastss 0x473b(%rip),%ymm11 # 54c0 <_sk_callback_avx+0x1b2>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 65,184,171,170,42,62 // mov $0x3e2aaaab,%r8d
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 65,185,0,0,192,64 // mov $0x40c00000,%r9d
- .byte 197,108,92,232 // vsubps %ymm0,%ymm2,%ymm13
- .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
- .byte 65,186,0,0,0,64 // mov $0x40000000,%r10d
- .byte 197,124,92,241 // vsubps %ymm1,%ymm0,%ymm14
- .byte 196,65,12,89,219 // vmulps %ymm11,%ymm14,%ymm11
- .byte 184,0,0,128,64 // mov $0x40800000,%eax
- .byte 197,121,110,240 // vmovd %eax,%xmm14
- .byte 196,67,121,4,246,0 // vpermilps $0x0,%xmm14,%xmm14
- .byte 196,67,13,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm14,%ymm14
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,65,121,110,242 // vmovd %r10d,%xmm14
- .byte 197,244,194,210,1 // vcmpltps %ymm2,%ymm1,%ymm2
- .byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
- .byte 196,67,121,4,246,0 // vpermilps $0x0,%xmm14,%xmm14
- .byte 196,67,13,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm14,%ymm14
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,67,37,74,221,16 // vblendvps %ymm1,%ymm13,%ymm11,%ymm11
- .byte 196,193,121,110,201 // vmovd %r9d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 196,227,21,74,201,32 // vblendvps %ymm2,%ymm1,%ymm13,%ymm1
- .byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 184,0,0,0,63 // mov $0x3f000000,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
+ .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
+ .byte 197,60,194,241,0 // vcmpeqps %ymm1,%ymm8,%ymm14
+ .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
+ .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
+ .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
+ .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
+ .byte 196,98,125,24,29,20,71,0,0 // vbroadcastss 0x4714(%rip),%ymm11 # 54cc <_sk_callback_avx+0x1be>
+ .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 196,98,125,24,29,2,71,0,0 // vbroadcastss 0x4702(%rip),%ymm11 # 54c8 <_sk_callback_avx+0x1ba>
+ .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
+ .byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
+ .byte 196,226,125,24,21,234,70,0,0 // vbroadcastss 0x46ea(%rip),%ymm2 # 54c4 <_sk_callback_avx+0x1b6>
+ .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
+ .byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
- .byte 196,227,37,74,193,0 // vblendvps %ymm0,%ymm1,%ymm11,%ymm0
+ .byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
+ .byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,99,109,24,218,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm11
- .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
- .byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
- .byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
- .byte 196,65,28,92,225 // vsubps %ymm9,%ymm12,%ymm12
- .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
+ .byte 196,98,125,24,37,209,70,0,0 // vbroadcastss 0x46d1(%rip),%ymm12 # 54d4 <_sk_callback_avx+0x1c6>
+ .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
+ .byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
+ .byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
+ .byte 196,65,36,92,217 // vsubps %ymm9,%ymm11,%ymm11
+ .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
- .byte 196,67,125,74,205,128 // vblendvps %ymm8,%ymm13,%ymm0,%ymm9
- .byte 196,195,117,74,205,128 // vblendvps %ymm8,%ymm13,%ymm1,%ymm1
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
+ .byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
+ .byte 196,98,125,24,5,148,70,0,0 // vbroadcastss 0x4694(%rip),%ymm8 # 54d0 <_sk_callback_avx+0x1c2>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13195,17 +12962,14 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,80 // jne 12e6 <_sk_scale_u8_avx+0x60>
+ .byte 117,68 // jne 1110 <_sk_scale_u8_avx+0x54>
.byte 197,122,126,0 // vmovq (%rax),%xmm8
.byte 196,66,121,49,200 // vpmovzxbd %xmm8,%xmm9
.byte 196,67,121,4,192,229 // vpermilps $0xe5,%xmm8,%xmm8
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
+ .byte 196,98,125,24,13,228,67,0,0 // vbroadcastss 0x43e4(%rip),%ymm9 # 54d8 <_sk_callback_avx+0x1ca>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -13223,9 +12987,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 12ee <_sk_scale_u8_avx+0x68>
+ .byte 117,234 // jne 1118 <_sk_scale_u8_avx+0x5c>
.byte 196,65,249,110,193 // vmovq %r9,%xmm8
- .byte 235,143 // jmp 129a <_sk_scale_u8_avx+0x14>
+ .byte 235,155 // jmp 10d0 <_sk_scale_u8_avx+0x14>
HIDDEN _sk_lerp_1_float_avx
.globl _sk_lerp_1_float_avx
@@ -13257,17 +13021,14 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,116 // jne 13ce <_sk_lerp_u8_avx+0x84>
+ .byte 117,104 // jne 11ec <_sk_lerp_u8_avx+0x78>
.byte 197,122,126,0 // vmovq (%rax),%xmm8
.byte 196,66,121,49,200 // vpmovzxbd %xmm8,%xmm9
.byte 196,67,121,4,192,229 // vpermilps $0xe5,%xmm8,%xmm8
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
+ .byte 196,98,125,24,13,48,67,0,0 // vbroadcastss 0x4330(%rip),%ymm9 # 54dc <_sk_callback_avx+0x1ce>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -13293,9 +13054,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 13d6 <_sk_lerp_u8_avx+0x8c>
+ .byte 117,234 // jne 11f4 <_sk_lerp_u8_avx+0x80>
.byte 196,65,249,110,193 // vmovq %r9,%xmm8
- .byte 233,104,255,255,255 // jmpq 135e <_sk_lerp_u8_avx+0x14>
+ .byte 233,116,255,255,255 // jmpq 1188 <_sk_lerp_u8_avx+0x14>
HIDDEN _sk_lerp_565_avx
.globl _sk_lerp_565_avx
@@ -13304,59 +13065,47 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,220,0,0,0 // jne 14e0 <_sk_lerp_565_avx+0xea>
+ .byte 15,133,174,0,0,0 // jne 12d0 <_sk_lerp_565_avx+0xbc>
.byte 196,65,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm8
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 197,185,105,219 // vpunpckhwd %xmm3,%xmm8,%xmm3
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 196,99,61,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm9
- .byte 196,98,125,24,5,246,70,0,0 // vbroadcastss 0x46f6(%rip),%ymm8 # 5b1c <_sk_callback_avx+0x12e>
- .byte 196,65,52,84,192 // vandps %ymm8,%ymm9,%ymm8
+ .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
+ .byte 196,98,125,24,5,156,66,0,0 // vbroadcastss 0x429c(%rip),%ymm8 # 54e0 <_sk_callback_avx+0x1d2>
+ .byte 196,65,100,84,192 // vandps %ymm8,%ymm3,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,60,89,211 // vmulps %ymm3,%ymm8,%ymm10
- .byte 196,98,125,24,5,206,70,0,0 // vbroadcastss 0x46ce(%rip),%ymm8 # 5b20 <_sk_callback_avx+0x132>
- .byte 196,65,52,84,192 // vandps %ymm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,60,89,219 // vmulps %ymm3,%ymm8,%ymm11
- .byte 196,98,125,24,5,166,70,0,0 // vbroadcastss 0x46a6(%rip),%ymm8 # 5b24 <_sk_callback_avx+0x136>
- .byte 196,65,52,84,192 // vandps %ymm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 196,98,125,24,13,141,66,0,0 // vbroadcastss 0x428d(%rip),%ymm9 # 54e4 <_sk_callback_avx+0x1d6>
+ .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
+ .byte 196,98,125,24,13,131,66,0,0 // vbroadcastss 0x4283(%rip),%ymm9 # 54e8 <_sk_callback_avx+0x1da>
+ .byte 196,65,100,84,201 // vandps %ymm9,%ymm3,%ymm9
+ .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
+ .byte 196,98,125,24,21,116,66,0,0 // vbroadcastss 0x4274(%rip),%ymm10 # 54ec <_sk_callback_avx+0x1de>
+ .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,21,106,66,0,0 // vbroadcastss 0x426a(%rip),%ymm10 # 54f0 <_sk_callback_avx+0x1e2>
+ .byte 196,193,100,84,218 // vandps %ymm10,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,21,92,66,0,0 // vbroadcastss 0x425c(%rip),%ymm10 # 54f4 <_sk_callback_avx+0x1e6>
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,42,66,0,0 // vbroadcastss 0x422a(%rip),%ymm3 # 54f8 <_sk_callback_avx+0x1ea>
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,17,255,255,255 // ja 140a <_sk_lerp_565_avx+0x14>
+ .byte 15,135,63,255,255,255 // ja 1228 <_sk_lerp_565_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 1550 <_sk_lerp_565_avx+0x15a>
+ .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 1340 <_sk_lerp_565_avx+0x12c>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -13368,13 +13117,13 @@
.byte 196,65,57,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm8,%xmm8
.byte 196,65,57,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm8,%xmm8
.byte 196,65,57,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm8,%xmm8
- .byte 233,189,254,255,255 // jmpq 140a <_sk_lerp_565_avx+0x14>
+ .byte 233,235,254,255,255 // jmpq 1228 <_sk_lerp_565_avx+0x14>
.byte 15,31,0 // nopl (%rax)
.byte 241 // icebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2001558 <_sk_callback_avx+0xffffffffe1ffbb6a>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2001348 <_sk_callback_avx+0xffffffffe1ffc03a>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13399,7 +13148,7 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,37,2,0,0 // jne 179f <_sk_load_tables_avx+0x233>
+ .byte 15,133,26,2,0,0 // jne 1584 <_sk_load_tables_avx+0x228>
.byte 196,65,124,16,4,184 // vmovups (%r8,%rdi,4),%ymm8
.byte 85 // push %rbp
.byte 65,87 // push %r15
@@ -13407,7 +13156,7 @@
.byte 65,85 // push %r13
.byte 65,84 // push %r12
.byte 83 // push %rbx
- .byte 197,124,40,13,206,70,0,0 // vmovaps 0x46ce(%rip),%ymm9 # 5c60 <_sk_callback_avx+0x272>
+ .byte 197,124,40,13,62,68,0,0 // vmovaps 0x443e(%rip),%ymm9 # 57c0 <_sk_callback_avx+0x4b2>
.byte 196,193,60,84,193 // vandps %ymm9,%ymm8,%ymm0
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
.byte 69,137,203 // mov %r9d,%r11d
@@ -13498,12 +13247,9 @@
.byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
.byte 196,193,97,114,210,24 // vpsrld $0x18,%xmm10,%xmm3
.byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,139,63,0,0 // vbroadcastss 0x3f8b(%rip),%ymm8 # 54fc <_sk_callback_avx+0x1ee>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13517,9 +13263,9 @@
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,200,253,255,255 // ja 1580 <_sk_load_tables_avx+0x14>
+ .byte 15,135,211,253,255,255 // ja 1370 <_sk_load_tables_avx+0x14>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,141,0,0,0 // lea 0x8d(%rip),%r10 # 1850 <_sk_load_tables_avx+0x2e4>
+ .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1634 <_sk_load_tables_avx+0x2d8>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
@@ -13542,24 +13288,25 @@
.byte 196,99,61,12,192,15 // vblendps $0xf,%ymm0,%ymm8,%ymm8
.byte 196,195,57,34,4,184,0 // vpinsrd $0x0,(%r8,%rdi,4),%xmm8,%xmm0
.byte 196,99,61,12,192,15 // vblendps $0xf,%ymm0,%ymm8,%ymm8
- .byte 233,51,253,255,255 // jmpq 1580 <_sk_load_tables_avx+0x14>
- .byte 15,31,0 // nopl (%rax)
- .byte 235,255 // jmp 1851 <_sk_load_tables_avx+0x2e5>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,173,255,255,255,153 // ljmp *-0x66000001(%rbp)
+ .byte 233,62,253,255,255 // jmpq 1370 <_sk_load_tables_avx+0x14>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 236 // in (%dx),%al
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 1869 <_sk_load_tables_avx+0x2fd>
+ .byte 222,255 // fdivrp %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,194 // inc %edx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,174,255,255,255,154 // ljmp *-0x65000001(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 126,255 // jle 164d <_sk_load_tables_avx+0x2f1>
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13571,7 +13318,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,125,2,0,0 // jne 1aff <_sk_load_tables_u16_be_avx+0x293>
+ .byte 15,133,113,2,0,0 // jne 18d7 <_sk_load_tables_u16_be_avx+0x287>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -13593,7 +13340,7 @@
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,177,109,200 // vpunpckhqdq %xmm0,%xmm9,%xmm1
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,2,68,0,0 // vmovdqa 0x4402(%rip),%xmm11 # 5ce0 <_sk_callback_avx+0x2f2>
+ .byte 197,121,111,29,126,65,0,0 // vmovdqa 0x417e(%rip),%xmm11 # 5840 <_sk_callback_avx+0x532>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,105,209 // vpunpckhwd %xmm9,%xmm0,%xmm2
@@ -13684,10 +13431,6 @@
.byte 196,129,122,16,28,50 // vmovss (%r10,%r14,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
.byte 196,195,109,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm2,%ymm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,99,101,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm10
.byte 196,193,57,109,220 // vpunpckhqdq %xmm12,%xmm8,%xmm3
.byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
.byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
@@ -13696,7 +13439,8 @@
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,98,125,24,5,60,60,0,0 // vbroadcastss 0x3c3c(%rip),%ymm8 # 5500 <_sk_callback_avx+0x1f2>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13708,29 +13452,29 @@
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 1b65 <_sk_load_tables_u16_be_avx+0x2f9>
+ .byte 116,85 // je 193d <_sk_load_tables_u16_be_avx+0x2ed>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 1b65 <_sk_load_tables_u16_be_avx+0x2f9>
+ .byte 114,72 // jb 193d <_sk_load_tables_u16_be_avx+0x2ed>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 1b72 <_sk_load_tables_u16_be_avx+0x306>
+ .byte 116,72 // je 194a <_sk_load_tables_u16_be_avx+0x2fa>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 1b72 <_sk_load_tables_u16_be_avx+0x306>
+ .byte 114,59 // jb 194a <_sk_load_tables_u16_be_avx+0x2fa>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,85,253,255,255 // je 189d <_sk_load_tables_u16_be_avx+0x31>
+ .byte 15,132,97,253,255,255 // je 1681 <_sk_load_tables_u16_be_avx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,68,253,255,255 // jb 189d <_sk_load_tables_u16_be_avx+0x31>
+ .byte 15,130,80,253,255,255 // jb 1681 <_sk_load_tables_u16_be_avx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,56,253,255,255 // jmpq 189d <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,68,253,255,255 // jmpq 1681 <_sk_load_tables_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,43,253,255,255 // jmpq 189d <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,55,253,255,255 // jmpq 1681 <_sk_load_tables_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,34,253,255,255 // jmpq 189d <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,46,253,255,255 // jmpq 1681 <_sk_load_tables_u16_be_avx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -13740,7 +13484,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,127 // lea (%rdi,%rdi,2),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,105,2,0,0 // jne 1df6 <_sk_load_tables_rgb_u16_be_avx+0x27b>
+ .byte 15,133,93,2,0,0 // jne 1bc2 <_sk_load_tables_rgb_u16_be_avx+0x26f>
.byte 196,129,122,111,4,72 // vmovdqu (%r8,%r9,2),%xmm0
.byte 196,129,122,111,84,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm2
.byte 196,129,122,111,76,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm1
@@ -13767,7 +13511,7 @@
.byte 197,185,108,202 // vpunpcklqdq %xmm2,%xmm8,%xmm1
.byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2
.byte 197,121,108,195 // vpunpcklqdq %xmm3,%xmm0,%xmm8
- .byte 197,121,111,13,239,64,0,0 // vmovdqa 0x40ef(%rip),%xmm9 # 5cf0 <_sk_callback_avx+0x302>
+ .byte 197,121,111,13,119,62,0,0 // vmovdqa 0x3e77(%rip),%xmm9 # 5850 <_sk_callback_avx+0x542>
.byte 196,193,113,219,193 // vpand %xmm9,%xmm1,%xmm0
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1
@@ -13858,11 +13602,8 @@
.byte 196,129,122,16,28,50 // vmovss (%r10,%r14,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
.byte 196,195,109,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,78,57,0,0 // vbroadcastss 0x394e(%rip),%ymm3 # 5504 <_sk_callback_avx+0x1f6>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,93 // pop %r13
@@ -13873,36 +13614,36 @@
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,129,121,196,68,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 1e0f <_sk_load_tables_rgb_u16_be_avx+0x294>
- .byte 233,178,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,5 // jne 1bdb <_sk_load_tables_rgb_u16_be_avx+0x288>
+ .byte 233,190,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,76,72,6 // vmovd 0x6(%r8,%r9,2),%xmm1
.byte 196,1,113,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 1e3e <_sk_load_tables_rgb_u16_be_avx+0x2c3>
+ .byte 114,26 // jb 1c0a <_sk_load_tables_rgb_u16_be_avx+0x2b7>
.byte 196,129,121,110,76,72,12 // vmovd 0xc(%r8,%r9,2),%xmm1
.byte 196,129,113,196,84,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 1e43 <_sk_load_tables_rgb_u16_be_avx+0x2c8>
- .byte 233,131,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,126,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 1c0f <_sk_load_tables_rgb_u16_be_avx+0x2bc>
+ .byte 233,143,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,138,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,76,72,18 // vmovd 0x12(%r8,%r9,2),%xmm1
.byte 196,1,113,196,76,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 1e72 <_sk_load_tables_rgb_u16_be_avx+0x2f7>
+ .byte 114,26 // jb 1c3e <_sk_load_tables_rgb_u16_be_avx+0x2eb>
.byte 196,129,121,110,76,72,24 // vmovd 0x18(%r8,%r9,2),%xmm1
.byte 196,129,113,196,76,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 1e77 <_sk_load_tables_rgb_u16_be_avx+0x2fc>
- .byte 233,79,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,74,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 1c43 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 233,91,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,86,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,92,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm3
.byte 196,1,97,196,92,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 1ea0 <_sk_load_tables_rgb_u16_be_avx+0x325>
+ .byte 114,20 // jb 1c6c <_sk_load_tables_rgb_u16_be_avx+0x319>
.byte 196,129,121,110,92,72,36 // vmovd 0x24(%r8,%r9,2),%xmm3
.byte 196,129,97,196,92,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 233,33,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,28,253,255,255 // jmpq 1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,45,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,40,253,255,255 // jmpq 1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
@@ -13915,11 +13656,8 @@
.byte 65,84 // push %r12
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,127,67 // mov $0x437f0000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,130,56,0,0 // vbroadcastss 0x3882(%rip),%ymm8 # 5508 <_sk_callback_avx+0x1fa>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 68,137,197 // mov %r8d,%ebp
@@ -13954,13 +13692,10 @@
.byte 196,227,121,32,197,3 // vpinsrb $0x3,%ebp,%xmm0,%xmm0
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,53,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm0
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 189,129,128,128,59 // mov $0x3b808081,%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm9
- .byte 196,193,44,89,193 // vmulps %ymm9,%ymm10,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,208,55,0,0 // vbroadcastss 0x37d0(%rip),%ymm9 # 550c <_sk_callback_avx+0x1fe>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,227,249,22,205,1 // vpextrq $0x1,%xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
@@ -13991,9 +13726,9 @@
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,227,249,22,213,1 // vpextrq $0x1,%xmm2,%rbp
.byte 65,137,233 // mov %ebp,%r9d
@@ -14024,9 +13759,9 @@
.byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2
.byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,227,249,22,221,1 // vpextrq $0x1,%xmm3,%rbp
.byte 65,137,232 // mov %ebp,%r8d
@@ -14057,7 +13792,7 @@
.byte 196,226,121,49,219 // vpmovzxbd %xmm3,%xmm3
.byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
+ .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -14119,12 +13854,9 @@
.byte 196,227,121,32,197,3 // vpinsrb $0x3,%ebp,%xmm0,%xmm0
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,53,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm0
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 189,129,128,128,59 // mov $0x3b808081,%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm9
- .byte 196,193,44,89,193 // vmulps %ymm9,%ymm10,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,246,52,0,0 // vbroadcastss 0x34f6(%rip),%ymm9 # 5510 <_sk_callback_avx+0x202>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,227,249,22,205,1 // vpextrq $0x1,%xmm1,%rbp
@@ -14156,7 +13888,7 @@
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 72,139,64,16 // mov 0x10(%rax),%rax
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -14189,7 +13921,7 @@
.byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2
.byte 196,227,61,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm8,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -14420,48 +14152,45 @@
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,23,52,0,0 // vbroadcastss 0x3417(%rip),%ymm12 # 5b28 <_sk_callback_avx+0x13a>
+ .byte 196,98,125,24,37,84,48,0,0 // vbroadcastss 0x3054(%rip),%ymm12 # 5514 <_sk_callback_avx+0x206>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,13,52,0,0 // vbroadcastss 0x340d(%rip),%ymm12 # 5b2c <_sk_callback_avx+0x13e>
+ .byte 196,98,125,24,37,74,48,0,0 // vbroadcastss 0x304a(%rip),%ymm12 # 5518 <_sk_callback_avx+0x20a>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,3,52,0,0 // vbroadcastss 0x3403(%rip),%ymm12 # 5b30 <_sk_callback_avx+0x142>
+ .byte 196,98,125,24,37,64,48,0,0 // vbroadcastss 0x3040(%rip),%ymm12 # 551c <_sk_callback_avx+0x20e>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,249,51,0,0 // vbroadcastss 0x33f9(%rip),%ymm12 # 5b34 <_sk_callback_avx+0x146>
+ .byte 196,98,125,24,37,54,48,0,0 // vbroadcastss 0x3036(%rip),%ymm12 # 5520 <_sk_callback_avx+0x212>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,239,51,0,0 // vbroadcastss 0x33ef(%rip),%ymm12 # 5b38 <_sk_callback_avx+0x14a>
+ .byte 196,98,125,24,37,44,48,0,0 // vbroadcastss 0x302c(%rip),%ymm12 # 5524 <_sk_callback_avx+0x216>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,224,51,0,0 // vbroadcastss 0x33e0(%rip),%ymm12 # 5b3c <_sk_callback_avx+0x14e>
+ .byte 196,98,125,24,37,29,48,0,0 // vbroadcastss 0x301d(%rip),%ymm12 # 5528 <_sk_callback_avx+0x21a>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,214,51,0,0 // vbroadcastss 0x33d6(%rip),%ymm12 # 5b40 <_sk_callback_avx+0x152>
+ .byte 196,98,125,24,37,19,48,0,0 // vbroadcastss 0x3013(%rip),%ymm12 # 552c <_sk_callback_avx+0x21e>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,186,51,0,0 // vbroadcastss 0x33ba(%rip),%ymm11 # 5b44 <_sk_callback_avx+0x156>
+ .byte 196,98,125,24,29,247,47,0,0 // vbroadcastss 0x2ff7(%rip),%ymm11 # 5530 <_sk_callback_avx+0x222>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,176,51,0,0 // vbroadcastss 0x33b0(%rip),%ymm11 # 5b48 <_sk_callback_avx+0x15a>
+ .byte 196,98,125,24,29,237,47,0,0 // vbroadcastss 0x2fed(%rip),%ymm11 # 5534 <_sk_callback_avx+0x226>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,161,51,0,0 // vbroadcastss 0x33a1(%rip),%ymm11 # 5b4c <_sk_callback_avx+0x15e>
+ .byte 196,98,125,24,29,222,47,0,0 // vbroadcastss 0x2fde(%rip),%ymm11 # 5538 <_sk_callback_avx+0x22a>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,151,51,0,0 // vbroadcastss 0x3397(%rip),%ymm11 # 5b50 <_sk_callback_avx+0x162>
+ .byte 196,98,125,24,29,212,47,0,0 // vbroadcastss 0x2fd4(%rip),%ymm11 # 553c <_sk_callback_avx+0x22e>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,136,51,0,0 // vbroadcastss 0x3388(%rip),%ymm10 # 5b54 <_sk_callback_avx+0x166>
+ .byte 196,98,125,24,21,197,47,0,0 // vbroadcastss 0x2fc5(%rip),%ymm10 # 5540 <_sk_callback_avx+0x232>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,188,93,192 // vminps %ymm0,%ymm8,%ymm0
+ .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,5,156,47,0,0 // vbroadcastss 0x2f9c(%rip),%ymm8 # 5544 <_sk_callback_avx+0x236>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14482,48 +14211,45 @@
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,1,51,0,0 // vbroadcastss 0x3301(%rip),%ymm12 # 5b58 <_sk_callback_avx+0x16a>
+ .byte 196,98,125,24,37,77,47,0,0 // vbroadcastss 0x2f4d(%rip),%ymm12 # 5548 <_sk_callback_avx+0x23a>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,247,50,0,0 // vbroadcastss 0x32f7(%rip),%ymm12 # 5b5c <_sk_callback_avx+0x16e>
+ .byte 196,98,125,24,37,67,47,0,0 // vbroadcastss 0x2f43(%rip),%ymm12 # 554c <_sk_callback_avx+0x23e>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,237,50,0,0 // vbroadcastss 0x32ed(%rip),%ymm12 # 5b60 <_sk_callback_avx+0x172>
+ .byte 196,98,125,24,37,57,47,0,0 // vbroadcastss 0x2f39(%rip),%ymm12 # 5550 <_sk_callback_avx+0x242>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,227,50,0,0 // vbroadcastss 0x32e3(%rip),%ymm12 # 5b64 <_sk_callback_avx+0x176>
+ .byte 196,98,125,24,37,47,47,0,0 // vbroadcastss 0x2f2f(%rip),%ymm12 # 5554 <_sk_callback_avx+0x246>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,217,50,0,0 // vbroadcastss 0x32d9(%rip),%ymm12 # 5b68 <_sk_callback_avx+0x17a>
+ .byte 196,98,125,24,37,37,47,0,0 // vbroadcastss 0x2f25(%rip),%ymm12 # 5558 <_sk_callback_avx+0x24a>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,202,50,0,0 // vbroadcastss 0x32ca(%rip),%ymm12 # 5b6c <_sk_callback_avx+0x17e>
+ .byte 196,98,125,24,37,22,47,0,0 // vbroadcastss 0x2f16(%rip),%ymm12 # 555c <_sk_callback_avx+0x24e>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,192,50,0,0 // vbroadcastss 0x32c0(%rip),%ymm12 # 5b70 <_sk_callback_avx+0x182>
+ .byte 196,98,125,24,37,12,47,0,0 // vbroadcastss 0x2f0c(%rip),%ymm12 # 5560 <_sk_callback_avx+0x252>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,164,50,0,0 // vbroadcastss 0x32a4(%rip),%ymm11 # 5b74 <_sk_callback_avx+0x186>
+ .byte 196,98,125,24,29,240,46,0,0 // vbroadcastss 0x2ef0(%rip),%ymm11 # 5564 <_sk_callback_avx+0x256>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,154,50,0,0 // vbroadcastss 0x329a(%rip),%ymm11 # 5b78 <_sk_callback_avx+0x18a>
+ .byte 196,98,125,24,29,230,46,0,0 // vbroadcastss 0x2ee6(%rip),%ymm11 # 5568 <_sk_callback_avx+0x25a>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,139,50,0,0 // vbroadcastss 0x328b(%rip),%ymm11 # 5b7c <_sk_callback_avx+0x18e>
+ .byte 196,98,125,24,29,215,46,0,0 // vbroadcastss 0x2ed7(%rip),%ymm11 # 556c <_sk_callback_avx+0x25e>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,129,50,0,0 // vbroadcastss 0x3281(%rip),%ymm11 # 5b80 <_sk_callback_avx+0x192>
+ .byte 196,98,125,24,29,205,46,0,0 // vbroadcastss 0x2ecd(%rip),%ymm11 # 5570 <_sk_callback_avx+0x262>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,114,50,0,0 // vbroadcastss 0x3272(%rip),%ymm10 # 5b84 <_sk_callback_avx+0x196>
+ .byte 196,98,125,24,21,190,46,0,0 // vbroadcastss 0x2ebe(%rip),%ymm10 # 5574 <_sk_callback_avx+0x266>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,188,93,201 // vminps %ymm1,%ymm8,%ymm1
+ .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
+ .byte 196,98,125,24,5,149,46,0,0 // vbroadcastss 0x2e95(%rip),%ymm8 # 5578 <_sk_callback_avx+0x26a>
+ .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14544,48 +14270,45 @@
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,235,49,0,0 // vbroadcastss 0x31eb(%rip),%ymm12 # 5b88 <_sk_callback_avx+0x19a>
+ .byte 196,98,125,24,37,70,46,0,0 // vbroadcastss 0x2e46(%rip),%ymm12 # 557c <_sk_callback_avx+0x26e>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,225,49,0,0 // vbroadcastss 0x31e1(%rip),%ymm12 # 5b8c <_sk_callback_avx+0x19e>
+ .byte 196,98,125,24,37,60,46,0,0 // vbroadcastss 0x2e3c(%rip),%ymm12 # 5580 <_sk_callback_avx+0x272>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,215,49,0,0 // vbroadcastss 0x31d7(%rip),%ymm12 # 5b90 <_sk_callback_avx+0x1a2>
+ .byte 196,98,125,24,37,50,46,0,0 // vbroadcastss 0x2e32(%rip),%ymm12 # 5584 <_sk_callback_avx+0x276>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,205,49,0,0 // vbroadcastss 0x31cd(%rip),%ymm12 # 5b94 <_sk_callback_avx+0x1a6>
+ .byte 196,98,125,24,37,40,46,0,0 // vbroadcastss 0x2e28(%rip),%ymm12 # 5588 <_sk_callback_avx+0x27a>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,195,49,0,0 // vbroadcastss 0x31c3(%rip),%ymm12 # 5b98 <_sk_callback_avx+0x1aa>
+ .byte 196,98,125,24,37,30,46,0,0 // vbroadcastss 0x2e1e(%rip),%ymm12 # 558c <_sk_callback_avx+0x27e>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,180,49,0,0 // vbroadcastss 0x31b4(%rip),%ymm12 # 5b9c <_sk_callback_avx+0x1ae>
+ .byte 196,98,125,24,37,15,46,0,0 // vbroadcastss 0x2e0f(%rip),%ymm12 # 5590 <_sk_callback_avx+0x282>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,170,49,0,0 // vbroadcastss 0x31aa(%rip),%ymm12 # 5ba0 <_sk_callback_avx+0x1b2>
+ .byte 196,98,125,24,37,5,46,0,0 // vbroadcastss 0x2e05(%rip),%ymm12 # 5594 <_sk_callback_avx+0x286>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,142,49,0,0 // vbroadcastss 0x318e(%rip),%ymm11 # 5ba4 <_sk_callback_avx+0x1b6>
+ .byte 196,98,125,24,29,233,45,0,0 // vbroadcastss 0x2de9(%rip),%ymm11 # 5598 <_sk_callback_avx+0x28a>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,132,49,0,0 // vbroadcastss 0x3184(%rip),%ymm11 # 5ba8 <_sk_callback_avx+0x1ba>
+ .byte 196,98,125,24,29,223,45,0,0 // vbroadcastss 0x2ddf(%rip),%ymm11 # 559c <_sk_callback_avx+0x28e>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,117,49,0,0 // vbroadcastss 0x3175(%rip),%ymm11 # 5bac <_sk_callback_avx+0x1be>
+ .byte 196,98,125,24,29,208,45,0,0 // vbroadcastss 0x2dd0(%rip),%ymm11 # 55a0 <_sk_callback_avx+0x292>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,107,49,0,0 // vbroadcastss 0x316b(%rip),%ymm11 # 5bb0 <_sk_callback_avx+0x1c2>
+ .byte 196,98,125,24,29,198,45,0,0 // vbroadcastss 0x2dc6(%rip),%ymm11 # 55a4 <_sk_callback_avx+0x296>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,92,49,0,0 // vbroadcastss 0x315c(%rip),%ymm10 # 5bb4 <_sk_callback_avx+0x1c6>
+ .byte 196,98,125,24,21,183,45,0,0 // vbroadcastss 0x2db7(%rip),%ymm10 # 55a8 <_sk_callback_avx+0x29a>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,108,95,192 // vmaxps %ymm8,%ymm2,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,188,93,210 // vminps %ymm2,%ymm8,%ymm2
+ .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,24,5,142,45,0,0 // vbroadcastss 0x2d8e(%rip),%ymm8 # 55ac <_sk_callback_avx+0x29e>
+ .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14606,48 +14329,45 @@
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,213,48,0,0 // vbroadcastss 0x30d5(%rip),%ymm12 # 5bb8 <_sk_callback_avx+0x1ca>
+ .byte 196,98,125,24,37,63,45,0,0 // vbroadcastss 0x2d3f(%rip),%ymm12 # 55b0 <_sk_callback_avx+0x2a2>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,203,48,0,0 // vbroadcastss 0x30cb(%rip),%ymm12 # 5bbc <_sk_callback_avx+0x1ce>
+ .byte 196,98,125,24,37,53,45,0,0 // vbroadcastss 0x2d35(%rip),%ymm12 # 55b4 <_sk_callback_avx+0x2a6>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,193,48,0,0 // vbroadcastss 0x30c1(%rip),%ymm12 # 5bc0 <_sk_callback_avx+0x1d2>
+ .byte 196,98,125,24,37,43,45,0,0 // vbroadcastss 0x2d2b(%rip),%ymm12 # 55b8 <_sk_callback_avx+0x2aa>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,183,48,0,0 // vbroadcastss 0x30b7(%rip),%ymm12 # 5bc4 <_sk_callback_avx+0x1d6>
+ .byte 196,98,125,24,37,33,45,0,0 // vbroadcastss 0x2d21(%rip),%ymm12 # 55bc <_sk_callback_avx+0x2ae>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,173,48,0,0 // vbroadcastss 0x30ad(%rip),%ymm12 # 5bc8 <_sk_callback_avx+0x1da>
+ .byte 196,98,125,24,37,23,45,0,0 // vbroadcastss 0x2d17(%rip),%ymm12 # 55c0 <_sk_callback_avx+0x2b2>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,158,48,0,0 // vbroadcastss 0x309e(%rip),%ymm12 # 5bcc <_sk_callback_avx+0x1de>
+ .byte 196,98,125,24,37,8,45,0,0 // vbroadcastss 0x2d08(%rip),%ymm12 # 55c4 <_sk_callback_avx+0x2b6>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,148,48,0,0 // vbroadcastss 0x3094(%rip),%ymm12 # 5bd0 <_sk_callback_avx+0x1e2>
+ .byte 196,98,125,24,37,254,44,0,0 // vbroadcastss 0x2cfe(%rip),%ymm12 # 55c8 <_sk_callback_avx+0x2ba>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,120,48,0,0 // vbroadcastss 0x3078(%rip),%ymm11 # 5bd4 <_sk_callback_avx+0x1e6>
+ .byte 196,98,125,24,29,226,44,0,0 // vbroadcastss 0x2ce2(%rip),%ymm11 # 55cc <_sk_callback_avx+0x2be>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,110,48,0,0 // vbroadcastss 0x306e(%rip),%ymm11 # 5bd8 <_sk_callback_avx+0x1ea>
+ .byte 196,98,125,24,29,216,44,0,0 // vbroadcastss 0x2cd8(%rip),%ymm11 # 55d0 <_sk_callback_avx+0x2c2>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,95,48,0,0 // vbroadcastss 0x305f(%rip),%ymm11 # 5bdc <_sk_callback_avx+0x1ee>
+ .byte 196,98,125,24,29,201,44,0,0 // vbroadcastss 0x2cc9(%rip),%ymm11 # 55d4 <_sk_callback_avx+0x2c6>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,85,48,0,0 // vbroadcastss 0x3055(%rip),%ymm11 # 5be0 <_sk_callback_avx+0x1f2>
+ .byte 196,98,125,24,29,191,44,0,0 // vbroadcastss 0x2cbf(%rip),%ymm11 # 55d8 <_sk_callback_avx+0x2ca>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,70,48,0,0 // vbroadcastss 0x3046(%rip),%ymm10 # 5be4 <_sk_callback_avx+0x1f6>
+ .byte 196,98,125,24,21,176,44,0,0 // vbroadcastss 0x2cb0(%rip),%ymm10 # 55dc <_sk_callback_avx+0x2ce>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,100,95,192 // vmaxps %ymm8,%ymm3,%ymm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,188,93,219 // vminps %ymm3,%ymm8,%ymm3
+ .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
+ .byte 196,98,125,24,5,135,44,0,0 // vbroadcastss 0x2c87(%rip),%ymm8 # 55e0 <_sk_callback_avx+0x2d2>
+ .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14655,85 +14375,49 @@
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 184,0,0,200,66 // mov $0x42c80000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,124,89,201 // vmulps %ymm1,%ymm0,%ymm9
- .byte 184,0,0,0,67 // mov $0x43000000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,52,92,201 // vsubps %ymm1,%ymm9,%ymm9
- .byte 197,252,89,194 // vmulps %ymm2,%ymm0,%ymm0
- .byte 197,124,92,209 // vsubps %ymm1,%ymm0,%ymm10
- .byte 184,0,0,128,65 // mov $0x41800000,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 184,203,61,13,60 // mov $0x3c0d3dcb,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,252,89,194 // vmulps %ymm2,%ymm0,%ymm0
- .byte 184,111,18,3,59 // mov $0x3b03126f,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
- .byte 197,252,88,210 // vaddps %ymm2,%ymm0,%ymm2
- .byte 184,10,215,163,59 // mov $0x3ba3d70a,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 197,124,92,193 // vsubps %ymm1,%ymm0,%ymm8
- .byte 197,236,89,202 // vmulps %ymm2,%ymm2,%ymm1
- .byte 197,108,89,201 // vmulps %ymm1,%ymm2,%ymm9
- .byte 184,194,24,17,60 // mov $0x3c1118c2,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm10
- .byte 196,65,44,194,217,1 // vcmpltps %ymm9,%ymm10,%ymm11
- .byte 184,203,61,13,62 // mov $0x3e0d3dcb,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,225,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm12
- .byte 196,193,108,92,204 // vsubps %ymm12,%ymm2,%ymm1
- .byte 184,80,128,3,62 // mov $0x3e038050,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,67,117,74,201,176 // vblendvps %ymm11,%ymm9,%ymm1,%ymm9
+ .byte 196,98,125,24,5,121,44,0,0 // vbroadcastss 0x2c79(%rip),%ymm8 # 55e4 <_sk_callback_avx+0x2d6>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,5,111,44,0,0 // vbroadcastss 0x2c6f(%rip),%ymm8 # 55e8 <_sk_callback_avx+0x2da>
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,98,125,24,13,101,44,0,0 // vbroadcastss 0x2c65(%rip),%ymm9 # 55ec <_sk_callback_avx+0x2de>
+ .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
+ .byte 196,98,125,24,5,81,44,0,0 // vbroadcastss 0x2c51(%rip),%ymm8 # 55f0 <_sk_callback_avx+0x2e2>
+ .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,5,71,44,0,0 // vbroadcastss 0x2c47(%rip),%ymm8 # 55f4 <_sk_callback_avx+0x2e6>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,5,61,44,0,0 // vbroadcastss 0x2c3d(%rip),%ymm8 # 55f8 <_sk_callback_avx+0x2ea>
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
+ .byte 196,98,125,24,5,47,44,0,0 // vbroadcastss 0x2c2f(%rip),%ymm8 # 55fc <_sk_callback_avx+0x2ee>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
+ .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
+ .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
+ .byte 196,98,125,24,13,24,44,0,0 // vbroadcastss 0x2c18(%rip),%ymm9 # 5600 <_sk_callback_avx+0x2f2>
+ .byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
+ .byte 196,98,125,24,29,13,44,0,0 // vbroadcastss 0x2c0d(%rip),%ymm11 # 5604 <_sk_callback_avx+0x2f6>
+ .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 196,98,125,24,37,3,44,0,0 // vbroadcastss 0x2c03(%rip),%ymm12 # 5608 <_sk_callback_avx+0x2fa>
+ .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
+ .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
.byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
- .byte 197,44,194,217,1 // vcmpltps %ymm1,%ymm10,%ymm11
- .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0
- .byte 197,252,89,194 // vmulps %ymm2,%ymm0,%ymm0
- .byte 196,227,125,74,201,176 // vblendvps %ymm11,%ymm1,%ymm0,%ymm1
- .byte 196,193,60,89,192 // vmulps %ymm8,%ymm8,%ymm0
+ .byte 197,52,194,209,1 // vcmpltps %ymm1,%ymm9,%ymm10
+ .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
+ .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
+ .byte 197,236,89,194 // vmulps %ymm2,%ymm2,%ymm0
+ .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
+ .byte 197,52,194,200,1 // vcmpltps %ymm0,%ymm9,%ymm9
+ .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
+ .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
+ .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
+ .byte 196,226,125,24,5,185,43,0,0 // vbroadcastss 0x2bb9(%rip),%ymm0 # 560c <_sk_callback_avx+0x2fe>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,44,194,208,1 // vcmpltps %ymm0,%ymm10,%ymm10
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,99,109,74,192,160 // vblendvps %ymm10,%ymm0,%ymm2,%ymm8
- .byte 184,31,215,118,63 // mov $0x3f76d71f,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 184,246,64,83,63 // mov $0x3f5340f6,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,5,176,43,0,0 // vbroadcastss 0x2bb0(%rip),%ymm8 # 5610 <_sk_callback_avx+0x302>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14746,17 +14430,14 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,74 // jne 2dc3 <_sk_load_a8_avx+0x5a>
+ .byte 117,62 // jne 2ab7 <_sk_load_a8_avx+0x4e>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,121,49,200 // vpmovzxbd %xmm0,%xmm1
.byte 196,227,121,4,192,229 // vpermilps $0xe5,%xmm0,%xmm0
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,116,43,0,0 // vbroadcastss 0x2b74(%rip),%ymm1 # 5614 <_sk_callback_avx+0x306>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -14773,9 +14454,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 2dcb <_sk_load_a8_avx+0x62>
+ .byte 117,234 // jne 2abf <_sk_load_a8_avx+0x56>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,149 // jmp 2d7d <_sk_load_a8_avx+0x14>
+ .byte 235,161 // jmp 2a7d <_sk_load_a8_avx+0x14>
HIDDEN _sk_gather_a8_avx
.globl _sk_gather_a8_avx
@@ -14825,10 +14506,7 @@
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,105,42,0,0 // vbroadcastss 0x2a69(%rip),%ymm1 # 5618 <_sk_callback_avx+0x30a>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -14845,61 +14523,57 @@
FUNCTION(_sk_store_a8_avx)
_sk_store_a8_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,68,42,0,0 // vbroadcastss 0x2a44(%rip),%ymm8 # 561c <_sk_callback_avx+0x30e>
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 2f24 <_sk_store_a8_avx+0x42>
- .byte 196,65,123,17,4,57 // vmovsd %xmm8,(%r9,%rdi,1)
+ .byte 117,10 // jne 2c01 <_sk_store_a8_avx+0x37>
+ .byte 196,65,123,17,4,58 // vmovsd %xmm8,(%r10,%rdi,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 2f20 <_sk_store_a8_avx+0x3e>
+ .byte 119,236 // ja 2bfd <_sk_store_a8_avx+0x33>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,68,0,0,0 // lea 0x44(%rip),%r8 # 2f88 <_sk_store_a8_avx+0xa6>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,67,0,0,0 // lea 0x43(%rip),%r9 # 2c64 <_sk_store_a8_avx+0x9a>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,68,57,6,12 // vpextrb $0xc,%xmm8,0x6(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,5,10 // vpextrb $0xa,%xmm8,0x5(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,4,8 // vpextrb $0x8,%xmm8,0x4(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,3,6 // vpextrb $0x6,%xmm8,0x3(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rdi,1)
- .byte 196,67,121,20,68,57,1,2 // vpextrb $0x2,%xmm8,0x1(%r9,%rdi,1)
- .byte 196,67,121,20,4,57,0 // vpextrb $0x0,%xmm8,(%r9,%rdi,1)
- .byte 235,154 // jmp 2f20 <_sk_store_a8_avx+0x3e>
- .byte 102,144 // xchg %ax,%ax
- .byte 245 // cmc
+ .byte 196,67,121,20,68,58,6,12 // vpextrb $0xc,%xmm8,0x6(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,5,10 // vpextrb $0xa,%xmm8,0x5(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,4,8 // vpextrb $0x8,%xmm8,0x4(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,3,6 // vpextrb $0x6,%xmm8,0x3(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,2,4 // vpextrb $0x4,%xmm8,0x2(%r10,%rdi,1)
+ .byte 196,67,121,20,68,58,1,2 // vpextrb $0x2,%xmm8,0x1(%r10,%rdi,1)
+ .byte 196,67,121,20,4,58,0 // vpextrb $0x0,%xmm8,(%r10,%rdi,1)
+ .byte 235,154 // jmp 2bfd <_sk_store_a8_avx+0x33>
+ .byte 144 // nop
+ .byte 246,255 // idiv %bh
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 238 // out %al,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,230 // jmpq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 237 // in (%dx),%eax
+ .byte 222,255 // fdivrp %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
+ .byte 255,206 // dec %esi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
+ .byte 255,198 // inc %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -14913,23 +14587,17 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,91 // jne 300f <_sk_load_g8_avx+0x6b>
+ .byte 117,67 // jne 2cd3 <_sk_load_g8_avx+0x53>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,121,49,200 // vpmovzxbd %xmm0,%xmm1
.byte 196,227,121,4,192,229 // vpermilps $0xe5,%xmm0,%xmm0
.byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,105,41,0,0 // vbroadcastss 0x2969(%rip),%ymm1 # 5620 <_sk_callback_avx+0x312>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,94,41,0,0 // vbroadcastss 0x295e(%rip),%ymm3 # 5624 <_sk_callback_avx+0x316>
.byte 76,137,193 // mov %r8,%rcx
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -14943,9 +14611,9 @@
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 3017 <_sk_load_g8_avx+0x73>
+ .byte 117,234 // jne 2cdb <_sk_load_g8_avx+0x5b>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,132 // jmp 2fb8 <_sk_load_g8_avx+0x14>
+ .byte 235,156 // jmp 2c94 <_sk_load_g8_avx+0x14>
HIDDEN _sk_gather_g8_avx
.globl _sk_gather_g8_avx
@@ -14995,16 +14663,10 @@
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,93,40,0,0 // vbroadcastss 0x285d(%rip),%ymm1 # 5628 <_sk_callback_avx+0x31a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,82,40,0,0 // vbroadcastss 0x2852(%rip),%ymm3 # 562c <_sk_callback_avx+0x31e>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -15020,9 +14682,9 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 314e <_sk_gather_i8_avx+0xf>
+ .byte 116,5 // je 2dfa <_sk_gather_i8_avx+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 3150 <_sk_gather_i8_avx+0x11>
+ .byte 235,2 // jmp 2dfc <_sk_gather_i8_avx+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,87 // push %r15
.byte 65,86 // push %r14
@@ -15084,13 +14746,10 @@
.byte 196,163,121,34,4,163,2 // vpinsrd $0x2,(%rbx,%r12,4),%xmm0,%xmm0
.byte 196,163,121,34,28,19,3 // vpinsrd $0x3,(%rbx,%r10,1),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,6,42,0,0 // vmovaps 0x2a06(%rip),%ymm10 # 5c80 <_sk_callback_avx+0x292>
+ .byte 197,124,40,21,186,40,0,0 // vmovaps 0x28ba(%rip),%ymm10 # 57e0 <_sk_callback_avx+0x4d2>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm9
+ .byte 196,98,125,24,13,248,38,0,0 // vbroadcastss 0x26f8(%rip),%ymm9 # 5630 <_sk_callback_avx+0x322>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -15124,50 +14783,38 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,176,0,0,0 // jne 33c0 <_sk_load_565_avx+0xbe>
+ .byte 15,133,128,0,0,0 // jne 3030 <_sk_load_565_avx+0x8e>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2
- .byte 196,226,125,24,5,182,40,0,0 // vbroadcastss 0x28b6(%rip),%ymm0 # 5be8 <_sk_callback_avx+0x1fa>
+ .byte 196,226,125,24,5,98,38,0,0 // vbroadcastss 0x2662(%rip),%ymm0 # 5634 <_sk_callback_avx+0x326>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,85,38,0,0 // vbroadcastss 0x2655(%rip),%ymm1 # 5638 <_sk_callback_avx+0x32a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,144,40,0,0 // vbroadcastss 0x2890(%rip),%ymm1 # 5bec <_sk_callback_avx+0x1fe>
+ .byte 196,226,125,24,13,76,38,0,0 // vbroadcastss 0x264c(%rip),%ymm1 # 563c <_sk_callback_avx+0x32e>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
+ .byte 196,226,125,24,29,63,38,0,0 // vbroadcastss 0x263f(%rip),%ymm3 # 5640 <_sk_callback_avx+0x332>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,106,40,0,0 // vbroadcastss 0x286a(%rip),%ymm3 # 5bf0 <_sk_callback_avx+0x202>
+ .byte 196,226,125,24,29,54,38,0,0 // vbroadcastss 0x2636(%rip),%ymm3 # 5644 <_sk_callback_avx+0x336>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
+ .byte 196,226,125,24,29,41,38,0,0 // vbroadcastss 0x2629(%rip),%ymm3 # 5648 <_sk_callback_avx+0x33a>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,30,38,0,0 // vbroadcastss 0x261e(%rip),%ymm3 # 564c <_sk_callback_avx+0x33e>
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,62,255,255,255 // ja 3316 <_sk_load_565_avx+0x14>
+ .byte 15,135,110,255,255,255 // ja 2fb6 <_sk_load_565_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 342c <_sk_load_565_avx+0x12a>
+ .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 309c <_sk_load_565_avx+0xfa>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15179,7 +14826,7 @@
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,234,254,255,255 // jmpq 3316 <_sk_load_565_avx+0x14>
+ .byte 233,26,255,255,255 // jmpq 2fb6 <_sk_load_565_avx+0x14>
.byte 244 // hlt
.byte 255 // (bad)
.byte 255 // (bad)
@@ -15257,35 +14904,23 @@
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm2
- .byte 196,226,125,24,5,210,38,0,0 // vbroadcastss 0x26d2(%rip),%ymm0 # 5bf4 <_sk_callback_avx+0x206>
+ .byte 196,226,125,24,5,190,36,0,0 // vbroadcastss 0x24be(%rip),%ymm0 # 5650 <_sk_callback_avx+0x342>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,177,36,0,0 // vbroadcastss 0x24b1(%rip),%ymm1 # 5654 <_sk_callback_avx+0x346>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,172,38,0,0 // vbroadcastss 0x26ac(%rip),%ymm1 # 5bf8 <_sk_callback_avx+0x20a>
+ .byte 196,226,125,24,13,168,36,0,0 // vbroadcastss 0x24a8(%rip),%ymm1 # 5658 <_sk_callback_avx+0x34a>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
+ .byte 196,226,125,24,29,155,36,0,0 // vbroadcastss 0x249b(%rip),%ymm3 # 565c <_sk_callback_avx+0x34e>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,134,38,0,0 // vbroadcastss 0x2686(%rip),%ymm3 # 5bfc <_sk_callback_avx+0x20e>
+ .byte 196,226,125,24,29,146,36,0,0 // vbroadcastss 0x2492(%rip),%ymm3 # 5660 <_sk_callback_avx+0x352>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
+ .byte 196,226,125,24,29,133,36,0,0 // vbroadcastss 0x2485(%rip),%ymm3 # 5664 <_sk_callback_avx+0x356>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,122,36,0,0 // vbroadcastss 0x247a(%rip),%ymm3 # 5668 <_sk_callback_avx+0x35a>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -15298,76 +14933,71 @@
FUNCTION(_sk_store_565_avx)
_sk_store_565_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,248,65 // mov $0x41f80000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,102,36,0,0 // vbroadcastss 0x2466(%rip),%ymm8 # 566c <_sk_callback_avx+0x35e>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 184,0,0,124,66 // mov $0x427c0000,%eax
- .byte 197,121,110,208 // vmovd %eax,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10
+ .byte 196,98,125,24,21,63,36,0,0 // vbroadcastss 0x243f(%rip),%ymm10 # 5670 <_sk_callback_avx+0x362>
+ .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
.byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3656 <_sk_store_565_avx+0x9e>
- .byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
+ .byte 117,10 // jne 3281 <_sk_store_565_avx+0x89>
+ .byte 196,65,122,127,4,122 // vmovdqu %xmm8,(%r10,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 3652 <_sk_store_565_avx+0x9a>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,67,0,0,0 // lea 0x43(%rip),%r8 # 36b4 <_sk_store_565_avx+0xfc>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 119,236 // ja 327d <_sk_store_565_avx+0x85>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,68,0,0,0 // lea 0x44(%rip),%r9 # 32e0 <_sk_store_565_avx+0xe8>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,68,121,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,6,3 // vpextrw $0x3,%xmm8,0x6(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
- .byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 3652 <_sk_store_565_avx+0x9a>
- .byte 144 // nop
- .byte 246,255 // idiv %bh
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
+ .byte 196,67,121,21,68,122,12,6 // vpextrw $0x6,%xmm8,0xc(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,10,5 // vpextrw $0x5,%xmm8,0xa(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,8,4 // vpextrw $0x4,%xmm8,0x8(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,6,3 // vpextrw $0x3,%xmm8,0x6(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,4,2 // vpextrw $0x2,%xmm8,0x4(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,2,1 // vpextrw $0x1,%xmm8,0x2(%r10,%rdi,2)
+ .byte 196,67,121,21,4,122,0 // vpextrw $0x0,%xmm8,(%r10,%rdi,2)
+ .byte 235,159 // jmp 327d <_sk_store_565_avx+0x85>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 245 // cmc
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,206 // dec %esi
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,198 // inc %esi
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15379,44 +15009,32 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,198,0,0,0 // jne 37a4 <_sk_load_4444_avx+0xd4>
+ .byte 15,133,152,0,0,0 // jne 33a2 <_sk_load_4444_avx+0xa6>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3
- .byte 196,226,125,24,5,0,37,0,0 // vbroadcastss 0x2500(%rip),%ymm0 # 5c00 <_sk_callback_avx+0x212>
+ .byte 196,226,125,24,5,72,35,0,0 // vbroadcastss 0x2348(%rip),%ymm0 # 5674 <_sk_callback_avx+0x366>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,59,35,0,0 // vbroadcastss 0x233b(%rip),%ymm1 # 5678 <_sk_callback_avx+0x36a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,218,36,0,0 // vbroadcastss 0x24da(%rip),%ymm1 # 5c04 <_sk_callback_avx+0x216>
+ .byte 196,226,125,24,13,50,35,0,0 // vbroadcastss 0x2332(%rip),%ymm1 # 567c <_sk_callback_avx+0x36e>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
+ .byte 196,226,125,24,21,37,35,0,0 // vbroadcastss 0x2325(%rip),%ymm2 # 5680 <_sk_callback_avx+0x372>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,180,36,0,0 // vbroadcastss 0x24b4(%rip),%ymm2 # 5c08 <_sk_callback_avx+0x21a>
+ .byte 196,226,125,24,21,28,35,0,0 // vbroadcastss 0x231c(%rip),%ymm2 # 5684 <_sk_callback_avx+0x376>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
- .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,142,36,0,0 // vbroadcastss 0x248e(%rip),%ymm8 # 5c0c <_sk_callback_avx+0x21e>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,98,125,24,5,15,35,0,0 // vbroadcastss 0x230f(%rip),%ymm8 # 5688 <_sk_callback_avx+0x37a>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,24,5,5,35,0,0 // vbroadcastss 0x2305(%rip),%ymm8 # 568c <_sk_callback_avx+0x37e>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,247,34,0,0 // vbroadcastss 0x22f7(%rip),%ymm8 # 5690 <_sk_callback_avx+0x382>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
@@ -15424,9 +15042,9 @@
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,40,255,255,255 // ja 36e4 <_sk_load_4444_avx+0x14>
+ .byte 15,135,86,255,255,255 // ja 3310 <_sk_load_4444_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 3810 <_sk_load_4444_avx+0x140>
+ .byte 76,141,13,75,0,0,0 // lea 0x4b(%rip),%r9 # 3410 <_sk_load_4444_avx+0x114>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15438,27 +15056,28 @@
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,212,254,255,255 // jmpq 36e4 <_sk_load_4444_avx+0x14>
- .byte 244 // hlt
+ .byte 233,2,255,255,255 // jmpq 3310 <_sk_load_4444_avx+0x14>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 242,255 // repnz (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 234 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 236 // in (%dx),%al
+ .byte 218,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,210 // callq *%rdx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
+ .byte 190 // .byte 0xbe
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15516,38 +15135,26 @@
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm3
- .byte 196,226,125,24,5,10,35,0,0 // vbroadcastss 0x230a(%rip),%ymm0 # 5c10 <_sk_callback_avx+0x222>
+ .byte 196,226,125,24,5,142,33,0,0 // vbroadcastss 0x218e(%rip),%ymm0 # 5694 <_sk_callback_avx+0x386>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,129,33,0,0 // vbroadcastss 0x2181(%rip),%ymm1 # 5698 <_sk_callback_avx+0x38a>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,228,34,0,0 // vbroadcastss 0x22e4(%rip),%ymm1 # 5c14 <_sk_callback_avx+0x226>
+ .byte 196,226,125,24,13,120,33,0,0 // vbroadcastss 0x2178(%rip),%ymm1 # 569c <_sk_callback_avx+0x38e>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
+ .byte 196,226,125,24,21,107,33,0,0 // vbroadcastss 0x216b(%rip),%ymm2 # 56a0 <_sk_callback_avx+0x392>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,190,34,0,0 // vbroadcastss 0x22be(%rip),%ymm2 # 5c18 <_sk_callback_avx+0x22a>
+ .byte 196,226,125,24,21,98,33,0,0 // vbroadcastss 0x2162(%rip),%ymm2 # 56a4 <_sk_callback_avx+0x396>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
- .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,227,121,4,210,0 // vpermilps $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,152,34,0,0 // vbroadcastss 0x2298(%rip),%ymm8 # 5c1c <_sk_callback_avx+0x22e>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,98,125,24,5,85,33,0,0 // vbroadcastss 0x2155(%rip),%ymm8 # 56a8 <_sk_callback_avx+0x39a>
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,98,125,24,5,75,33,0,0 // vbroadcastss 0x214b(%rip),%ymm8 # 56ac <_sk_callback_avx+0x39e>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
- .byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,61,33,0,0 // vbroadcastss 0x213d(%rip),%ymm8 # 56b0 <_sk_callback_avx+0x3a2>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -15561,80 +15168,75 @@
FUNCTION(_sk_store_4444_avx)
_sk_store_4444_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,112,65 // mov $0x41700000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,34,33,0,0 // vbroadcastss 0x2122(%rip),%ymm8 # 56b4 <_sk_callback_avx+0x3a6>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,12 // vpslld $0xc,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10
.byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
.byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 197,60,89,210 // vmulps %ymm2,%ymm8,%ymm10
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,4 // vpslld $0x4,%xmm10,%xmm11
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,4 // vpslld $0x4,%xmm10,%xmm10
.byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3a61 <_sk_store_4444_avx+0xaf>
- .byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
+ .byte 117,10 // jne 362b <_sk_store_4444_avx+0xa7>
+ .byte 196,65,122,127,4,122 // vmovdqu %xmm8,(%r10,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 3a5d <_sk_store_4444_avx+0xab>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,68,0,0,0 // lea 0x44(%rip),%r8 # 3ac0 <_sk_store_4444_avx+0x10e>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 119,236 // ja 3627 <_sk_store_4444_avx+0xa3>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # 3688 <_sk_store_4444_avx+0x104>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,68,121,12,6 // vpextrw $0x6,%xmm8,0xc(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,10,5 // vpextrw $0x5,%xmm8,0xa(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,8,4 // vpextrw $0x4,%xmm8,0x8(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,6,3 // vpextrw $0x3,%xmm8,0x6(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
- .byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
- .byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 3a5d <_sk_store_4444_avx+0xab>
- .byte 102,144 // xchg %ax,%ax
- .byte 245 // cmc
+ .byte 196,67,121,21,68,122,12,6 // vpextrw $0x6,%xmm8,0xc(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,10,5 // vpextrw $0x5,%xmm8,0xa(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,8,4 // vpextrw $0x4,%xmm8,0x8(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,6,3 // vpextrw $0x3,%xmm8,0x6(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,4,2 // vpextrw $0x2,%xmm8,0x4(%r10,%rdi,2)
+ .byte 196,67,121,21,68,122,2,1 // vpextrw $0x1,%xmm8,0x2(%r10,%rdi,2)
+ .byte 196,67,121,21,4,122,0 // vpextrw $0x0,%xmm8,(%r10,%rdi,2)
+ .byte 235,159 // jmp 3627 <_sk_store_4444_avx+0xa3>
+ .byte 247,255 // idiv %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,231 // jmpq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 237 // in (%dx),%eax
+ .byte 223,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
+ .byte 255,199 // inc %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15646,15 +15248,12 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,147,0,0,0 // jne 3b7d <_sk_load_8888_avx+0xa1>
+ .byte 15,133,135,0,0,0 // jne 3739 <_sk_load_8888_avx+0x95>
.byte 196,65,124,16,12,186 // vmovups (%r10,%rdi,4),%ymm9
- .byte 197,124,40,21,168,33,0,0 // vmovaps 0x21a8(%rip),%ymm10 # 5ca0 <_sk_callback_avx+0x2b2>
+ .byte 197,124,40,21,64,33,0,0 // vmovaps 0x2140(%rip),%ymm10 # 5800 <_sk_callback_avx+0x4f2>
.byte 196,193,52,84,194 // vandps %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
+ .byte 196,98,125,24,5,230,31,0,0 // vbroadcastss 0x1fe6(%rip),%ymm8 # 56b8 <_sk_callback_avx+0x3aa>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -15681,9 +15280,9 @@
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,90,255,255,255 // ja 3af0 <_sk_load_8888_avx+0x14>
+ .byte 15,135,102,255,255,255 // ja 36b8 <_sk_load_8888_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3c2c <_sk_load_8888_avx+0x150>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 37e8 <_sk_load_8888_avx+0x144>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15706,7 +15305,7 @@
.byte 196,99,53,12,200,15 // vblendps $0xf,%ymm0,%ymm9,%ymm9
.byte 196,195,49,34,4,186,0 // vpinsrd $0x0,(%r10,%rdi,4),%xmm9,%xmm0
.byte 196,99,53,12,200,15 // vblendps $0xf,%ymm0,%ymm9,%ymm9
- .byte 233,198,254,255,255 // jmpq 3af0 <_sk_load_8888_avx+0x14>
+ .byte 233,210,254,255,255 // jmpq 36b8 <_sk_load_8888_avx+0x14>
.byte 102,144 // xchg %ax,%ax
.byte 236 // in (%dx),%al
.byte 255 // (bad)
@@ -15724,7 +15323,7 @@
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 3c45 <_sk_load_8888_avx+0x169>
+ .byte 126,255 // jle 3801 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15769,13 +15368,10 @@
.byte 196,131,121,34,4,152,2 // vpinsrd $0x2,(%r8,%r11,4),%xmm0,%xmm0
.byte 196,131,121,34,28,144,3 // vpinsrd $0x3,(%r8,%r10,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,198,31,0,0 // vmovaps 0x1fc6(%rip),%ymm10 # 5cc0 <_sk_callback_avx+0x2d2>
+ .byte 197,124,40,21,106,31,0,0 // vmovaps 0x1f6a(%rip),%ymm10 # 5820 <_sk_callback_avx+0x512>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm9
+ .byte 196,98,125,24,13,244,29,0,0 // vbroadcastss 0x1df4(%rip),%ymm9 # 56bc <_sk_callback_avx+0x3ae>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -15806,27 +15402,24 @@
FUNCTION(_sk_store_8888_avx)
_sk_store_8888_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 196,98,125,24,5,130,29,0,0 // vbroadcastss 0x1d82(%rip),%ymm8 # 56c0 <_sk_callback_avx+0x3b2>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10
.byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
.byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 197,60,89,210 // vmulps %ymm2,%ymm8,%ymm10
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10
.byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11
.byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
@@ -15835,31 +15428,31 @@
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3e24 <_sk_store_8888_avx+0xa4>
- .byte 196,65,124,17,4,185 // vmovups %ymm8,(%r9,%rdi,4)
+ .byte 117,10 // jne 39cc <_sk_store_8888_avx+0x9c>
+ .byte 196,65,124,17,4,186 // vmovups %ymm8,(%r10,%rdi,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,200 // mov %ecx,%r8d
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 3e20 <_sk_store_8888_avx+0xa0>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,85,0,0,0 // lea 0x55(%rip),%r8 # 3e94 <_sk_store_8888_avx+0x114>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
+ .byte 119,236 // ja 39c8 <_sk_store_8888_avx+0x98>
+ .byte 69,15,182,192 // movzbl %r8b,%r8d
+ .byte 76,141,13,85,0,0,0 // lea 0x55(%rip),%r9 # 3a3c <_sk_store_8888_avx+0x10c>
+ .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
+ .byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,185,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rdi,4)
+ .byte 196,67,121,22,76,186,24,2 // vpextrd $0x2,%xmm9,0x18(%r10,%rdi,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,185,20,1 // vpextrd $0x1,%xmm9,0x14(%r9,%rdi,4)
+ .byte 196,67,121,22,76,186,20,1 // vpextrd $0x1,%xmm9,0x14(%r10,%rdi,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,122,17,76,185,16 // vmovss %xmm9,0x10(%r9,%rdi,4)
- .byte 196,67,121,22,68,185,12,3 // vpextrd $0x3,%xmm8,0xc(%r9,%rdi,4)
- .byte 196,67,121,22,68,185,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rdi,4)
- .byte 196,67,121,22,68,185,4,1 // vpextrd $0x1,%xmm8,0x4(%r9,%rdi,4)
- .byte 196,65,121,126,4,185 // vmovd %xmm8,(%r9,%rdi,4)
- .byte 235,143 // jmp 3e20 <_sk_store_8888_avx+0xa0>
+ .byte 196,65,122,17,76,186,16 // vmovss %xmm9,0x10(%r10,%rdi,4)
+ .byte 196,67,121,22,68,186,12,3 // vpextrd $0x3,%xmm8,0xc(%r10,%rdi,4)
+ .byte 196,67,121,22,68,186,8,2 // vpextrd $0x2,%xmm8,0x8(%r10,%rdi,4)
+ .byte 196,67,121,22,68,186,4,1 // vpextrd $0x1,%xmm8,0x4(%r10,%rdi,4)
+ .byte 196,65,121,126,4,186 // vmovd %xmm8,(%r10,%rdi,4)
+ .byte 235,143 // jmp 39c8 <_sk_store_8888_avx+0x98>
.byte 15,31,0 // nopl (%rax)
.byte 245 // cmc
.byte 255 // (bad)
@@ -15897,7 +15490,7 @@
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp)
- .byte 15,133,141,2,0,0 // jne 4167 <_sk_load_f16_avx+0x2b7>
+ .byte 15,133,141,2,0,0 // jne 3d0f <_sk_load_f16_avx+0x2b7>
.byte 197,121,16,4,248 // vmovupd (%rax,%rdi,8),%xmm8
.byte 197,249,16,84,248,16 // vmovupd 0x10(%rax,%rdi,8),%xmm2
.byte 197,249,16,76,248,32 // vmovupd 0x20(%rax,%rdi,8),%xmm1
@@ -15915,13 +15508,13 @@
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,98,125,24,37,237,28,0,0 // vbroadcastss 0x1ced(%rip),%ymm12 # 5c20 <_sk_callback_avx+0x232>
+ .byte 196,98,125,24,37,233,27,0,0 // vbroadcastss 0x1be9(%rip),%ymm12 # 56c4 <_sk_callback_avx+0x3b6>
.byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1
.byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,217,28,0,0 // vbroadcastss 0x1cd9(%rip),%xmm11 # 5c24 <_sk_callback_avx+0x236>
+ .byte 196,98,121,24,29,213,27,0,0 // vbroadcastss 0x1bd5(%rip),%xmm11 # 56c8 <_sk_callback_avx+0x3ba>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,207,28,0,0 // vbroadcastss 0x1ccf(%rip),%xmm13 # 5c28 <_sk_callback_avx+0x23a>
+ .byte 196,98,121,24,45,203,27,0,0 // vbroadcastss 0x1bcb(%rip),%xmm13 # 56cc <_sk_callback_avx+0x3be>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -15935,7 +15528,7 @@
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0
.byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1
- .byte 196,226,121,24,29,133,28,0,0 // vbroadcastss 0x1c85(%rip),%xmm3 # 5c2c <_sk_callback_avx+0x23e>
+ .byte 196,226,121,24,29,129,27,0,0 // vbroadcastss 0x1b81(%rip),%xmm3 # 56d0 <_sk_callback_avx+0x3c2>
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
@@ -16028,29 +15621,29 @@
.byte 197,123,16,4,248 // vmovsd (%rax,%rdi,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,79 // je 41c6 <_sk_load_f16_avx+0x316>
+ .byte 116,79 // je 3d6e <_sk_load_f16_avx+0x316>
.byte 197,57,22,68,248,8 // vmovhpd 0x8(%rax,%rdi,8),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,67 // jb 41c6 <_sk_load_f16_avx+0x316>
+ .byte 114,67 // jb 3d6e <_sk_load_f16_avx+0x316>
.byte 197,251,16,84,248,16 // vmovsd 0x10(%rax,%rdi,8),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,68 // je 41d3 <_sk_load_f16_avx+0x323>
+ .byte 116,68 // je 3d7b <_sk_load_f16_avx+0x323>
.byte 197,233,22,84,248,24 // vmovhpd 0x18(%rax,%rdi,8),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,56 // jb 41d3 <_sk_load_f16_avx+0x323>
+ .byte 114,56 // jb 3d7b <_sk_load_f16_avx+0x323>
.byte 197,251,16,76,248,32 // vmovsd 0x20(%rax,%rdi,8),%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,70,253,255,255 // je 3ef1 <_sk_load_f16_avx+0x41>
+ .byte 15,132,70,253,255,255 // je 3a99 <_sk_load_f16_avx+0x41>
.byte 197,241,22,76,248,40 // vmovhpd 0x28(%rax,%rdi,8),%xmm1,%xmm1
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,54,253,255,255 // jb 3ef1 <_sk_load_f16_avx+0x41>
+ .byte 15,130,54,253,255,255 // jb 3a99 <_sk_load_f16_avx+0x41>
.byte 197,122,126,76,248,48 // vmovq 0x30(%rax,%rdi,8),%xmm9
- .byte 233,43,253,255,255 // jmpq 3ef1 <_sk_load_f16_avx+0x41>
+ .byte 233,43,253,255,255 // jmpq 3a99 <_sk_load_f16_avx+0x41>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,30,253,255,255 // jmpq 3ef1 <_sk_load_f16_avx+0x41>
+ .byte 233,30,253,255,255 // jmpq 3a99 <_sk_load_f16_avx+0x41>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,21,253,255,255 // jmpq 3ef1 <_sk_load_f16_avx+0x41>
+ .byte 233,21,253,255,255 // jmpq 3a99 <_sk_load_f16_avx+0x41>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -16114,13 +15707,13 @@
.byte 197,249,105,210 // vpunpckhwd %xmm2,%xmm0,%xmm2
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,73,25,0,0 // vbroadcastss 0x1949(%rip),%ymm12 # 5c30 <_sk_callback_avx+0x242>
+ .byte 196,98,125,24,37,69,24,0,0 // vbroadcastss 0x1845(%rip),%ymm12 # 56d4 <_sk_callback_avx+0x3c6>
.byte 196,193,124,84,212 // vandps %ymm12,%ymm0,%ymm2
.byte 197,252,87,194 // vxorps %ymm2,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,53,25,0,0 // vbroadcastss 0x1935(%rip),%xmm11 # 5c34 <_sk_callback_avx+0x246>
+ .byte 196,98,121,24,29,49,24,0,0 // vbroadcastss 0x1831(%rip),%xmm11 # 56d8 <_sk_callback_avx+0x3ca>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,43,25,0,0 // vbroadcastss 0x192b(%rip),%xmm13 # 5c38 <_sk_callback_avx+0x24a>
+ .byte 196,98,121,24,45,39,24,0,0 // vbroadcastss 0x1827(%rip),%xmm13 # 56dc <_sk_callback_avx+0x3ce>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -16134,7 +15727,7 @@
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,194 // vorps %ymm2,%ymm0,%ymm0
.byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
- .byte 196,226,121,24,29,225,24,0,0 // vbroadcastss 0x18e1(%rip),%xmm3 # 5c3c <_sk_callback_avx+0x24e>
+ .byte 196,226,121,24,29,221,23,0,0 // vbroadcastss 0x17dd(%rip),%xmm3 # 56e0 <_sk_callback_avx+0x3d2>
.byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm0,%ymm0
@@ -16238,12 +15831,12 @@
.byte 197,252,17,52,36 // vmovups %ymm6,(%rsp)
.byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
.byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
- .byte 196,98,125,24,13,250,22,0,0 // vbroadcastss 0x16fa(%rip),%ymm9 # 5c40 <_sk_callback_avx+0x252>
+ .byte 196,98,125,24,13,246,21,0,0 // vbroadcastss 0x15f6(%rip),%ymm9 # 56e4 <_sk_callback_avx+0x3d6>
.byte 196,65,124,84,209 // vandps %ymm9,%ymm0,%ymm10
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
.byte 196,65,124,87,218 // vxorps %ymm10,%ymm0,%ymm11
.byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,98,121,24,5,223,22,0,0 // vbroadcastss 0x16df(%rip),%xmm8 # 5c44 <_sk_callback_avx+0x256>
+ .byte 196,98,121,24,5,219,21,0,0 // vbroadcastss 0x15db(%rip),%xmm8 # 56e8 <_sk_callback_avx+0x3da>
.byte 196,65,57,102,236 // vpcmpgtd %xmm12,%xmm8,%xmm13
.byte 196,65,57,102,243 // vpcmpgtd %xmm11,%xmm8,%xmm14
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
@@ -16253,7 +15846,7 @@
.byte 196,67,13,24,242,1 // vinsertf128 $0x1,%xmm10,%ymm14,%ymm14
.byte 196,193,33,114,211,13 // vpsrld $0xd,%xmm11,%xmm11
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
- .byte 196,98,125,24,21,166,22,0,0 // vbroadcastss 0x16a6(%rip),%ymm10 # 5c48 <_sk_callback_avx+0x25a>
+ .byte 196,98,125,24,21,162,21,0,0 // vbroadcastss 0x15a2(%rip),%ymm10 # 56ec <_sk_callback_avx+0x3de>
.byte 196,65,12,86,242 // vorps %ymm10,%ymm14,%ymm14
.byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15
.byte 196,65,1,254,228 // vpaddd %xmm12,%xmm15,%xmm12
@@ -16335,7 +15928,7 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,66 // jne 4780 <_sk_store_f16_avx+0x25e>
+ .byte 117,66 // jne 4328 <_sk_store_f16_avx+0x25e>
.byte 197,120,17,28,248 // vmovups %xmm11,(%rax,%rdi,8)
.byte 197,120,17,84,248,16 // vmovups %xmm10,0x10(%rax,%rdi,8)
.byte 197,120,17,76,248,32 // vmovups %xmm9,0x20(%rax,%rdi,8)
@@ -16351,22 +15944,22 @@
.byte 255,224 // jmpq *%rax
.byte 197,121,214,28,248 // vmovq %xmm11,(%rax,%rdi,8)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,202 // je 4755 <_sk_store_f16_avx+0x233>
+ .byte 116,202 // je 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,23,92,248,8 // vmovhpd %xmm11,0x8(%rax,%rdi,8)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,190 // jb 4755 <_sk_store_f16_avx+0x233>
+ .byte 114,190 // jb 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,214,84,248,16 // vmovq %xmm10,0x10(%rax,%rdi,8)
- .byte 116,182 // je 4755 <_sk_store_f16_avx+0x233>
+ .byte 116,182 // je 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,23,84,248,24 // vmovhpd %xmm10,0x18(%rax,%rdi,8)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,170 // jb 4755 <_sk_store_f16_avx+0x233>
+ .byte 114,170 // jb 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,214,76,248,32 // vmovq %xmm9,0x20(%rax,%rdi,8)
- .byte 116,162 // je 4755 <_sk_store_f16_avx+0x233>
+ .byte 116,162 // je 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,23,76,248,40 // vmovhpd %xmm9,0x28(%rax,%rdi,8)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,150 // jb 4755 <_sk_store_f16_avx+0x233>
+ .byte 114,150 // jb 42fd <_sk_store_f16_avx+0x233>
.byte 197,121,214,68,248,48 // vmovq %xmm8,0x30(%rax,%rdi,8)
- .byte 235,142 // jmp 4755 <_sk_store_f16_avx+0x233>
+ .byte 235,142 // jmp 42fd <_sk_store_f16_avx+0x233>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -16376,7 +15969,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,5,1,0,0 // jne 48e2 <_sk_load_u16_be_avx+0x11b>
+ .byte 15,133,253,0,0,0 // jne 4482 <_sk_load_u16_be_avx+0x113>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -16385,79 +15978,76 @@
.byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
.byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
.byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,210 // vpunpcklwd %xmm2,%xmm0,%xmm10
+ .byte 197,121,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm9
.byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,203 // vpunpckhwd %xmm3,%xmm1,%xmm9
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,224,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm12
- .byte 197,169,108,194 // vpunpcklqdq %xmm2,%xmm10,%xmm0
+ .byte 197,113,105,227 // vpunpckhwd %xmm3,%xmm1,%xmm12
+ .byte 197,177,108,194 // vpunpcklqdq %xmm2,%xmm9,%xmm0
.byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
.byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,65,33,239,219 // vpxor %xmm11,%xmm11,%xmm11
- .byte 196,193,121,105,203 // vpunpckhwd %xmm11,%xmm0,%xmm1
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
+ .byte 196,98,125,24,29,250,18,0,0 // vbroadcastss 0x12fa(%rip),%ymm11 # 56f0 <_sk_callback_avx+0x3e2>
+ .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
+ .byte 197,177,109,202 // vpunpckhqdq %xmm2,%xmm9,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
.byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
.byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,193,113,105,211 // vpunpckhwd %xmm11,%xmm1,%xmm2
+ .byte 196,193,113,105,210 // vpunpckhwd %xmm10,%xmm1,%xmm2
.byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 196,193,57,108,209 // vpunpcklqdq %xmm9,%xmm8,%xmm2
- .byte 197,169,113,242,8 // vpsllw $0x8,%xmm2,%xmm10
+ .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
+ .byte 196,193,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm2
+ .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
.byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,169,235,210 // vpor %xmm2,%xmm10,%xmm2
- .byte 196,65,105,105,211 // vpunpckhwd %xmm11,%xmm2,%xmm10
+ .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
+ .byte 196,193,105,105,218 // vpunpckhwd %xmm10,%xmm2,%xmm3
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,195,109,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm2,%ymm2
+ .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
- .byte 196,193,57,109,217 // vpunpckhqdq %xmm9,%xmm8,%xmm3
+ .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
+ .byte 196,193,57,109,220 // vpunpckhqdq %xmm12,%xmm8,%xmm3
.byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
.byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,65,97,105,195 // vpunpckhwd %xmm11,%xmm3,%xmm8
+ .byte 196,65,97,105,194 // vpunpckhwd %xmm10,%xmm3,%xmm8
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,156,89,219 // vmulps %ymm3,%ymm12,%ymm3
+ .byte 196,193,100,89,219 // vmulps %ymm11,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 4948 <_sk_load_u16_be_avx+0x181>
+ .byte 116,85 // je 44e8 <_sk_load_u16_be_avx+0x179>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 4948 <_sk_load_u16_be_avx+0x181>
+ .byte 114,72 // jb 44e8 <_sk_load_u16_be_avx+0x179>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 4955 <_sk_load_u16_be_avx+0x18e>
+ .byte 116,72 // je 44f5 <_sk_load_u16_be_avx+0x186>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 4955 <_sk_load_u16_be_avx+0x18e>
+ .byte 114,59 // jb 44f5 <_sk_load_u16_be_avx+0x186>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,205,254,255,255 // je 47f8 <_sk_load_u16_be_avx+0x31>
+ .byte 15,132,213,254,255,255 // je 43a0 <_sk_load_u16_be_avx+0x31>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,188,254,255,255 // jb 47f8 <_sk_load_u16_be_avx+0x31>
+ .byte 15,130,196,254,255,255 // jb 43a0 <_sk_load_u16_be_avx+0x31>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,176,254,255,255 // jmpq 47f8 <_sk_load_u16_be_avx+0x31>
+ .byte 233,184,254,255,255 // jmpq 43a0 <_sk_load_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,163,254,255,255 // jmpq 47f8 <_sk_load_u16_be_avx+0x31>
+ .byte 233,171,254,255,255 // jmpq 43a0 <_sk_load_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,154,254,255,255 // jmpq 47f8 <_sk_load_u16_be_avx+0x31>
+ .byte 233,162,254,255,255 // jmpq 43a0 <_sk_load_u16_be_avx+0x31>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -16467,7 +16057,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,127 // lea (%rdi,%rdi,2),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,8,1,0,0 // jne 4a78 <_sk_load_rgb_u16_be_avx+0x11a>
+ .byte 15,133,243,0,0,0 // jne 4603 <_sk_load_rgb_u16_be_avx+0x105>
.byte 196,193,122,111,4,64 // vmovdqu (%r8,%rax,2),%xmm0
.byte 196,193,122,111,84,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm2
.byte 196,193,122,111,76,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm1
@@ -16484,11 +16074,7 @@
.byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
.byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm10
+ .byte 197,113,105,211 // vpunpckhwd %xmm3,%xmm1,%xmm10
.byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
.byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
.byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
@@ -16498,7 +16084,8 @@
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 196,98,125,24,29,90,17,0,0 // vbroadcastss 0x115a(%rip),%ymm11 # 56f4 <_sk_callback_avx+0x3e6>
+ .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
.byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
@@ -16507,8 +16094,8 @@
.byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2
+ .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
+ .byte 196,193,49,108,210 // vpunpcklqdq %xmm10,%xmm9,%xmm2
.byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
.byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
.byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
@@ -16516,46 +16103,43 @@
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
.byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
+ .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,247,16,0,0 // vbroadcastss 0x10f7(%rip),%ymm3 # 56f8 <_sk_callback_avx+0x3ea>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,193,121,196,68,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 4a91 <_sk_load_rgb_u16_be_avx+0x133>
- .byte 233,19,255,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,5 // jne 461c <_sk_load_rgb_u16_be_avx+0x11e>
+ .byte 233,40,255,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,76,64,6 // vmovd 0x6(%r8,%rax,2),%xmm1
.byte 196,65,113,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 4ac0 <_sk_load_rgb_u16_be_avx+0x162>
+ .byte 114,26 // jb 464b <_sk_load_rgb_u16_be_avx+0x14d>
.byte 196,193,121,110,76,64,12 // vmovd 0xc(%r8,%rax,2),%xmm1
.byte 196,193,113,196,84,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 4ac5 <_sk_load_rgb_u16_be_avx+0x167>
- .byte 233,228,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,223,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 4650 <_sk_load_rgb_u16_be_avx+0x152>
+ .byte 233,249,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,244,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,76,64,18 // vmovd 0x12(%r8,%rax,2),%xmm1
.byte 196,65,113,196,76,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 4af4 <_sk_load_rgb_u16_be_avx+0x196>
+ .byte 114,26 // jb 467f <_sk_load_rgb_u16_be_avx+0x181>
.byte 196,193,121,110,76,64,24 // vmovd 0x18(%r8,%rax,2),%xmm1
.byte 196,193,113,196,76,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 4af9 <_sk_load_rgb_u16_be_avx+0x19b>
- .byte 233,176,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,171,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 4684 <_sk_load_rgb_u16_be_avx+0x186>
+ .byte 233,197,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,192,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,92,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm3
.byte 196,65,97,196,92,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 4b22 <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 114,20 // jb 46ad <_sk_load_rgb_u16_be_avx+0x1af>
.byte 196,193,121,110,92,64,36 // vmovd 0x24(%r8,%rax,2),%xmm3
.byte 196,193,97,196,92,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
- .byte 233,130,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,125,254,255,255 // jmpq 49a4 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,151,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,146,254,255,255 // jmpq 4544 <_sk_load_rgb_u16_be_avx+0x46>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -16563,33 +16147,30 @@
_sk_store_u16_be_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 184,0,255,127,71 // mov $0x477fff00,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
+ .byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
+ .byte 196,98,125,24,5,52,16,0,0 // vbroadcastss 0x1034(%rip),%ymm8 # 56fc <_sk_callback_avx+0x3ee>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
.byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
.byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
.byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
.byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
- .byte 197,60,89,209 // vmulps %ymm1,%ymm8,%ymm10
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
.byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
.byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
.byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
.byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
- .byte 197,60,89,218 // vmulps %ymm2,%ymm8,%ymm11
+ .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
.byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
.byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
.byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
.byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12
.byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
@@ -16605,31 +16186,31 @@
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,31 // jne 4c29 <_sk_store_u16_be_avx+0x102>
- .byte 196,1,120,17,28,72 // vmovups %xmm11,(%r8,%r9,2)
- .byte 196,1,120,17,84,72,16 // vmovups %xmm10,0x10(%r8,%r9,2)
- .byte 196,1,120,17,76,72,32 // vmovups %xmm9,0x20(%r8,%r9,2)
- .byte 196,1,122,127,68,72,48 // vmovdqu %xmm8,0x30(%r8,%r9,2)
+ .byte 117,31 // jne 47ac <_sk_store_u16_be_avx+0xfa>
+ .byte 196,65,120,17,28,64 // vmovups %xmm11,(%r8,%rax,2)
+ .byte 196,65,120,17,84,64,16 // vmovups %xmm10,0x10(%r8,%rax,2)
+ .byte 196,65,120,17,76,64,32 // vmovups %xmm9,0x20(%r8,%rax,2)
+ .byte 196,65,122,127,68,64,48 // vmovdqu %xmm8,0x30(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 196,1,121,214,28,72 // vmovq %xmm11,(%r8,%r9,2)
+ .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,23,92,72,8 // vmovhpd %xmm11,0x8(%r8,%r9,2)
+ .byte 116,240 // je 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,214,84,72,16 // vmovq %xmm10,0x10(%r8,%r9,2)
- .byte 116,218 // je 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,23,84,72,24 // vmovhpd %xmm10,0x18(%r8,%r9,2)
+ .byte 114,227 // jb 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
+ .byte 116,218 // je 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,214,76,72,32 // vmovq %xmm9,0x20(%r8,%r9,2)
- .byte 116,196 // je 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,23,76,72,40 // vmovhpd %xmm9,0x28(%r8,%r9,2)
+ .byte 114,205 // jb 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
+ .byte 116,196 // je 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,183 // jb 4c25 <_sk_store_u16_be_avx+0xfe>
- .byte 196,1,121,214,68,72,48 // vmovq %xmm8,0x30(%r8,%r9,2)
- .byte 235,174 // jmp 4c25 <_sk_store_u16_be_avx+0xfe>
+ .byte 114,183 // jb 47a8 <_sk_store_u16_be_avx+0xf6>
+ .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
+ .byte 235,174 // jmp 47a8 <_sk_store_u16_be_avx+0xf6>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -16637,10 +16218,10 @@
_sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 119,110 // ja 4ced <_sk_load_f32_avx+0x76>
+ .byte 119,110 // ja 4870 <_sk_load_f32_avx+0x76>
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4d18 <_sk_load_f32_avx+0xa1>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 4898 <_sk_load_f32_avx+0x9e>
.byte 73,99,4,138 // movslq (%r10,%rcx,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
@@ -16666,21 +16247,19 @@
.byte 196,193,101,21,216 // vunpckhpd %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 130 // (bad)
+ .byte 133,255 // test %edi,%edi
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,175 // mov $0xafffffff,%esp
+ .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
+ .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,146,255,255,255,138 // callq *-0x75000001(%rdx)
+ .byte 255,149,255,255,255,141 // callq *-0x72000001(%rbp)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -16701,7 +16280,7 @@
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,55 // jne 4da5 <_sk_store_f32_avx+0x6d>
+ .byte 117,55 // jne 4925 <_sk_store_f32_avx+0x6d>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -16714,22 +16293,22 @@
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 4da1 <_sk_store_f32_avx+0x69>
+ .byte 116,240 // je 4921 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 4da1 <_sk_store_f32_avx+0x69>
+ .byte 114,227 // jb 4921 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 4da1 <_sk_store_f32_avx+0x69>
+ .byte 116,218 // je 4921 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 4da1 <_sk_store_f32_avx+0x69>
+ .byte 114,205 // jb 4921 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 4da1 <_sk_store_f32_avx+0x69>
+ .byte 116,195 // je 4921 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,181 // jb 4da1 <_sk_store_f32_avx+0x69>
+ .byte 114,181 // jb 4921 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 4da1 <_sk_store_f32_avx+0x69>
+ .byte 235,171 // jmp 4921 <_sk_store_f32_avx+0x69>
HIDDEN _sk_clamp_x_avx
.globl _sk_clamp_x_avx
@@ -16865,22 +16444,13 @@
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 184,208,179,89,62 // mov $0x3e59b3d0,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 184,89,23,55,63 // mov $0x3f371759,%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
+ .byte 196,226,125,24,29,191,11,0,0 // vbroadcastss 0xbbf(%rip),%ymm3 # 5700 <_sk_callback_avx+0x3f2>
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 196,226,125,24,29,182,11,0,0 // vbroadcastss 0xbb6(%rip),%ymm3 # 5704 <_sk_callback_avx+0x3f6>
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 184,152,221,147,61 // mov $0x3d93dd98,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
+ .byte 196,226,125,24,13,169,11,0,0 // vbroadcastss 0xba9(%rip),%ymm1 # 5708 <_sk_callback_avx+0x3fa>
+ .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -17057,7 +16627,7 @@
.byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3
.byte 76,139,0 // mov (%rax),%r8
.byte 77,133,192 // test %r8,%r8
- .byte 15,132,146,0,0,0 // je 5359 <_sk_linear_gradient_avx+0xb8>
+ .byte 15,132,146,0,0,0 // je 4eb5 <_sk_linear_gradient_avx+0xb8>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
@@ -17084,8 +16654,8 @@
.byte 196,227,13,74,219,208 // vblendvps %ymm13,%ymm3,%ymm14,%ymm3
.byte 72,131,192,36 // add $0x24,%rax
.byte 73,255,200 // dec %r8
- .byte 117,140 // jne 52e3 <_sk_linear_gradient_avx+0x42>
- .byte 235,20 // jmp 536d <_sk_linear_gradient_avx+0xcc>
+ .byte 117,140 // jne 4e3f <_sk_linear_gradient_avx+0x42>
+ .byte 235,20 // jmp 4ec9 <_sk_linear_gradient_avx+0xcc>
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
@@ -17132,14 +16702,11 @@
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 197,60,88,200 // vaddps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,5,181,7,0,0 // vbroadcastss 0x7b5(%rip),%ymm8 # 570c <_sk_callback_avx+0x3fe>
+ .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 197,60,88,193 // vaddps %ymm1,%ymm8,%ymm8
+ .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
.byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
.byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
.byte 197,252,17,0 // vmovups %ymm0,(%rax)
@@ -17172,15 +16739,9 @@
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 196,226,125,24,5,65,7,0,0 // vbroadcastss 0x741(%rip),%ymm0 # 5710 <_sk_callback_avx+0x402>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,56,7,0,0 // vbroadcastss 0x738(%rip),%ymm8 # 5714 <_sk_callback_avx+0x406>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17191,12 +16752,9 @@
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
+ .byte 196,226,125,24,5,32,7,0,0 // vbroadcastss 0x720(%rip),%ymm0 # 5718 <_sk_callback_avx+0x40a>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
+ .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17206,15 +16764,9 @@
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,4,7,0,0 // vbroadcastss 0x704(%rip),%ymm1 # 571c <_sk_callback_avx+0x40e>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,250,6,0,0 // vbroadcastss 0x6fa(%rip),%ymm8 # 5720 <_sk_callback_avx+0x412>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17225,12 +16777,9 @@
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
+ .byte 196,226,125,24,13,226,6,0,0 // vbroadcastss 0x6e2(%rip),%ymm1 # 5724 <_sk_callback_avx+0x416>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
+ .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17240,27 +16789,15 @@
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,191 // mov $0xbfc00000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 196,226,125,24,5,197,6,0,0 // vbroadcastss 0x6c5(%rip),%ymm0 # 5728 <_sk_callback_avx+0x41a>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,188,6,0,0 // vbroadcastss 0x6bc(%rip),%ymm8 # 572c <_sk_callback_avx+0x41e>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- .byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,21,173,6,0,0 // vbroadcastss 0x6ad(%rip),%ymm10 # 5730 <_sk_callback_avx+0x422>
+ .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
+ .byte 196,98,125,24,21,163,6,0,0 // vbroadcastss 0x6a3(%rip),%ymm10 # 5734 <_sk_callback_avx+0x426>
+ .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17271,38 +16808,20 @@
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 196,226,125,24,5,134,6,0,0 // vbroadcastss 0x686(%rip),%ymm0 # 5738 <_sk_callback_avx+0x42a>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,125,6,0,0 // vbroadcastss 0x67d(%rip),%ymm8 # 573c <_sk_callback_avx+0x42e>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,52,89,200 // vmulps %ymm8,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
+ .byte 196,98,125,24,13,115,6,0,0 // vbroadcastss 0x673(%rip),%ymm9 # 5740 <_sk_callback_avx+0x432>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
+ .byte 196,98,125,24,21,105,6,0,0 // vbroadcastss 0x669(%rip),%ymm10 # 5744 <_sk_callback_avx+0x436>
+ .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
+ .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
+ .byte 196,98,125,24,21,90,6,0,0 // vbroadcastss 0x65a(%rip),%ymm10 # 5748 <_sk_callback_avx+0x43a>
+ .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
+ .byte 196,98,125,24,13,75,6,0,0 // vbroadcastss 0x64b(%rip),%ymm9 # 574c <_sk_callback_avx+0x43e>
+ .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17312,30 +16831,18 @@
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
+ .byte 196,98,125,24,5,51,6,0,0 // vbroadcastss 0x633(%rip),%ymm8 # 5750 <_sk_callback_avx+0x442>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
+ .byte 196,98,125,24,21,37,6,0,0 // vbroadcastss 0x625(%rip),%ymm10 # 5754 <_sk_callback_avx+0x446>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
+ .byte 196,98,125,24,29,27,6,0,0 // vbroadcastss 0x61b(%rip),%ymm11 # 5758 <_sk_callback_avx+0x44a>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
+ .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
+ .byte 196,98,125,24,13,2,6,0,0 // vbroadcastss 0x602(%rip),%ymm9 # 575c <_sk_callback_avx+0x44e>
+ .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17345,23 +16852,14 @@
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 196,226,125,24,5,234,5,0,0 // vbroadcastss 0x5ea(%rip),%ymm0 # 5760 <_sk_callback_avx+0x452>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
+ .byte 196,98,125,24,21,215,5,0,0 // vbroadcastss 0x5d7(%rip),%ymm10 # 5764 <_sk_callback_avx+0x456>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,21,205,5,0,0 // vbroadcastss 0x5cd(%rip),%ymm10 # 5768 <_sk_callback_avx+0x45a>
+ .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17372,27 +16870,15 @@
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,191 // mov $0xbfc00000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,176,5,0,0 // vbroadcastss 0x5b0(%rip),%ymm1 # 576c <_sk_callback_avx+0x45e>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,166,5,0,0 // vbroadcastss 0x5a6(%rip),%ymm8 # 5770 <_sk_callback_avx+0x462>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- .byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,21,151,5,0,0 // vbroadcastss 0x597(%rip),%ymm10 # 5774 <_sk_callback_avx+0x466>
+ .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
+ .byte 196,98,125,24,21,141,5,0,0 // vbroadcastss 0x58d(%rip),%ymm10 # 5778 <_sk_callback_avx+0x46a>
+ .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17403,38 +16889,20 @@
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,191 // mov $0xbf000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,112,5,0,0 // vbroadcastss 0x570(%rip),%ymm1 # 577c <_sk_callback_avx+0x46e>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 65,184,0,0,128,63 // mov $0x3f800000,%r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,67,121,4,192,0 // vpermilps $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
+ .byte 196,98,125,24,5,102,5,0,0 // vbroadcastss 0x566(%rip),%ymm8 # 5780 <_sk_callback_avx+0x472>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
- .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,52,89,200 // vmulps %ymm8,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
+ .byte 196,98,125,24,13,92,5,0,0 // vbroadcastss 0x55c(%rip),%ymm9 # 5784 <_sk_callback_avx+0x476>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
+ .byte 196,98,125,24,21,82,5,0,0 // vbroadcastss 0x552(%rip),%ymm10 # 5788 <_sk_callback_avx+0x47a>
+ .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
+ .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
+ .byte 196,98,125,24,21,67,5,0,0 // vbroadcastss 0x543(%rip),%ymm10 # 578c <_sk_callback_avx+0x47e>
+ .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
+ .byte 196,98,125,24,13,52,5,0,0 // vbroadcastss 0x534(%rip),%ymm9 # 5790 <_sk_callback_avx+0x482>
+ .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17444,30 +16912,18 @@
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,0,63 // mov $0x3f000000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
+ .byte 196,98,125,24,5,28,5,0,0 // vbroadcastss 0x51c(%rip),%ymm8 # 5794 <_sk_callback_avx+0x486>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 65,184,85,85,149,191 // mov $0xbf955555,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
+ .byte 196,98,125,24,21,13,5,0,0 // vbroadcastss 0x50d(%rip),%ymm10 # 5798 <_sk_callback_avx+0x48a>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
+ .byte 196,98,125,24,29,3,5,0,0 // vbroadcastss 0x503(%rip),%ymm11 # 579c <_sk_callback_avx+0x48e>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 65,184,57,142,99,61 // mov $0x3d638e39,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
+ .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
+ .byte 196,98,125,24,13,234,4,0,0 // vbroadcastss 0x4ea(%rip),%ymm9 # 57a0 <_sk_callback_avx+0x492>
+ .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17477,23 +16933,14 @@
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,184,0,0,192,63 // mov $0x3fc00000,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 196,226,125,24,13,210,4,0,0 // vbroadcastss 0x4d2(%rip),%ymm1 # 57a4 <_sk_callback_avx+0x496>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 65,184,114,28,199,62 // mov $0x3ec71c72,%r8d
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 65,184,171,170,170,190 // mov $0xbeaaaaab,%r8d
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,67,121,4,219,0 // vpermilps $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
+ .byte 196,98,125,24,21,190,4,0,0 // vbroadcastss 0x4be(%rip),%ymm10 # 57a8 <_sk_callback_avx+0x49a>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
+ .byte 196,98,125,24,21,180,4,0,0 // vbroadcastss 0x4b4(%rip),%ymm10 # 57ac <_sk_callback_avx+0x49e>
+ .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17580,20 +17027,81 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
- .byte 248 // clc
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 5b29 <.literal4+0x15>
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,191,0,0,224,64,0 // cmpb $0x0,0x40e00000(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,145 // cmpb $0x91,(%rdi)
+ .byte 131,158,61,154,153,153,62 // sbbl $0x3e,-0x666665c3(%rsi)
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,41,92,71,65 // cmp $0x41475c29,%eax
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 168,87 // test $0x57,%al
+ .byte 202,189,194 // lret $0xc2bd
+ .byte 135,210 // xchg %edx,%edx
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 128,63,4 // cmpb $0x4,(%rdi)
+ .byte 231,140 // out %eax,$0x8c
+ .byte 59,0 // cmp (%rax),%eax
+ .byte 0,128,63,0,0,192 // add %al,-0x3fffffc1(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax)
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 129,128,128,59,129,128,128,59,0,248 // addl $0xf8003b80,-0x7f7ec480(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 54f1 <.literal4+0xbd>
+ .byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 52,255 // xor $0xff,%al
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
+ .byte 129,128,128,59,128,0,128,55,0,0 // addl $0x3780,0x803b80(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 5b30 <.literal4+0x1c>
+ .byte 127,0 // jg 551c <.literal4+0xe8>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5ba9 <.literal4+0x95>
+ .byte 119,115 // ja 5595 <.literal4+0x161>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17604,13 +17112,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5b60 <.literal4+0x4c>
+ .byte 127,0 // jg 5550 <.literal4+0x11c>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5bd9 <.literal4+0xc5>
+ .byte 119,115 // ja 55c9 <.literal4+0x195>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17621,13 +17129,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5b90 <.literal4+0x7c>
+ .byte 127,0 // jg 5584 <.literal4+0x150>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5c09 <.literal4+0xf5>
+ .byte 119,115 // ja 55fd <.literal4+0x1c9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17638,13 +17146,13 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
+ .byte 0,128,63,0,0,0 // add %al,0x3f(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5bc0 <.literal4+0xac>
+ .byte 127,0 // jg 55b8 <.literal4+0x184>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5c39 <.literal4+0x125>
+ .byte 119,115 // ja 5631 <.literal4+0x1fd>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17655,36 +17163,77 @@
.byte 210,221 // rcr %cl,%ch
.byte 65,0,0 // add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
+ .byte 0,128,63,0,0,200 // add %al,-0x37ffffc1(%rax)
+ .byte 66,0,0 // rex.X add %al,(%rax)
+ .byte 127,67 // jg 562f <.literal4+0x1fb>
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
+ .byte 13,60,111,18,3 // or $0x3126f3c,%eax
+ .byte 59,10 // cmp (%rdx),%ecx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b
+ .byte 190,80,128,3,62 // mov $0x3e038050,%esi
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 564f <.literal4+0x21b>
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 127,67 // jg 5663 <.literal4+0x22f>
+ .byte 129,128,128,59,0,0,128,63,129,128 // addl $0x80813f80,0x3b80(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
+ .byte 0,128,63,129,128,128 // add %al,-0x7f7f7ec1(%rax)
+ .byte 59,0 // cmp (%rax),%eax
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 5bf5 <.literal4+0xe1>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 5645 <.literal4+0x211>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
+ .byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 248 // clc
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 5661 <.literal4+0x22d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 5c01 <.literal4+0xed>
- .byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,0,0,128,63 // and %eax,0x3f800000(,%rdi,1)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 124,66 // jl 56b6 <.literal4+0x282>
+ .byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 137,136,136,61,0,240 // mov %ecx,-0xfffc278(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
+ .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
+ .byte 112,65 // jo 56f9 <.literal4+0x2c5>
+ .byte 129,128,128,59,129,128,128,59,0,0 // addl $0x3b80,-0x7f7ec480(%rax)
+ .byte 127,67 // jg 5707 <.literal4+0x2d3>
+ .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
.byte 0,128,0,4,0,128 // add %al,-0x7ffffc00(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,56 // add %bh,(%rax)
@@ -17695,7 +17244,82 @@
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,128,56 // add %al,0x38800000(%rax)
.byte 0,64,254 // add %al,-0x2(%rax)
- .byte 255 // .byte 0xff
+ .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax)
+ .byte 0,128,55,0,0,128 // add %al,-0x7fffffc9(%rax)
+ .byte 63 // (bad)
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 5747 <.literal4+0x313>
+ .byte 208 // (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,89 // ds pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 152 // cwtl
+ .byte 221,147,61,0,0,0 // fstl 0x3d(%rbx)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,128,63,114 // sarb $0x72,0x3f800000(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,0,0,0,191 // mov $0xbf000000,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,114 // sarb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,0,0,192,191 // mov $0xbfc00000,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,114 // cmpb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,0,0,0,191 // mov $0xbf000000,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,114 // sarb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190 // .byte 0xbe
BALIGN32
.byte 255,0 // incl (%rax)
@@ -17840,7 +17464,7 @@
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,68,62,0,0 // movaps 0x3e44(%rip),%xmm2 # 3ec0 <_sk_callback_sse41+0xd8>
+ .byte 15,40,21,100,57,0,0 // movaps 0x3964(%rip),%xmm2 # 39e0 <_sk_callback_sse41+0xd5>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,2 // movups (%rdx),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -17849,7 +17473,7 @@
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,51,62,0,0 // movaps 0x3e33(%rip),%xmm2 # 3ed0 <_sk_callback_sse41+0xe8>
+ .byte 15,40,21,83,57,0,0 // movaps 0x3953(%rip),%xmm2 # 39f0 <_sk_callback_sse41+0xe5>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -17889,9 +17513,7 @@
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,14,57,0,0 // movaps 0x390e(%rip),%xmm8 # 3a00 <_sk_callback_sse41+0xf5>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -17916,9 +17538,7 @@
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,209,56,0,0 // movaps 0x38d1(%rip),%xmm9 # 3a10 <_sk_callback_sse41+0x105>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -17965,9 +17585,7 @@
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,117,56,0,0 // movaps 0x3875(%rip),%xmm8 # 3a20 <_sk_callback_sse41+0x115>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -17980,9 +17598,7 @@
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,101,56,0,0 // movaps 0x3865(%rip),%xmm8 # 3a30 <_sk_callback_sse41+0x125>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -17999,9 +17615,7 @@
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,72,56,0,0 // movaps 0x3848(%rip),%xmm8 # 3a40 <_sk_callback_sse41+0x135>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -18021,9 +17635,7 @@
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,28,56,0,0 // movaps 0x381c(%rip),%xmm8 # 3a50 <_sk_callback_sse41+0x145>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -18051,9 +17663,7 @@
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,240,55,0,0 // movaps 0x37f0(%rip),%xmm8 # 3a60 <_sk_callback_sse41+0x155>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -18129,9 +17739,7 @@
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,40,29,33,55,0,0 // movaps 0x3721(%rip),%xmm3 # 3a70 <_sk_callback_sse41+0x165>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -18179,9 +17787,7 @@
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,140,54,0,0 // movaps 0x368c(%rip),%xmm2 # 3a80 <_sk_callback_sse41+0x175>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -18215,9 +17821,7 @@
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,49,54,0,0 // movaps 0x3631(%rip),%xmm2 # 3a90 <_sk_callback_sse41+0x185>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -18254,9 +17858,7 @@
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,203,53,0,0 // movaps 0x35cb(%rip),%xmm2 # 3aa0 <_sk_callback_sse41+0x195>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -18268,66 +17870,63 @@
.globl _sk_exclusion_sse41
FUNCTION(_sk_exclusion_sse41)
_sk_exclusion_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
+ .byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
+ .byte 65,15,92,192 // subps %xmm8,%xmm0
+ .byte 68,15,40,193 // movaps %xmm1,%xmm8
+ .byte 68,15,88,197 // addps %xmm5,%xmm8
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 68,15,92,193 // subps %xmm1,%xmm8
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 68,15,88,206 // addps %xmm6,%xmm9
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 68,15,92,202 // subps %xmm2,%xmm9
+ .byte 15,40,13,140,53,0,0 // movaps 0x358c(%rip),%xmm1 # 3ab0 <_sk_callback_sse41+0x1a5>
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 65,15,40,209 // movaps %xmm9,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 68,15,40,21,123,53,0,0 // movaps 0x357b(%rip),%xmm10 # 3ac0 <_sk_callback_sse41+0x1b5>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,40,203 // movaps %xmm11,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,94,193 // divps %xmm9,%xmm0
+ .byte 65,15,94,192 // divps %xmm8,%xmm0
+ .byte 68,15,40,231 // movaps %xmm7,%xmm12
+ .byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,93,232 // minps %xmm0,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 69,15,88,244 // addps %xmm12,%xmm14
- .byte 102,69,15,56,20,241 // blendvps %xmm0,%xmm9,%xmm14
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,89,235 // mulps %xmm3,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 68,15,88,228 // addps %xmm4,%xmm12
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
+ .byte 68,15,92,211 // subps %xmm3,%xmm10
+ .byte 102,69,15,56,20,232 // blendvps %xmm0,%xmm8,%xmm13
+ .byte 69,15,40,194 // movaps %xmm10,%xmm8
+ .byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 102,69,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm9
+ .byte 69,15,88,197 // addps %xmm13,%xmm8
+ .byte 102,69,15,56,20,196 // blendvps %xmm0,%xmm12,%xmm8
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
.byte 15,40,199 // movaps %xmm7,%xmm0
@@ -18339,13 +17938,13 @@
.byte 68,15,40,247 // movaps %xmm7,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
+ .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 68,15,89,243 // mulps %xmm3,%xmm14
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14
+ .byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 65,15,88,206 // addps %xmm14,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
@@ -18359,10 +17958,10 @@
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
.byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,194,194,0 // cmpeqps %xmm2,%xmm8
+ .byte 68,15,194,202,0 // cmpeqps %xmm2,%xmm9
.byte 68,15,89,235 // mulps %xmm3,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13
.byte 68,15,88,222 // addps %xmm6,%xmm11
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -18374,7 +17973,7 @@
.byte 68,15,89,215 // mulps %xmm7,%xmm10
.byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colordodge_sse41
@@ -18382,9 +17981,7 @@
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,89,52,0,0 // movaps 0x3459(%rip),%xmm10 # 3ad0 <_sk_callback_sse41+0x1c5>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -18403,10 +18000,10 @@
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 102,69,15,56,20,240 // blendvps %xmm0,%xmm8,%xmm14
.byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 68,15,92,211 // subps %xmm3,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
@@ -18424,9 +18021,9 @@
.byte 68,15,89,235 // mulps %xmm3,%xmm13
.byte 69,15,88,238 // addps %xmm14,%xmm13
.byte 102,68,15,56,20,233 // blendvps %xmm0,%xmm1,%xmm13
+ .byte 68,15,88,245 // addps %xmm5,%xmm14
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,245 // addps %xmm5,%xmm14
.byte 65,15,88,205 // addps %xmm13,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
@@ -18465,14 +18062,11 @@
.byte 68,15,40,229 // movaps %xmm5,%xmm12
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 68,15,40,21,50,51,0,0 // movaps 0x3332(%rip),%xmm10 # 3ae0 <_sk_callback_sse41+0x1d5>
+ .byte 65,15,40,234 // movaps %xmm10,%xmm5
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 68,15,92,212 // subps %xmm4,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -18495,7 +18089,7 @@
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
.byte 102,69,15,56,20,249 // blendvps %xmm0,%xmm9,%xmm15
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
+ .byte 68,15,40,221 // movaps %xmm5,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
@@ -18519,22 +18113,22 @@
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 65,15,88,203 // addps %xmm11,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,89,234 // mulps %xmm2,%xmm5
.byte 68,15,40,92,36,232 // movaps -0x18(%rsp),%xmm11
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 68,15,88,205 // addps %xmm5,%xmm9
+ .byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 65,15,89,235 // mulps %xmm11,%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,92,234 // subps %xmm2,%xmm5
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
+ .byte 15,88,210 // addps %xmm2,%xmm2
.byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 68,15,89,242 // mulps %xmm2,%xmm14
+ .byte 68,15,89,245 // mulps %xmm5,%xmm14
.byte 69,15,88,246 // addps %xmm14,%xmm14
.byte 65,15,92,222 // subps %xmm14,%xmm3
- .byte 102,15,56,20,221 // blendvps %xmm0,%xmm5,%xmm3
+ .byte 102,15,56,20,218 // blendvps %xmm0,%xmm2,%xmm3
.byte 68,15,88,203 // addps %xmm3,%xmm9
.byte 65,15,88,226 // addps %xmm10,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -18552,9 +18146,7 @@
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,23,50,0,0 // movaps 0x3217(%rip),%xmm10 # 3af0 <_sk_callback_sse41+0x1e5>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -18632,16 +18224,14 @@
.byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
+ .byte 15,41,76,36,200 // movaps %xmm1,-0x38(%rsp)
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,231,1 // cmpltps %xmm7,%xmm4
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,194,207,1 // cmpltps %xmm7,%xmm9
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 65,15,84,193 // andps %xmm9,%xmm0
+ .byte 15,40,13,238,48,0,0 // movaps 0x30ee(%rip),%xmm1 # 3b00 <_sk_callback_sse41+0x1f5>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -18654,99 +18244,99 @@
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 68,15,92,241 // subps %xmm1,%xmm14
+ .byte 68,15,40,45,204,48,0,0 // movaps 0x30cc(%rip),%xmm13 # 3b10 <_sk_callback_sse41+0x205>
+ .byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 184,0,0,224,64 // mov $0x40e00000,%eax
- .byte 102,68,15,110,232 // movd %eax,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 69,15,89,253 // mulps %xmm13,%xmm15
+ .byte 68,15,40,37,204,48,0,0 // movaps 0x30cc(%rip),%xmm12 # 3b20 <_sk_callback_sse41+0x215>
+ .byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,194,199,2 // cmpleps %xmm7,%xmm0
.byte 102,69,15,56,20,223 // blendvps %xmm0,%xmm15,%xmm11
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,88,211 // addps %xmm3,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,218 // blendvps %xmm0,%xmm10,%xmm11
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 68,15,94,215 // divps %xmm7,%xmm10
- .byte 68,15,84,212 // andps %xmm4,%xmm10
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0
- .byte 68,15,83,240 // rcpps %xmm0,%xmm14
- .byte 69,15,92,242 // subps %xmm10,%xmm14
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 102,69,15,56,20,242 // blendvps %xmm0,%xmm10,%xmm14
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 68,15,88,203 // addps %xmm3,%xmm9
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,89,210 // mulps %xmm2,%xmm10
+ .byte 68,15,88,211 // addps %xmm3,%xmm10
+ .byte 68,15,89,214 // mulps %xmm6,%xmm10
.byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,89,242 // mulps %xmm2,%xmm14
+ .byte 68,15,89,218 // mulps %xmm2,%xmm11
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 68,15,88,242 // addps %xmm2,%xmm14
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
+ .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 102,69,15,56,20,241 // blendvps %xmm0,%xmm9,%xmm14
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 15,40,108,36,216 // movaps -0x28(%rsp),%xmm5
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,94,199 // divps %xmm7,%xmm0
- .byte 15,84,196 // andps %xmm4,%xmm0
+ .byte 102,69,15,56,20,218 // blendvps %xmm0,%xmm10,%xmm11
+ .byte 68,15,40,213 // movaps %xmm5,%xmm10
+ .byte 68,15,94,215 // divps %xmm7,%xmm10
+ .byte 69,15,84,209 // andps %xmm9,%xmm10
+ .byte 65,15,40,194 // movaps %xmm10,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 15,82,224 // rsqrtps %xmm0,%xmm4
- .byte 68,15,83,204 // rcpps %xmm4,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 68,15,88,236 // addps %xmm4,%xmm13
+ .byte 15,89,210 // mulps %xmm2,%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 65,15,40,194 // movaps %xmm10,%xmm0
+ .byte 65,15,88,197 // addps %xmm13,%xmm0
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
+ .byte 65,15,89,212 // mulps %xmm12,%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0
+ .byte 68,15,83,240 // rcpps %xmm0,%xmm14
+ .byte 69,15,92,242 // subps %xmm10,%xmm14
.byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 102,69,15,56,20,205 // blendvps %xmm0,%xmm13,%xmm9
- .byte 68,15,40,108,36,232 // movaps -0x18(%rsp),%xmm13
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
+ .byte 102,68,15,56,20,242 // blendvps %xmm0,%xmm2,%xmm14
+ .byte 68,15,40,249 // movaps %xmm1,%xmm15
+ .byte 69,15,92,250 // subps %xmm10,%xmm15
+ .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,211 // subps %xmm3,%xmm2
+ .byte 68,15,89,250 // mulps %xmm2,%xmm15
+ .byte 15,89,215 // mulps %xmm7,%xmm2
+ .byte 68,15,89,242 // mulps %xmm2,%xmm14
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 68,15,88,242 // addps %xmm2,%xmm14
+ .byte 68,15,88,251 // addps %xmm3,%xmm15
+ .byte 68,15,89,252 // mulps %xmm4,%xmm15
+ .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
+ .byte 102,69,15,56,20,247 // blendvps %xmm0,%xmm15,%xmm14
+ .byte 68,15,40,249 // movaps %xmm1,%xmm15
+ .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,94,199 // divps %xmm7,%xmm0
+ .byte 65,15,84,193 // andps %xmm9,%xmm0
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 68,15,88,232 // addps %xmm0,%xmm13
+ .byte 68,15,89,224 // mulps %xmm0,%xmm12
+ .byte 15,82,208 // rsqrtps %xmm0,%xmm2
+ .byte 68,15,83,202 // rcpps %xmm2,%xmm9
+ .byte 68,15,92,200 // subps %xmm0,%xmm9
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,89,210 // mulps %xmm2,%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 68,15,89,234 // mulps %xmm2,%xmm13
+ .byte 69,15,88,229 // addps %xmm13,%xmm12
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
+ .byte 102,69,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm9
+ .byte 68,15,40,100,36,232 // movaps -0x18(%rsp),%xmm12
+ .byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
@@ -18754,29 +18344,30 @@
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 68,15,89,202 // mulps %xmm2,%xmm9
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 68,15,88,202 // addps %xmm2,%xmm9
.byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,194,195,2 // cmpleps %xmm3,%xmm0
.byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9
.byte 68,15,92,255 // subps %xmm7,%xmm15
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 69,15,89,253 // mulps %xmm13,%xmm15
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 65,15,89,207 // mulps %xmm15,%xmm1
+ .byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 68,15,92,211 // subps %xmm3,%xmm10
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 68,15,88,192 // addps %xmm0,%xmm8
.byte 69,15,88,195 // addps %xmm11,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
+ .byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 68,15,88,224 // addps %xmm0,%xmm12
- .byte 69,15,88,230 // addps %xmm14,%xmm12
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 65,15,88,206 // addps %xmm14,%xmm1
.byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,40,212 // movaps %xmm4,%xmm2
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 68,15,88,200 // addps %xmm0,%xmm9
.byte 68,15,89,215 // mulps %xmm7,%xmm10
@@ -18785,7 +18376,6 @@
.byte 15,40,230 // movaps %xmm6,%xmm4
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,204 // movaps %xmm12,%xmm1
.byte 65,15,40,209 // movaps %xmm9,%xmm2
.byte 255,224 // jmpq *%rax
@@ -18805,9 +18395,7 @@
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,222,46,0,0 // movaps 0x2ede(%rip),%xmm8 # 3b30 <_sk_callback_sse41+0x225>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -18819,10 +18407,7 @@
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,216 // minps %xmm8,%xmm3
+ .byte 15,93,29,211,46,0,0 // minps 0x2ed3(%rip),%xmm3 # 3b40 <_sk_callback_sse41+0x235>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -18909,9 +18494,7 @@
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,62,46,0,0 // movaps 0x2e3e(%rip),%xmm9 # 3b50 <_sk_callback_sse41+0x245>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -18925,58 +18508,48 @@
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 184,145,131,158,61 // mov $0x3d9e8391,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 69,15,89,246 // mulps %xmm14,%xmm14
- .byte 184,154,153,153,62 // mov $0x3e99999a,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 184,92,143,50,63 // mov $0x3f328f5c,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 184,10,215,35,59 // mov $0x3b23d70a,%eax
- .byte 102,68,15,110,232 // movd %eax,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 69,15,89,206 // mulps %xmm14,%xmm9
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 184,174,71,97,61 // mov $0x3d6147ae,%eax
- .byte 102,68,15,110,240 // movd %eax,%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 65,15,194,198,1 // cmpltps %xmm14,%xmm0
- .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9
- .byte 69,15,40,251 // movaps %xmm11,%xmm15
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 65,15,194,206,1 // cmpltps %xmm14,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 102,69,15,56,20,215 // blendvps %xmm0,%xmm15,%xmm10
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
+ .byte 68,15,40,29,41,46,0,0 // movaps 0x2e29(%rip),%xmm11 # 3b60 <_sk_callback_sse41+0x255>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 68,15,40,208 // movaps %xmm0,%xmm10
+ .byte 69,15,89,210 // mulps %xmm10,%xmm10
+ .byte 68,15,40,37,33,46,0,0 // movaps 0x2e21(%rip),%xmm12 # 3b70 <_sk_callback_sse41+0x265>
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 69,15,89,196 // mulps %xmm12,%xmm8
+ .byte 68,15,40,45,33,46,0,0 // movaps 0x2e21(%rip),%xmm13 # 3b80 <_sk_callback_sse41+0x275>
.byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 65,15,194,214,1 // cmpltps %xmm14,%xmm2
+ .byte 69,15,89,194 // mulps %xmm10,%xmm8
+ .byte 68,15,40,53,33,46,0,0 // movaps 0x2e21(%rip),%xmm14 # 3b90 <_sk_callback_sse41+0x285>
+ .byte 69,15,88,198 // addps %xmm14,%xmm8
+ .byte 68,15,40,61,37,46,0,0 // movaps 0x2e25(%rip),%xmm15 # 3ba0 <_sk_callback_sse41+0x295>
+ .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
+ .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,211 // mulps %xmm11,%xmm10
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,89,192 // mulps %xmm0,%xmm0
+ .byte 68,15,40,201 // movaps %xmm1,%xmm9
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 69,15,88,205 // addps %xmm13,%xmm9
+ .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 69,15,88,206 // addps %xmm14,%xmm9
+ .byte 65,15,194,207,1 // cmpltps %xmm15,%xmm1
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9
+ .byte 68,15,89,218 // mulps %xmm2,%xmm11
+ .byte 68,15,40,210 // movaps %xmm2,%xmm10
+ .byte 69,15,89,210 // mulps %xmm10,%xmm10
+ .byte 68,15,89,226 // mulps %xmm2,%xmm12
+ .byte 69,15,88,229 // addps %xmm13,%xmm12
+ .byte 69,15,89,212 // mulps %xmm12,%xmm10
+ .byte 69,15,88,214 // addps %xmm14,%xmm10
+ .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,69,15,56,20,195 // blendvps %xmm0,%xmm11,%xmm8
+ .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_to_srgb_sse41
@@ -18992,57 +18565,44 @@
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
.byte 69,15,83,200 // rcpps %xmm8,%xmm9
- .byte 69,15,82,248 // rsqrtps %xmm8,%xmm15
- .byte 184,41,92,71,65 // mov $0x41475c29,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 184,194,135,210,62 // mov $0x3ed287c2,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 184,206,111,48,63 // mov $0x3f306fce,%eax
- .byte 102,68,15,110,232 // movd %eax,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 184,168,87,202,61 // mov $0x3dca57a8,%eax
- .byte 53,0,0,0,128 // xor $0x80000000,%eax
- .byte 102,68,15,110,240 // movd %eax,%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 69,15,88,249 // addps %xmm9,%xmm15
+ .byte 69,15,82,208 // rsqrtps %xmm8,%xmm10
+ .byte 68,15,40,29,149,45,0,0 // movaps 0x2d95(%rip),%xmm11 # 3bb0 <_sk_callback_sse41+0x2a5>
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 68,15,40,37,150,45,0,0 // movaps 0x2d96(%rip),%xmm12 # 3bc0 <_sk_callback_sse41+0x2b5>
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 68,15,40,45,154,45,0,0 // movaps 0x2d9a(%rip),%xmm13 # 3bd0 <_sk_callback_sse41+0x2c5>
+ .byte 69,15,88,205 // addps %xmm13,%xmm9
+ .byte 68,15,40,53,158,45,0,0 // movaps 0x2d9e(%rip),%xmm14 # 3be0 <_sk_callback_sse41+0x2d5>
+ .byte 69,15,89,214 // mulps %xmm14,%xmm10
+ .byte 69,15,88,209 // addps %xmm9,%xmm10
+ .byte 68,15,40,5,158,45,0,0 // movaps 0x2d9e(%rip),%xmm8 # 3bf0 <_sk_callback_sse41+0x2e5>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,93,207 // minps %xmm15,%xmm9
- .byte 184,4,231,140,59 // mov $0x3b8ce704,%eax
- .byte 102,68,15,110,248 // movd %eax,%xmm15
- .byte 69,15,198,255,0 // shufps $0x0,%xmm15,%xmm15
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,61,158,45,0,0 // movaps 0x2d9e(%rip),%xmm15 # 3c00 <_sk_callback_sse41+0x2f5>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
- .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9
- .byte 68,15,82,210 // rsqrtps %xmm2,%xmm10
- .byte 65,15,83,194 // rcpps %xmm10,%xmm0
- .byte 69,15,82,210 // rsqrtps %xmm10,%xmm10
- .byte 65,15,89,197 // mulps %xmm13,%xmm0
- .byte 65,15,88,198 // addps %xmm14,%xmm0
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 68,15,88,208 // addps %xmm0,%xmm10
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 65,15,93,202 // minps %xmm10,%xmm1
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
+ .byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9
+ .byte 15,82,194 // rsqrtps %xmm2,%xmm0
+ .byte 15,83,200 // rcpps %xmm0,%xmm1
+ .byte 15,82,192 // rsqrtps %xmm0,%xmm0
+ .byte 65,15,89,204 // mulps %xmm12,%xmm1
+ .byte 65,15,88,205 // addps %xmm13,%xmm1
+ .byte 65,15,89,198 // mulps %xmm14,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,93,208 // minps %xmm0,%xmm10
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,65,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm1
+ .byte 102,68,15,56,20,209 // blendvps %xmm0,%xmm1,%xmm10
.byte 15,82,195 // rsqrtps %xmm3,%xmm0
- .byte 15,83,208 // rcpps %xmm0,%xmm2
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
+ .byte 15,83,200 // rcpps %xmm0,%xmm1
+ .byte 65,15,89,204 // mulps %xmm12,%xmm1
+ .byte 65,15,88,205 // addps %xmm13,%xmm1
.byte 15,82,192 // rsqrtps %xmm0,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
+ .byte 65,15,89,198 // mulps %xmm14,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
.byte 68,15,93,192 // minps %xmm0,%xmm8
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,194,223,1 // cmpltps %xmm15,%xmm3
@@ -19050,6 +18610,7 @@
.byte 102,69,15,56,20,195 // blendvps %xmm0,%xmm11,%xmm8
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,40,208 // movaps %xmm8,%xmm2
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,40,229 // movaps %xmm5,%xmm4
@@ -19062,83 +18623,55 @@
.globl _sk_rgb_to_hsl_sse41
FUNCTION(_sk_rgb_to_hsl_sse41)
_sk_rgb_to_hsl_sse41:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 65,184,171,170,42,62 // mov $0x3e2aaaab,%r8d
- .byte 65,185,0,0,192,64 // mov $0x40c00000,%r9d
- .byte 184,0,0,0,64 // mov $0x40000000,%eax
- .byte 185,0,0,128,64 // mov $0x40800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 68,15,95,227 // maxps %xmm3,%xmm12
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,93,233 // minps %xmm1,%xmm13
- .byte 68,15,93,235 // minps %xmm3,%xmm13
- .byte 69,15,40,204 // movaps %xmm12,%xmm9
- .byte 68,15,194,200,0 // cmpeqps %xmm0,%xmm9
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
- .byte 68,15,194,251,1 // cmpltps %xmm3,%xmm15
- .byte 69,15,40,212 // movaps %xmm12,%xmm10
- .byte 68,15,194,209,0 // cmpeqps %xmm1,%xmm10
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,40,212 // movaps %xmm12,%xmm2
- .byte 65,15,92,213 // subps %xmm13,%xmm2
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,94,218 // divps %xmm2,%xmm11
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,68,15,56,20,195 // blendvps %xmm0,%xmm3,%xmm8
- .byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 102,65,15,110,217 // movd %r9d,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,84,223 // andps %xmm15,%xmm3
- .byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 184,0,0,0,63 // mov $0x3f000000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,68,15,56,20,195 // blendvps %xmm0,%xmm3,%xmm8
- .byte 65,15,40,220 // movaps %xmm12,%xmm3
+ .byte 68,15,40,201 // movaps %xmm1,%xmm9
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 69,15,40,216 // movaps %xmm8,%xmm11
+ .byte 69,15,95,217 // maxps %xmm9,%xmm11
+ .byte 68,15,95,218 // maxps %xmm2,%xmm11
+ .byte 69,15,40,224 // movaps %xmm8,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 68,15,93,226 // minps %xmm2,%xmm12
+ .byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,40,204 // movaps %xmm12,%xmm9
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 65,15,92,205 // subps %xmm13,%xmm1
+ .byte 68,15,40,53,239,44,0,0 // movaps 0x2cef(%rip),%xmm14 # 3c10 <_sk_callback_sse41+0x305>
+ .byte 68,15,94,241 // divps %xmm1,%xmm14
+ .byte 69,15,40,211 // movaps %xmm11,%xmm10
+ .byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 65,15,89,198 // mulps %xmm14,%xmm0
+ .byte 69,15,40,249 // movaps %xmm9,%xmm15
+ .byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
+ .byte 68,15,84,61,214,44,0,0 // andps 0x2cd6(%rip),%xmm15 # 3c20 <_sk_callback_sse41+0x315>
+ .byte 68,15,88,248 // addps %xmm0,%xmm15
+ .byte 65,15,40,195 // movaps %xmm11,%xmm0
+ .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
+ .byte 65,15,92,208 // subps %xmm8,%xmm2
+ .byte 65,15,89,214 // mulps %xmm14,%xmm2
+ .byte 68,15,40,45,201,44,0,0 // movaps 0x2cc9(%rip),%xmm13 # 3c30 <_sk_callback_sse41+0x325>
+ .byte 65,15,88,213 // addps %xmm13,%xmm2
+ .byte 69,15,92,193 // subps %xmm9,%xmm8
+ .byte 69,15,89,198 // mulps %xmm14,%xmm8
+ .byte 68,15,88,5,197,44,0,0 // addps 0x2cc5(%rip),%xmm8 # 3c40 <_sk_callback_sse41+0x335>
+ .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
- .byte 65,15,194,221,4 // cmpneqps %xmm13,%xmm3
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,84,195 // andps %xmm3,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 65,15,94,212 // divps %xmm12,%xmm2
- .byte 15,84,211 // andps %xmm3,%xmm2
+ .byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
+ .byte 68,15,89,5,189,44,0,0 // mulps 0x2cbd(%rip),%xmm8 # 3c50 <_sk_callback_sse41+0x345>
+ .byte 69,15,40,203 // movaps %xmm11,%xmm9
+ .byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
+ .byte 69,15,84,193 // andps %xmm9,%xmm8
+ .byte 69,15,92,235 // subps %xmm11,%xmm13
+ .byte 69,15,88,220 // addps %xmm12,%xmm11
+ .byte 15,40,5,177,44,0,0 // movaps 0x2cb1(%rip),%xmm0 # 3c60 <_sk_callback_sse41+0x355>
+ .byte 65,15,40,211 // movaps %xmm11,%xmm2
+ .byte 15,89,208 // mulps %xmm0,%xmm2
+ .byte 15,194,194,1 // cmpltps %xmm2,%xmm0
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 102,69,15,56,20,221 // blendvps %xmm0,%xmm13,%xmm11
+ .byte 65,15,94,203 // divps %xmm11,%xmm1
+ .byte 65,15,84,201 // andps %xmm9,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
.byte 255,224 // jmpq *%rax
HIDDEN _sk_hsl_to_rgb_sse41
@@ -19327,14 +18860,11 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 102,68,15,56,49,4,56 // pmovzxbd (%rax,%rdi,1),%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 68,15,89,5,179,41,0,0 // mulps 0x29b3(%rip),%xmm8 # 3c70 <_sk_callback_sse41+0x365>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19368,21 +18898,18 @@
.byte 72,139,0 // mov (%rax),%rax
.byte 102,68,15,56,49,4,56 // pmovzxbd (%rax,%rdi,1),%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,89,5,95,41,0,0 // mulps 0x295f(%rip),%xmm8 # 3c80 <_sk_callback_sse41+0x375>
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19394,39 +18921,28 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 102,68,15,56,51,4,120 // pmovzxwd (%rax,%rdi,2),%xmm8
- .byte 102,15,111,29,55,42,0,0 // movdqa 0x2a37(%rip),%xmm3 # 3ee0 <_sk_callback_sse41+0xf8>
+ .byte 102,15,111,29,47,41,0,0 // movdqa 0x292f(%rip),%xmm3 # 3c90 <_sk_callback_sse41+0x385>
.byte 102,65,15,219,216 // pand %xmm8,%xmm3
.byte 68,15,91,203 // cvtdq2ps %xmm3,%xmm9
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 102,15,111,29,35,42,0,0 // movdqa 0x2a23(%rip),%xmm3 # 3ef0 <_sk_callback_sse41+0x108>
+ .byte 68,15,89,13,46,41,0,0 // mulps 0x292e(%rip),%xmm9 # 3ca0 <_sk_callback_sse41+0x395>
+ .byte 102,15,111,29,54,41,0,0 // movdqa 0x2936(%rip),%xmm3 # 3cb0 <_sk_callback_sse41+0x3a5>
.byte 102,65,15,219,216 // pand %xmm8,%xmm3
- .byte 68,15,91,203 // cvtdq2ps %xmm3,%xmm9
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 102,68,15,219,5,14,42,0,0 // pand 0x2a0e(%rip),%xmm8 # 3f00 <_sk_callback_sse41+0x118>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,55,41,0,0 // mulps 0x2937(%rip),%xmm3 # 3cc0 <_sk_callback_sse41+0x3b5>
+ .byte 102,68,15,219,5,62,41,0,0 // pand 0x293e(%rip),%xmm8 # 3cd0 <_sk_callback_sse41+0x3c5>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 68,15,89,5,66,41,0,0 // mulps 0x2942(%rip),%xmm8 # 3ce0 <_sk_callback_sse41+0x3d5>
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,44,41,0,0 // movaps 0x292c(%rip),%xmm3 # 3cf0 <_sk_callback_sse41+0x3e5>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_tables_sse41
@@ -19437,7 +18953,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 243,69,15,111,4,184 // movdqu (%r8,%rdi,4),%xmm8
- .byte 102,15,111,5,196,41,0,0 // movdqa 0x29c4(%rip),%xmm0 # 3f10 <_sk_callback_sse41+0x128>
+ .byte 102,15,111,5,35,41,0,0 // movdqa 0x2923(%rip),%xmm0 # 3d00 <_sk_callback_sse41+0x3f5>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,72,15,126,193 // movq %xmm0,%rcx
@@ -19452,7 +18968,7 @@
.byte 102,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,127,41,0,0 // pshufb 0x297f(%rip),%xmm1 # 3f20 <_sk_callback_sse41+0x138>
+ .byte 102,15,56,0,13,222,40,0,0 // pshufb 0x28de(%rip),%xmm1 # 3d10 <_sk_callback_sse41+0x405>
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
.byte 68,15,182,209 // movzbl %cl,%r10d
@@ -19467,7 +18983,7 @@
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,59,41,0,0 // pshufb 0x293b(%rip),%xmm2 # 3f30 <_sk_callback_sse41+0x148>
+ .byte 102,15,56,0,21,154,40,0,0 // pshufb 0x289a(%rip),%xmm2 # 3d20 <_sk_callback_sse41+0x415>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -19481,11 +18997,8 @@
.byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
+ .byte 15,89,29,87,40,0,0 // mulps 0x2857(%rip),%xmm3 # 3d30 <_sk_callback_sse41+0x425>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19504,7 +19017,7 @@
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,177,40,0,0 // movdqa 0x28b1(%rip),%xmm8 # 3f40 <_sk_callback_sse41+0x158>
+ .byte 102,68,15,111,5,42,40,0,0 // movdqa 0x282a(%rip),%xmm8 # 3d40 <_sk_callback_sse41+0x435>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -19521,7 +19034,7 @@
.byte 243,67,15,16,20,8 // movss (%r8,%r9,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,15,56,0,13,100,40,0,0 // pshufb 0x2864(%rip),%xmm1 # 3f50 <_sk_callback_sse41+0x168>
+ .byte 102,15,56,0,13,221,39,0,0 // pshufb 0x27dd(%rip),%xmm1 # 3d50 <_sk_callback_sse41+0x445>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
@@ -19550,17 +19063,14 @@
.byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
.byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
+ .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
+ .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,235,217 // por %xmm9,%xmm3
+ .byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 15,89,29,43,39,0,0 // mulps 0x272b(%rip),%xmm3 # 3d60 <_sk_callback_sse41+0x455>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19582,7 +19092,7 @@
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,88,39,0,0 // movdqa 0x2758(%rip),%xmm8 # 3f60 <_sk_callback_sse41+0x178>
+ .byte 102,68,15,111,5,237,38,0,0 // movdqa 0x26ed(%rip),%xmm8 # 3d70 <_sk_callback_sse41+0x465>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -19599,7 +19109,7 @@
.byte 243,67,15,16,28,8 // movss (%r8,%r9,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,15,56,0,13,11,39,0,0 // pshufb 0x270b(%rip),%xmm1 # 3f70 <_sk_callback_sse41+0x188>
+ .byte 102,15,56,0,13,160,38,0,0 // pshufb 0x26a0(%rip),%xmm1 # 3d80 <_sk_callback_sse41+0x475>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
@@ -19629,10 +19139,8 @@
.byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
.byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,11,38,0,0 // movaps 0x260b(%rip),%xmm3 # 3d90 <_sk_callback_sse41+0x485>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_byte_tables_sse41
@@ -19642,9 +19150,7 @@
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,12,38,0,0 // movaps 0x260c(%rip),%xmm8 # 3da0 <_sk_callback_sse41+0x495>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
@@ -19652,21 +19158,18 @@
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,73,15,126,193 // movq %xmm0,%r9
.byte 69,137,202 // mov %r9d,%r10d
- .byte 77,137,203 // mov %r9,%r11
- .byte 73,193,235,32 // shr $0x20,%r11
- .byte 76,139,48 // mov (%rax),%r14
- .byte 76,139,72,8 // mov 0x8(%rax),%r9
- .byte 102,67,15,58,32,4,22,0 // pinsrb $0x0,(%r14,%r10,1),%xmm0
- .byte 102,67,15,58,32,4,30,1 // pinsrb $0x1,(%r14,%r11,1),%xmm0
- .byte 67,15,182,28,6 // movzbl (%r14,%r8,1),%ebx
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 76,139,24 // mov (%rax),%r11
+ .byte 76,139,112,8 // mov 0x8(%rax),%r14
+ .byte 102,67,15,58,32,4,19,0 // pinsrb $0x0,(%r11,%r10,1),%xmm0
+ .byte 102,67,15,58,32,4,11,1 // pinsrb $0x1,(%r11,%r9,1),%xmm0
+ .byte 67,15,182,28,3 // movzbl (%r11,%r8,1),%ebx
.byte 102,15,58,32,195,2 // pinsrb $0x2,%ebx,%xmm0
- .byte 65,15,182,12,14 // movzbl (%r14,%rcx,1),%ecx
+ .byte 65,15,182,12,11 // movzbl (%r11,%rcx,1),%ecx
.byte 102,15,58,32,193,3 // pinsrb $0x3,%ecx,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 185,129,128,128,59 // mov $0x3b808081,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,189,37,0,0 // movaps 0x25bd(%rip),%xmm9 # 3db0 <_sk_callback_sse41+0x4a5>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -19674,13 +19177,13 @@
.byte 65,137,200 // mov %ecx,%r8d
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,218 // mov %ebx,%r10d
+ .byte 65,137,217 // mov %ebx,%r9d
.byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,67,15,58,32,12,17,0 // pinsrb $0x0,(%r9,%r10,1),%xmm1
- .byte 102,65,15,58,32,12,25,1 // pinsrb $0x1,(%r9,%rbx,1),%xmm1
- .byte 67,15,182,28,1 // movzbl (%r9,%r8,1),%ebx
+ .byte 102,67,15,58,32,12,14,0 // pinsrb $0x0,(%r14,%r9,1),%xmm1
+ .byte 102,65,15,58,32,12,30,1 // pinsrb $0x1,(%r14,%rbx,1),%xmm1
+ .byte 67,15,182,28,6 // movzbl (%r14,%r8,1),%ebx
.byte 102,15,58,32,203,2 // pinsrb $0x2,%ebx,%xmm1
- .byte 65,15,182,12,9 // movzbl (%r9,%rcx,1),%ecx
+ .byte 65,15,182,12,14 // movzbl (%r14,%rcx,1),%ecx
.byte 102,15,58,32,201,3 // pinsrb $0x3,%ecx,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
@@ -19704,8 +19207,8 @@
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 65,137,200 // mov %ecx,%r8d
.byte 72,193,233,32 // shr $0x20,%rcx
@@ -19757,9 +19260,7 @@
.byte 102,15,58,32,193,3 // pinsrb $0x3,%ecx,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 185,129,128,128,59 // mov $0x3b808081,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,69,36,0,0 // movaps 0x2445(%rip),%xmm9 # 3dc0 <_sk_callback_sse41+0x4b5>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -19936,31 +19437,31 @@
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,168,33,0,0 // mulps 0x21a8(%rip),%xmm8 # 3f80 <_sk_callback_sse41+0x198>
- .byte 68,15,84,21,176,33,0,0 // andps 0x21b0(%rip),%xmm10 # 3f90 <_sk_callback_sse41+0x1a8>
- .byte 68,15,86,21,184,33,0,0 // orps 0x21b8(%rip),%xmm10 # 3fa0 <_sk_callback_sse41+0x1b8>
- .byte 68,15,88,5,192,33,0,0 // addps 0x21c0(%rip),%xmm8 # 3fb0 <_sk_callback_sse41+0x1c8>
- .byte 68,15,40,37,200,33,0,0 // movaps 0x21c8(%rip),%xmm12 # 3fc0 <_sk_callback_sse41+0x1d8>
+ .byte 68,15,89,5,156,33,0,0 // mulps 0x219c(%rip),%xmm8 # 3dd0 <_sk_callback_sse41+0x4c5>
+ .byte 68,15,84,21,164,33,0,0 // andps 0x21a4(%rip),%xmm10 # 3de0 <_sk_callback_sse41+0x4d5>
+ .byte 68,15,86,21,172,33,0,0 // orps 0x21ac(%rip),%xmm10 # 3df0 <_sk_callback_sse41+0x4e5>
+ .byte 68,15,88,5,180,33,0,0 // addps 0x21b4(%rip),%xmm8 # 3e00 <_sk_callback_sse41+0x4f5>
+ .byte 68,15,40,37,188,33,0,0 // movaps 0x21bc(%rip),%xmm12 # 3e10 <_sk_callback_sse41+0x505>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,200,33,0,0 // addps 0x21c8(%rip),%xmm10 # 3fd0 <_sk_callback_sse41+0x1e8>
- .byte 68,15,40,37,208,33,0,0 // movaps 0x21d0(%rip),%xmm12 # 3fe0 <_sk_callback_sse41+0x1f8>
+ .byte 68,15,88,21,188,33,0,0 // addps 0x21bc(%rip),%xmm10 # 3e20 <_sk_callback_sse41+0x515>
+ .byte 68,15,40,37,196,33,0,0 // movaps 0x21c4(%rip),%xmm12 # 3e30 <_sk_callback_sse41+0x525>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,189,33,0,0 // addps 0x21bd(%rip),%xmm8 # 3ff0 <_sk_callback_sse41+0x208>
- .byte 68,15,40,21,197,33,0,0 // movaps 0x21c5(%rip),%xmm10 # 4000 <_sk_callback_sse41+0x218>
+ .byte 68,15,88,5,177,33,0,0 // addps 0x21b1(%rip),%xmm8 # 3e40 <_sk_callback_sse41+0x535>
+ .byte 68,15,40,21,185,33,0,0 // movaps 0x21b9(%rip),%xmm10 # 3e50 <_sk_callback_sse41+0x545>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,197,33,0,0 // movaps 0x21c5(%rip),%xmm10 # 4010 <_sk_callback_sse41+0x228>
+ .byte 68,15,40,21,185,33,0,0 // movaps 0x21b9(%rip),%xmm10 # 3e60 <_sk_callback_sse41+0x555>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,201,33,0,0 // movaps 0x21c9(%rip),%xmm11 # 4020 <_sk_callback_sse41+0x238>
+ .byte 68,15,40,29,189,33,0,0 // movaps 0x21bd(%rip),%xmm11 # 3e70 <_sk_callback_sse41+0x565>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,201,33,0,0 // mulps 0x21c9(%rip),%xmm11 # 4030 <_sk_callback_sse41+0x248>
+ .byte 68,15,89,29,189,33,0,0 // mulps 0x21bd(%rip),%xmm11 # 3e80 <_sk_callback_sse41+0x575>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -19968,10 +19469,7 @@
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,93,192 // minps %xmm0,%xmm8
+ .byte 68,15,93,5,164,33,0,0 // minps 0x21a4(%rip),%xmm8 # 3e90 <_sk_callback_sse41+0x585>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -20001,31 +19499,31 @@
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,56,33,0,0 // mulps 0x2138(%rip),%xmm12 # 4040 <_sk_callback_sse41+0x258>
- .byte 68,15,84,29,64,33,0,0 // andps 0x2140(%rip),%xmm11 # 4050 <_sk_callback_sse41+0x268>
- .byte 68,15,86,29,72,33,0,0 // orps 0x2148(%rip),%xmm11 # 4060 <_sk_callback_sse41+0x278>
- .byte 68,15,88,37,80,33,0,0 // addps 0x2150(%rip),%xmm12 # 4070 <_sk_callback_sse41+0x288>
- .byte 15,40,13,89,33,0,0 // movaps 0x2159(%rip),%xmm1 # 4080 <_sk_callback_sse41+0x298>
+ .byte 68,15,89,37,69,33,0,0 // mulps 0x2145(%rip),%xmm12 # 3ea0 <_sk_callback_sse41+0x595>
+ .byte 68,15,84,29,77,33,0,0 // andps 0x214d(%rip),%xmm11 # 3eb0 <_sk_callback_sse41+0x5a5>
+ .byte 68,15,86,29,85,33,0,0 // orps 0x2155(%rip),%xmm11 # 3ec0 <_sk_callback_sse41+0x5b5>
+ .byte 68,15,88,37,93,33,0,0 // addps 0x215d(%rip),%xmm12 # 3ed0 <_sk_callback_sse41+0x5c5>
+ .byte 15,40,13,102,33,0,0 // movaps 0x2166(%rip),%xmm1 # 3ee0 <_sk_callback_sse41+0x5d5>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,89,33,0,0 // addps 0x2159(%rip),%xmm11 # 4090 <_sk_callback_sse41+0x2a8>
- .byte 15,40,13,98,33,0,0 // movaps 0x2162(%rip),%xmm1 # 40a0 <_sk_callback_sse41+0x2b8>
+ .byte 68,15,88,29,102,33,0,0 // addps 0x2166(%rip),%xmm11 # 3ef0 <_sk_callback_sse41+0x5e5>
+ .byte 15,40,13,111,33,0,0 // movaps 0x216f(%rip),%xmm1 # 3f00 <_sk_callback_sse41+0x5f5>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,79,33,0,0 // addps 0x214f(%rip),%xmm12 # 40b0 <_sk_callback_sse41+0x2c8>
- .byte 15,40,13,88,33,0,0 // movaps 0x2158(%rip),%xmm1 # 40c0 <_sk_callback_sse41+0x2d8>
+ .byte 68,15,88,37,92,33,0,0 // addps 0x215c(%rip),%xmm12 # 3f10 <_sk_callback_sse41+0x605>
+ .byte 15,40,13,101,33,0,0 // movaps 0x2165(%rip),%xmm1 # 3f20 <_sk_callback_sse41+0x615>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,88,33,0,0 // movaps 0x2158(%rip),%xmm10 # 40d0 <_sk_callback_sse41+0x2e8>
+ .byte 68,15,40,21,101,33,0,0 // movaps 0x2165(%rip),%xmm10 # 3f30 <_sk_callback_sse41+0x625>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,93,33,0,0 // movaps 0x215d(%rip),%xmm1 # 40e0 <_sk_callback_sse41+0x2f8>
+ .byte 15,40,13,106,33,0,0 // movaps 0x216a(%rip),%xmm1 # 3f40 <_sk_callback_sse41+0x635>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,94,33,0,0 // mulps 0x215e(%rip),%xmm1 # 40f0 <_sk_callback_sse41+0x308>
+ .byte 15,89,13,107,33,0,0 // mulps 0x216b(%rip),%xmm1 # 3f50 <_sk_callback_sse41+0x645>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -20033,10 +19531,7 @@
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,93,200 // minps %xmm0,%xmm1
+ .byte 15,93,13,86,33,0,0 // minps 0x2156(%rip),%xmm1 # 3f60 <_sk_callback_sse41+0x655>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -20066,31 +19561,31 @@
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,209,32,0,0 // mulps 0x20d1(%rip),%xmm12 # 4100 <_sk_callback_sse41+0x318>
- .byte 68,15,84,29,217,32,0,0 // andps 0x20d9(%rip),%xmm11 # 4110 <_sk_callback_sse41+0x328>
- .byte 68,15,86,29,225,32,0,0 // orps 0x20e1(%rip),%xmm11 # 4120 <_sk_callback_sse41+0x338>
- .byte 68,15,88,37,233,32,0,0 // addps 0x20e9(%rip),%xmm12 # 4130 <_sk_callback_sse41+0x348>
- .byte 15,40,21,242,32,0,0 // movaps 0x20f2(%rip),%xmm2 # 4140 <_sk_callback_sse41+0x358>
+ .byte 68,15,89,37,247,32,0,0 // mulps 0x20f7(%rip),%xmm12 # 3f70 <_sk_callback_sse41+0x665>
+ .byte 68,15,84,29,255,32,0,0 // andps 0x20ff(%rip),%xmm11 # 3f80 <_sk_callback_sse41+0x675>
+ .byte 68,15,86,29,7,33,0,0 // orps 0x2107(%rip),%xmm11 # 3f90 <_sk_callback_sse41+0x685>
+ .byte 68,15,88,37,15,33,0,0 // addps 0x210f(%rip),%xmm12 # 3fa0 <_sk_callback_sse41+0x695>
+ .byte 15,40,21,24,33,0,0 // movaps 0x2118(%rip),%xmm2 # 3fb0 <_sk_callback_sse41+0x6a5>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,242,32,0,0 // addps 0x20f2(%rip),%xmm11 # 4150 <_sk_callback_sse41+0x368>
- .byte 15,40,21,251,32,0,0 // movaps 0x20fb(%rip),%xmm2 # 4160 <_sk_callback_sse41+0x378>
+ .byte 68,15,88,29,24,33,0,0 // addps 0x2118(%rip),%xmm11 # 3fc0 <_sk_callback_sse41+0x6b5>
+ .byte 15,40,21,33,33,0,0 // movaps 0x2121(%rip),%xmm2 # 3fd0 <_sk_callback_sse41+0x6c5>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,232,32,0,0 // addps 0x20e8(%rip),%xmm12 # 4170 <_sk_callback_sse41+0x388>
- .byte 15,40,21,241,32,0,0 // movaps 0x20f1(%rip),%xmm2 # 4180 <_sk_callback_sse41+0x398>
+ .byte 68,15,88,37,14,33,0,0 // addps 0x210e(%rip),%xmm12 # 3fe0 <_sk_callback_sse41+0x6d5>
+ .byte 15,40,21,23,33,0,0 // movaps 0x2117(%rip),%xmm2 # 3ff0 <_sk_callback_sse41+0x6e5>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,241,32,0,0 // movaps 0x20f1(%rip),%xmm10 # 4190 <_sk_callback_sse41+0x3a8>
+ .byte 68,15,40,21,23,33,0,0 // movaps 0x2117(%rip),%xmm10 # 4000 <_sk_callback_sse41+0x6f5>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,246,32,0,0 // movaps 0x20f6(%rip),%xmm2 # 41a0 <_sk_callback_sse41+0x3b8>
+ .byte 15,40,21,28,33,0,0 // movaps 0x211c(%rip),%xmm2 # 4010 <_sk_callback_sse41+0x705>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,247,32,0,0 // mulps 0x20f7(%rip),%xmm2 # 41b0 <_sk_callback_sse41+0x3c8>
+ .byte 15,89,21,29,33,0,0 // mulps 0x211d(%rip),%xmm2 # 4020 <_sk_callback_sse41+0x715>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -20098,10 +19593,7 @@
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,93,208 // minps %xmm0,%xmm2
+ .byte 15,93,21,8,33,0,0 // minps 0x2108(%rip),%xmm2 # 4030 <_sk_callback_sse41+0x725>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -20131,31 +19623,31 @@
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,106,32,0,0 // mulps 0x206a(%rip),%xmm12 # 41c0 <_sk_callback_sse41+0x3d8>
- .byte 68,15,84,29,114,32,0,0 // andps 0x2072(%rip),%xmm11 # 41d0 <_sk_callback_sse41+0x3e8>
- .byte 68,15,86,29,122,32,0,0 // orps 0x207a(%rip),%xmm11 # 41e0 <_sk_callback_sse41+0x3f8>
- .byte 68,15,88,37,130,32,0,0 // addps 0x2082(%rip),%xmm12 # 41f0 <_sk_callback_sse41+0x408>
- .byte 15,40,29,139,32,0,0 // movaps 0x208b(%rip),%xmm3 # 4200 <_sk_callback_sse41+0x418>
+ .byte 68,15,89,37,169,32,0,0 // mulps 0x20a9(%rip),%xmm12 # 4040 <_sk_callback_sse41+0x735>
+ .byte 68,15,84,29,177,32,0,0 // andps 0x20b1(%rip),%xmm11 # 4050 <_sk_callback_sse41+0x745>
+ .byte 68,15,86,29,185,32,0,0 // orps 0x20b9(%rip),%xmm11 # 4060 <_sk_callback_sse41+0x755>
+ .byte 68,15,88,37,193,32,0,0 // addps 0x20c1(%rip),%xmm12 # 4070 <_sk_callback_sse41+0x765>
+ .byte 15,40,29,202,32,0,0 // movaps 0x20ca(%rip),%xmm3 # 4080 <_sk_callback_sse41+0x775>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,139,32,0,0 // addps 0x208b(%rip),%xmm11 # 4210 <_sk_callback_sse41+0x428>
- .byte 15,40,29,148,32,0,0 // movaps 0x2094(%rip),%xmm3 # 4220 <_sk_callback_sse41+0x438>
+ .byte 68,15,88,29,202,32,0,0 // addps 0x20ca(%rip),%xmm11 # 4090 <_sk_callback_sse41+0x785>
+ .byte 15,40,29,211,32,0,0 // movaps 0x20d3(%rip),%xmm3 # 40a0 <_sk_callback_sse41+0x795>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,129,32,0,0 // addps 0x2081(%rip),%xmm12 # 4230 <_sk_callback_sse41+0x448>
- .byte 15,40,29,138,32,0,0 // movaps 0x208a(%rip),%xmm3 # 4240 <_sk_callback_sse41+0x458>
+ .byte 68,15,88,37,192,32,0,0 // addps 0x20c0(%rip),%xmm12 # 40b0 <_sk_callback_sse41+0x7a5>
+ .byte 15,40,29,201,32,0,0 // movaps 0x20c9(%rip),%xmm3 # 40c0 <_sk_callback_sse41+0x7b5>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,138,32,0,0 // movaps 0x208a(%rip),%xmm10 # 4250 <_sk_callback_sse41+0x468>
+ .byte 68,15,40,21,201,32,0,0 // movaps 0x20c9(%rip),%xmm10 # 40d0 <_sk_callback_sse41+0x7c5>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,143,32,0,0 // movaps 0x208f(%rip),%xmm3 # 4260 <_sk_callback_sse41+0x478>
+ .byte 15,40,29,206,32,0,0 // movaps 0x20ce(%rip),%xmm3 # 40e0 <_sk_callback_sse41+0x7d5>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,144,32,0,0 // mulps 0x2090(%rip),%xmm3 # 4270 <_sk_callback_sse41+0x488>
+ .byte 15,89,29,207,32,0,0 // mulps 0x20cf(%rip),%xmm3 # 40f0 <_sk_callback_sse41+0x7e5>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -20163,10 +19655,7 @@
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,93,216 // minps %xmm0,%xmm3
+ .byte 15,93,29,186,32,0,0 // minps 0x20ba(%rip),%xmm3 # 4100 <_sk_callback_sse41+0x7f5>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -20175,82 +19664,53 @@
.globl _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 184,0,0,200,66 // mov $0x42c80000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 184,0,0,0,67 // mov $0x43000000,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 68,15,92,193 // subps %xmm1,%xmm8
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 184,0,0,128,65 // mov $0x41800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 184,203,61,13,60 // mov $0x3c0d3dcb,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 184,111,18,3,59 // mov $0x3b03126f,%eax
- .byte 102,68,15,110,232 // movd %eax,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 184,10,215,163,59 // mov $0x3ba3d70a,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,40,221 // movaps %xmm13,%xmm11
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 68,15,89,5,182,32,0,0 // mulps 0x20b6(%rip),%xmm8 # 4110 <_sk_callback_sse41+0x805>
+ .byte 68,15,40,13,190,32,0,0 // movaps 0x20be(%rip),%xmm9 # 4120 <_sk_callback_sse41+0x815>
+ .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 15,40,5,195,32,0,0 // movaps 0x20c3(%rip),%xmm0 # 4130 <_sk_callback_sse41+0x825>
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 68,15,88,5,193,32,0,0 // addps 0x20c1(%rip),%xmm8 # 4140 <_sk_callback_sse41+0x835>
+ .byte 68,15,89,5,201,32,0,0 // mulps 0x20c9(%rip),%xmm8 # 4150 <_sk_callback_sse41+0x845>
+ .byte 15,89,13,210,32,0,0 // mulps 0x20d2(%rip),%xmm1 # 4160 <_sk_callback_sse41+0x855>
+ .byte 65,15,88,200 // addps %xmm8,%xmm1
+ .byte 15,89,21,215,32,0,0 // mulps 0x20d7(%rip),%xmm2 # 4170 <_sk_callback_sse41+0x865>
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,92,210 // subps %xmm2,%xmm10
+ .byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 69,15,89,221 // mulps %xmm13,%xmm11
- .byte 184,194,24,17,60 // mov $0x3c1118c2,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 68,15,89,217 // mulps %xmm1,%xmm11
+ .byte 68,15,40,13,203,32,0,0 // movaps 0x20cb(%rip),%xmm9 # 4180 <_sk_callback_sse41+0x875>
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 184,203,61,13,62 // mov $0x3e0d3dcb,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,92,234 // subps %xmm10,%xmm13
- .byte 184,80,128,3,62 // mov $0x3e038050,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 102,69,15,56,20,235 // blendvps %xmm0,%xmm11,%xmm13
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,194,194,1 // cmpltps %xmm2,%xmm0
- .byte 65,15,92,202 // subps %xmm10,%xmm1
+ .byte 15,40,21,203,32,0,0 // movaps 0x20cb(%rip),%xmm2 # 4190 <_sk_callback_sse41+0x885>
+ .byte 15,88,202 // addps %xmm2,%xmm1
+ .byte 68,15,40,37,208,32,0,0 // movaps 0x20d0(%rip),%xmm12 # 41a0 <_sk_callback_sse41+0x895>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 68,15,194,194,1 // cmpltps %xmm2,%xmm8
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 102,68,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm9
- .byte 184,31,215,118,63 // mov $0x3f76d71f,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 65,15,89,197 // mulps %xmm13,%xmm0
- .byte 184,246,64,83,63 // mov $0x3f5340f6,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
+ .byte 69,15,40,216 // movaps %xmm8,%xmm11
+ .byte 69,15,89,219 // mulps %xmm11,%xmm11
+ .byte 69,15,89,216 // mulps %xmm8,%xmm11
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
+ .byte 68,15,88,194 // addps %xmm2,%xmm8
+ .byte 69,15,89,196 // mulps %xmm12,%xmm8
+ .byte 102,69,15,56,20,195 // blendvps %xmm0,%xmm11,%xmm8
+ .byte 69,15,40,218 // movaps %xmm10,%xmm11
+ .byte 69,15,89,219 // mulps %xmm11,%xmm11
+ .byte 69,15,89,218 // mulps %xmm10,%xmm11
+ .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
+ .byte 65,15,88,210 // addps %xmm10,%xmm2
+ .byte 65,15,89,212 // mulps %xmm12,%xmm2
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
+ .byte 15,89,13,137,32,0,0 // mulps 0x2089(%rip),%xmm1 # 41b0 <_sk_callback_sse41+0x8a5>
+ .byte 15,89,21,146,32,0,0 // mulps 0x2092(%rip),%xmm2 # 41c0 <_sk_callback_sse41+0x8b5>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_a8_sse41
@@ -20260,11 +19720,8 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 102,15,56,49,4,56 // pmovzxbd (%rax,%rdi,1),%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
+ .byte 15,89,29,130,32,0,0 // mulps 0x2082(%rip),%xmm3 # 41d0 <_sk_callback_sse41+0x8c5>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
@@ -20296,11 +19753,8 @@
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
+ .byte 15,89,29,22,32,0,0 // mulps 0x2016(%rip),%xmm3 # 41e0 <_sk_callback_sse41+0x8d5>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -20313,9 +19767,7 @@
_sk_store_a8_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,10,32,0,0 // movaps 0x200a(%rip),%xmm8 # 41f0 <_sk_callback_sse41+0x8e5>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8
@@ -20331,15 +19783,10 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 102,15,56,49,4,56 // pmovzxbd (%rax,%rdi,1),%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,231,31,0,0 // mulps 0x1fe7(%rip),%xmm0 # 4200 <_sk_callback_sse41+0x8f5>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,238,31,0,0 // movaps 0x1fee(%rip),%xmm3 # 4210 <_sk_callback_sse41+0x905>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -20369,15 +19816,10 @@
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,135,31,0,0 // mulps 0x1f87(%rip),%xmm0 # 4220 <_sk_callback_sse41+0x915>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,142,31,0,0 // movaps 0x1f8e(%rip),%xmm3 # 4230 <_sk_callback_sse41+0x925>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -20389,9 +19831,9 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 2517 <_sk_gather_i8_sse41+0xf>
+ .byte 116,5 // je 22b9 <_sk_gather_i8_sse41+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 2519 <_sk_gather_i8_sse41+0x11>
+ .byte 235,2 // jmp 22bb <_sk_gather_i8_sse41+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -20422,19 +19864,17 @@
.byte 102,15,58,34,28,8,1 // pinsrd $0x1,(%rax,%rcx,1),%xmm3
.byte 102,66,15,58,34,28,144,2 // pinsrd $0x2,(%rax,%r10,4),%xmm3
.byte 102,66,15,58,34,28,8,3 // pinsrd $0x3,(%rax,%r9,1),%xmm3
- .byte 102,15,111,5,199,28,0,0 // movdqa 0x1cc7(%rip),%xmm0 # 4280 <_sk_callback_sse41+0x498>
+ .byte 102,15,111,5,229,30,0,0 // movdqa 0x1ee5(%rip),%xmm0 # 4240 <_sk_callback_sse41+0x935>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,230,30,0,0 // movaps 0x1ee6(%rip),%xmm8 # 4250 <_sk_callback_sse41+0x945>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,176,28,0,0 // pshufb 0x1cb0(%rip),%xmm1 # 4290 <_sk_callback_sse41+0x4a8>
+ .byte 102,15,56,0,13,229,30,0,0 // pshufb 0x1ee5(%rip),%xmm1 # 4260 <_sk_callback_sse41+0x955>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,172,28,0,0 // pshufb 0x1cac(%rip),%xmm2 # 42a0 <_sk_callback_sse41+0x4b8>
+ .byte 102,15,56,0,21,225,30,0,0 // pshufb 0x1ee1(%rip),%xmm2 # 4270 <_sk_callback_sse41+0x965>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20450,30 +19890,19 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 102,15,56,51,20,120 // pmovzxwd (%rax,%rdi,2),%xmm2
- .byte 102,15,111,5,146,28,0,0 // movdqa 0x1c92(%rip),%xmm0 # 42b0 <_sk_callback_sse41+0x4c8>
+ .byte 102,15,111,5,199,30,0,0 // movdqa 0x1ec7(%rip),%xmm0 # 4280 <_sk_callback_sse41+0x975>
.byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,131,28,0,0 // movdqa 0x1c83(%rip),%xmm1 # 42c0 <_sk_callback_sse41+0x4d8>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,201,30,0,0 // mulps 0x1ec9(%rip),%xmm0 # 4290 <_sk_callback_sse41+0x985>
+ .byte 102,15,111,13,209,30,0,0 // movdqa 0x1ed1(%rip),%xmm1 # 42a0 <_sk_callback_sse41+0x995>
.byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,217 // cvtdq2ps %xmm1,%xmm3
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 102,15,219,21,116,28,0,0 // pand 0x1c74(%rip),%xmm2 # 42d0 <_sk_callback_sse41+0x4e8>
- .byte 15,91,218 // cvtdq2ps %xmm2,%xmm3
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,211,30,0,0 // mulps 0x1ed3(%rip),%xmm1 # 42b0 <_sk_callback_sse41+0x9a5>
+ .byte 102,15,219,21,219,30,0,0 // pand 0x1edb(%rip),%xmm2 # 42c0 <_sk_callback_sse41+0x9b5>
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,225,30,0,0 // mulps 0x1ee1(%rip),%xmm2 # 42d0 <_sk_callback_sse41+0x9c5>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,232,30,0,0 // movaps 0x1ee8(%rip),%xmm3 # 42e0 <_sk_callback_sse41+0x9d5>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_gather_565_sse41
@@ -20501,30 +19930,19 @@
.byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,247,27,0,0 // movdqa 0x1bf7(%rip),%xmm0 # 42e0 <_sk_callback_sse41+0x4f8>
+ .byte 102,15,111,5,141,30,0,0 // movdqa 0x1e8d(%rip),%xmm0 # 42f0 <_sk_callback_sse41+0x9e5>
.byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,232,27,0,0 // movdqa 0x1be8(%rip),%xmm1 # 42f0 <_sk_callback_sse41+0x508>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,143,30,0,0 // mulps 0x1e8f(%rip),%xmm0 # 4300 <_sk_callback_sse41+0x9f5>
+ .byte 102,15,111,13,151,30,0,0 // movdqa 0x1e97(%rip),%xmm1 # 4310 <_sk_callback_sse41+0xa05>
.byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,217 // cvtdq2ps %xmm1,%xmm3
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 102,15,219,21,217,27,0,0 // pand 0x1bd9(%rip),%xmm2 # 4300 <_sk_callback_sse41+0x518>
- .byte 15,91,218 // cvtdq2ps %xmm2,%xmm3
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,153,30,0,0 // mulps 0x1e99(%rip),%xmm1 # 4320 <_sk_callback_sse41+0xa15>
+ .byte 102,15,219,21,161,30,0,0 // pand 0x1ea1(%rip),%xmm2 # 4330 <_sk_callback_sse41+0xa25>
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,167,30,0,0 // mulps 0x1ea7(%rip),%xmm2 # 4340 <_sk_callback_sse41+0xa35>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,174,30,0,0 // movaps 0x1eae(%rip),%xmm3 # 4350 <_sk_callback_sse41+0xa45>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -20533,16 +19951,12 @@
_sk_store_565_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,248,65 // mov $0x41f80000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,175,30,0,0 // movaps 0x1eaf(%rip),%xmm8 # 4360 <_sk_callback_sse41+0xa55>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 185,0,0,124,66 // mov $0x427c0000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,164,30,0,0 // movaps 0x1ea4(%rip),%xmm10 # 4370 <_sk_callback_sse41+0xa65>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -20562,33 +19976,21 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 102,15,56,51,28,120 // pmovzxwd (%rax,%rdi,2),%xmm3
- .byte 102,15,111,5,74,27,0,0 // movdqa 0x1b4a(%rip),%xmm0 # 4310 <_sk_callback_sse41+0x528>
+ .byte 102,15,111,5,111,30,0,0 // movdqa 0x1e6f(%rip),%xmm0 # 4380 <_sk_callback_sse41+0xa75>
.byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,59,27,0,0 // movdqa 0x1b3b(%rip),%xmm1 # 4320 <_sk_callback_sse41+0x538>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,113,30,0,0 // mulps 0x1e71(%rip),%xmm0 # 4390 <_sk_callback_sse41+0xa85>
+ .byte 102,15,111,13,121,30,0,0 // movdqa 0x1e79(%rip),%xmm1 # 43a0 <_sk_callback_sse41+0xa95>
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 102,15,111,21,44,27,0,0 // movdqa 0x1b2c(%rip),%xmm2 # 4330 <_sk_callback_sse41+0x548>
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,123,30,0,0 // mulps 0x1e7b(%rip),%xmm1 # 43b0 <_sk_callback_sse41+0xaa5>
+ .byte 102,15,111,21,131,30,0,0 // movdqa 0x1e83(%rip),%xmm2 # 43c0 <_sk_callback_sse41+0xab5>
.byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 68,15,91,194 // cvtdq2ps %xmm2,%xmm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,219,29,27,27,0,0 // pand 0x1b1b(%rip),%xmm3 # 4340 <_sk_callback_sse41+0x558>
- .byte 68,15,91,195 // cvtdq2ps %xmm3,%xmm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,133,30,0,0 // mulps 0x1e85(%rip),%xmm2 # 43d0 <_sk_callback_sse41+0xac5>
+ .byte 102,15,219,29,141,30,0,0 // pand 0x1e8d(%rip),%xmm3 # 43e0 <_sk_callback_sse41+0xad5>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,147,30,0,0 // mulps 0x1e93(%rip),%xmm3 # 43f0 <_sk_callback_sse41+0xae5>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20617,33 +20019,21 @@
.byte 65,15,183,4,65 // movzwl (%r9,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,169,26,0,0 // movdqa 0x1aa9(%rip),%xmm0 # 4350 <_sk_callback_sse41+0x568>
+ .byte 102,15,111,5,54,30,0,0 // movdqa 0x1e36(%rip),%xmm0 # 4400 <_sk_callback_sse41+0xaf5>
.byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,154,26,0,0 // movdqa 0x1a9a(%rip),%xmm1 # 4360 <_sk_callback_sse41+0x578>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,56,30,0,0 // mulps 0x1e38(%rip),%xmm0 # 4410 <_sk_callback_sse41+0xb05>
+ .byte 102,15,111,13,64,30,0,0 // movdqa 0x1e40(%rip),%xmm1 # 4420 <_sk_callback_sse41+0xb15>
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 102,15,111,21,139,26,0,0 // movdqa 0x1a8b(%rip),%xmm2 # 4370 <_sk_callback_sse41+0x588>
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,66,30,0,0 // mulps 0x1e42(%rip),%xmm1 # 4430 <_sk_callback_sse41+0xb25>
+ .byte 102,15,111,21,74,30,0,0 // movdqa 0x1e4a(%rip),%xmm2 # 4440 <_sk_callback_sse41+0xb35>
.byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 68,15,91,194 // cvtdq2ps %xmm2,%xmm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,219,29,122,26,0,0 // pand 0x1a7a(%rip),%xmm3 # 4380 <_sk_callback_sse41+0x598>
- .byte 68,15,91,195 // cvtdq2ps %xmm3,%xmm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,76,30,0,0 // mulps 0x1e4c(%rip),%xmm2 # 4450 <_sk_callback_sse41+0xb45>
+ .byte 102,15,219,29,84,30,0,0 // pand 0x1e54(%rip),%xmm3 # 4460 <_sk_callback_sse41+0xb55>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,90,30,0,0 // mulps 0x1e5a(%rip),%xmm3 # 4470 <_sk_callback_sse41+0xb65>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20653,20 +20043,18 @@
_sk_store_4444_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,112,65 // mov $0x41700000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,89,30,0,0 // movaps 0x1e59(%rip),%xmm8 # 4480 <_sk_callback_sse41+0xb75>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
.byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
.byte 68,15,89,195 // mulps %xmm3,%xmm8
@@ -20685,19 +20073,17 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 15,16,28,184 // movups (%rax,%rdi,4),%xmm3
- .byte 15,40,5,236,25,0,0 // movaps 0x19ec(%rip),%xmm0 # 4390 <_sk_callback_sse41+0x5a8>
+ .byte 15,40,5,248,29,0,0 // movaps 0x1df8(%rip),%xmm0 # 4490 <_sk_callback_sse41+0xb85>
.byte 15,84,195 // andps %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,250,29,0,0 // movaps 0x1dfa(%rip),%xmm8 # 44a0 <_sk_callback_sse41+0xb95>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 102,15,56,0,13,215,25,0,0 // pshufb 0x19d7(%rip),%xmm1 # 43a0 <_sk_callback_sse41+0x5b8>
+ .byte 102,15,56,0,13,250,29,0,0 // pshufb 0x1dfa(%rip),%xmm1 # 44b0 <_sk_callback_sse41+0xba5>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 102,15,56,0,21,212,25,0,0 // pshufb 0x19d4(%rip),%xmm2 # 43b0 <_sk_callback_sse41+0x5c8>
+ .byte 102,15,56,0,21,247,29,0,0 // pshufb 0x1df7(%rip),%xmm2 # 44c0 <_sk_callback_sse41+0xbb5>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20728,19 +20114,17 @@
.byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3
.byte 102,67,15,58,34,28,145,2 // pinsrd $0x2,(%r9,%r10,4),%xmm3
.byte 102,65,15,58,34,28,137,3 // pinsrd $0x3,(%r9,%rcx,4),%xmm3
- .byte 102,15,111,5,109,25,0,0 // movdqa 0x196d(%rip),%xmm0 # 43c0 <_sk_callback_sse41+0x5d8>
+ .byte 102,15,111,5,144,29,0,0 // movdqa 0x1d90(%rip),%xmm0 # 44d0 <_sk_callback_sse41+0xbc5>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,145,29,0,0 // movaps 0x1d91(%rip),%xmm8 # 44e0 <_sk_callback_sse41+0xbd5>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,86,25,0,0 // pshufb 0x1956(%rip),%xmm1 # 43d0 <_sk_callback_sse41+0x5e8>
+ .byte 102,15,56,0,13,144,29,0,0 // pshufb 0x1d90(%rip),%xmm1 # 44f0 <_sk_callback_sse41+0xbe5>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,82,25,0,0 // pshufb 0x1952(%rip),%xmm2 # 43e0 <_sk_callback_sse41+0x5f8>
+ .byte 102,15,56,0,21,140,29,0,0 // pshufb 0x1d8c(%rip),%xmm2 # 4500 <_sk_callback_sse41+0xbf5>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20755,19 +20139,17 @@
_sk_store_8888_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,120,29,0,0 // movaps 0x1d78(%rip),%xmm8 # 4510 <_sk_callback_sse41+0xc05>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
.byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
.byte 68,15,89,195 // mulps %xmm3,%xmm8
@@ -20794,18 +20176,18 @@
.byte 102,68,15,97,216 // punpcklwd %xmm0,%xmm11
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,160,24,0,0 // movdqa 0x18a0(%rip),%xmm8 # 43f0 <_sk_callback_sse41+0x608>
+ .byte 102,68,15,111,5,241,28,0,0 // movdqa 0x1cf1(%rip),%xmm8 # 4520 <_sk_callback_sse41+0xc15>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,155,24,0,0 // movdqa 0x189b(%rip),%xmm3 # 4400 <_sk_callback_sse41+0x618>
+ .byte 102,15,111,29,236,28,0,0 // movdqa 0x1cec(%rip),%xmm3 # 4530 <_sk_callback_sse41+0xc25>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,135,24,0,0 // movdqa 0x1887(%rip),%xmm10 # 4410 <_sk_callback_sse41+0x628>
+ .byte 102,68,15,111,21,216,28,0,0 // movdqa 0x1cd8(%rip),%xmm10 # 4540 <_sk_callback_sse41+0xc35>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -20878,18 +20260,18 @@
.byte 102,68,15,97,218 // punpcklwd %xmm2,%xmm11
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,69,23,0,0 // movdqa 0x1745(%rip),%xmm8 # 4420 <_sk_callback_sse41+0x638>
+ .byte 102,68,15,111,5,150,27,0,0 // movdqa 0x1b96(%rip),%xmm8 # 4550 <_sk_callback_sse41+0xc45>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,64,23,0,0 // movdqa 0x1740(%rip),%xmm3 # 4430 <_sk_callback_sse41+0x648>
+ .byte 102,15,111,29,145,27,0,0 // movdqa 0x1b91(%rip),%xmm3 # 4560 <_sk_callback_sse41+0xc55>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,44,23,0,0 // movdqa 0x172c(%rip),%xmm10 # 4440 <_sk_callback_sse41+0x658>
+ .byte 102,68,15,111,21,125,27,0,0 // movdqa 0x1b7d(%rip),%xmm10 # 4570 <_sk_callback_sse41+0xc65>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -20937,17 +20319,17 @@
_sk_store_f16_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 102,68,15,111,21,98,22,0,0 // movdqa 0x1662(%rip),%xmm10 # 4450 <_sk_callback_sse41+0x668>
+ .byte 102,68,15,111,21,179,26,0,0 // movdqa 0x1ab3(%rip),%xmm10 # 4580 <_sk_callback_sse41+0xc75>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,234 // pand %xmm10,%xmm13
.byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,68,15,111,13,85,22,0,0 // movdqa 0x1655(%rip),%xmm9 # 4460 <_sk_callback_sse41+0x678>
+ .byte 102,68,15,111,13,166,26,0,0 // movdqa 0x1aa6(%rip),%xmm9 # 4590 <_sk_callback_sse41+0xc85>
.byte 102,65,15,114,213,16 // psrld $0x10,%xmm13
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,196 // pcmpgtd %xmm12,%xmm8
.byte 102,65,15,114,212,13 // psrld $0xd,%xmm12
- .byte 102,68,15,111,29,70,22,0,0 // movdqa 0x1646(%rip),%xmm11 # 4470 <_sk_callback_sse41+0x688>
+ .byte 102,68,15,111,29,151,26,0,0 // movdqa 0x1a97(%rip),%xmm11 # 45a0 <_sk_callback_sse41+0xc95>
.byte 102,69,15,235,235 // por %xmm11,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,223,197 // pandn %xmm13,%xmm8
@@ -21010,9 +20392,6 @@
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -21020,6 +20399,7 @@
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,102,25,0,0 // movaps 0x1966(%rip),%xmm8 # 45b0 <_sk_callback_sse41+0xca5>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -21065,15 +20445,13 @@
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
.byte 102,15,105,209 // punpckhwd %xmm1,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,167,24,0,0 // movaps 0x18a7(%rip),%xmm8 # 45c0 <_sk_callback_sse41+0xcb5>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -21089,10 +20467,8 @@
.byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,110,24,0,0 // movaps 0x186e(%rip),%xmm3 # 45d0 <_sk_callback_sse41+0xcc5>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_u16_be_sse41
@@ -21101,27 +20477,25 @@
_sk_store_u16_be_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,255,127,71 // mov $0x477fff00,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
+ .byte 68,15,40,13,111,24,0,0 // movaps 0x186f(%rip),%xmm9 # 45e0 <_sk_callback_sse41+0xcd5>
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,69,15,56,43,192 // packusdw %xmm8,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
.byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,69,15,56,43,210 // packusdw %xmm10,%xmm10
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
.byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
+ .byte 68,15,40,218 // movaps %xmm2,%xmm11
+ .byte 69,15,89,217 // mulps %xmm9,%xmm11
.byte 102,69,15,91,219 // cvtps2dq %xmm11,%xmm11
.byte 102,69,15,56,43,219 // packusdw %xmm11,%xmm11
.byte 102,69,15,111,227 // movdqa %xmm11,%xmm12
@@ -21325,20 +20699,12 @@
.globl _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
- .byte 184,208,179,89,62 // mov $0x3e59b3d0,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 184,89,23,55,63 // mov $0x3f371759,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 184,152,221,147,61 // mov $0x3d93dd98,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,89,5,141,21,0,0 // mulps 0x158d(%rip),%xmm0 # 45f0 <_sk_callback_sse41+0xce5>
+ .byte 15,89,13,150,21,0,0 // mulps 0x1596(%rip),%xmm1 # 4600 <_sk_callback_sse41+0xcf5>
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,89,29,156,21,0,0 // mulps 0x159c(%rip),%xmm3 # 4610 <_sk_callback_sse41+0xd05>
+ .byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
@@ -21570,7 +20936,7 @@
.byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
.byte 72,139,8 // mov (%rax),%rcx
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,132,254,0,0,0 // je 386a <_sk_linear_gradient_sse41+0x138>
+ .byte 15,132,254,0,0,0 // je 3516 <_sk_linear_gradient_sse41+0x138>
.byte 15,41,100,36,168 // movaps %xmm4,-0x58(%rsp)
.byte 15,41,108,36,184 // movaps %xmm5,-0x48(%rsp)
.byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp)
@@ -21620,12 +20986,12 @@
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 72,131,192,36 // add $0x24,%rax
.byte 72,255,201 // dec %rcx
- .byte 15,133,65,255,255,255 // jne 3795 <_sk_linear_gradient_sse41+0x63>
+ .byte 15,133,65,255,255,255 // jne 3441 <_sk_linear_gradient_sse41+0x63>
.byte 15,40,124,36,216 // movaps -0x28(%rsp),%xmm7
.byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6
.byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5
.byte 15,40,100,36,168 // movaps -0x58(%rsp),%xmm4
- .byte 235,13 // jmp 3877 <_sk_linear_gradient_sse41+0x145>
+ .byte 235,13 // jmp 3523 <_sk_linear_gradient_sse41+0x145>
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -21680,17 +21046,15 @@
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,5,94,16,0,0 // movaps 0x105e(%rip),%xmm8 # 4620 <_sk_callback_sse41+0xd15>
+ .byte 15,17,0 // movups %xmm0,(%rax)
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,88,200 // addps %xmm8,%xmm9
.byte 102,69,15,58,8,209,1 // roundps $0x1,%xmm9,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 15,17,0 // movups %xmm0,(%rax)
.byte 15,17,72,32 // movups %xmm1,0x20(%rax)
.byte 68,15,17,72,64 // movups %xmm9,0x40(%rax)
.byte 68,15,17,64,96 // movups %xmm8,0x60(%rax)
@@ -21724,17 +21088,12 @@
FUNCTION(_sk_bilinear_nx_sse41)
_sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,224,15,0,0 // addps 0xfe0(%rip),%xmm0 # 4630 <_sk_callback_sse41+0xd25>
+ .byte 68,15,40,13,232,15,0,0 // movaps 0xfe8(%rip),%xmm9 # 4640 <_sk_callback_sse41+0xd35>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21743,13 +21102,10 @@
FUNCTION(_sk_bilinear_px_sse41)
_sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,215,15,0,0 // addps 0xfd7(%rip),%xmm0 # 4650 <_sk_callback_sse41+0xd45>
+ .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21758,17 +21114,12 @@
FUNCTION(_sk_bilinear_ny_sse41)
_sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,201,15,0,0 // addps 0xfc9(%rip),%xmm1 # 4660 <_sk_callback_sse41+0xd55>
+ .byte 68,15,40,13,209,15,0,0 // movaps 0xfd1(%rip),%xmm9 # 4670 <_sk_callback_sse41+0xd65>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21777,13 +21128,10 @@
FUNCTION(_sk_bilinear_py_sse41)
_sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,191,15,0,0 // addps 0xfbf(%rip),%xmm1 # 4680 <_sk_callback_sse41+0xd75>
+ .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21792,25 +21140,15 @@
FUNCTION(_sk_bicubic_n3x_sse41)
_sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,191 // mov $0xbfc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,178,15,0,0 // addps 0xfb2(%rip),%xmm0 # 4690 <_sk_callback_sse41+0xd85>
+ .byte 68,15,40,13,186,15,0,0 // movaps 0xfba(%rip),%xmm9 # 46a0 <_sk_callback_sse41+0xd95>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 69,15,88,202 // addps %xmm10,%xmm9
+ .byte 68,15,89,13,182,15,0,0 // mulps 0xfb6(%rip),%xmm9 # 46b0 <_sk_callback_sse41+0xda5>
+ .byte 68,15,88,13,190,15,0,0 // addps 0xfbe(%rip),%xmm9 # 46c0 <_sk_callback_sse41+0xdb5>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -21821,35 +21159,19 @@
FUNCTION(_sk_bicubic_n1x_sse41)
_sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,173,15,0,0 // addps 0xfad(%rip),%xmm0 # 46d0 <_sk_callback_sse41+0xdc5>
+ .byte 68,15,40,13,181,15,0,0 // movaps 0xfb5(%rip),%xmm9 # 46e0 <_sk_callback_sse41+0xdd5>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,40,5,185,15,0,0 // movaps 0xfb9(%rip),%xmm8 # 46f0 <_sk_callback_sse41+0xde5>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,189,15,0,0 // addps 0xfbd(%rip),%xmm8 # 4700 <_sk_callback_sse41+0xdf5>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,193,15,0,0 // addps 0xfc1(%rip),%xmm8 # 4710 <_sk_callback_sse41+0xe05>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,197,15,0,0 // addps 0xfc5(%rip),%xmm8 # 4720 <_sk_callback_sse41+0xe15>
+ .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21858,27 +21180,17 @@
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,191,15,0,0 // movaps 0xfbf(%rip),%xmm8 # 4730 <_sk_callback_sse41+0xe25>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,217 // movd %ecx,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
+ .byte 68,15,40,21,187,15,0,0 // movaps 0xfbb(%rip),%xmm10 # 4740 <_sk_callback_sse41+0xe35>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
+ .byte 68,15,88,21,191,15,0,0 // addps 0xfbf(%rip),%xmm10 # 4750 <_sk_callback_sse41+0xe45>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
+ .byte 68,15,88,21,187,15,0,0 // addps 0xfbb(%rip),%xmm10 # 4760 <_sk_callback_sse41+0xe55>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21888,21 +21200,13 @@
FUNCTION(_sk_bicubic_p3x_sse41)
_sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,174,15,0,0 // addps 0xfae(%rip),%xmm0 # 4770 <_sk_callback_sse41+0xe65>
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
+ .byte 68,15,89,5,174,15,0,0 // mulps 0xfae(%rip),%xmm8 # 4780 <_sk_callback_sse41+0xe75>
+ .byte 68,15,88,5,182,15,0,0 // addps 0xfb6(%rip),%xmm8 # 4790 <_sk_callback_sse41+0xe85>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -21913,25 +21217,15 @@
FUNCTION(_sk_bicubic_n3y_sse41)
_sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,191 // mov $0xbfc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,164,15,0,0 // addps 0xfa4(%rip),%xmm1 # 47a0 <_sk_callback_sse41+0xe95>
+ .byte 68,15,40,13,172,15,0,0 // movaps 0xfac(%rip),%xmm9 # 47b0 <_sk_callback_sse41+0xea5>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 69,15,88,202 // addps %xmm10,%xmm9
+ .byte 68,15,89,13,168,15,0,0 // mulps 0xfa8(%rip),%xmm9 # 47c0 <_sk_callback_sse41+0xeb5>
+ .byte 68,15,88,13,176,15,0,0 // addps 0xfb0(%rip),%xmm9 # 47d0 <_sk_callback_sse41+0xec5>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -21942,35 +21236,19 @@
FUNCTION(_sk_bicubic_n1y_sse41)
_sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,158,15,0,0 // addps 0xf9e(%rip),%xmm1 # 47e0 <_sk_callback_sse41+0xed5>
+ .byte 68,15,40,13,166,15,0,0 // movaps 0xfa6(%rip),%xmm9 # 47f0 <_sk_callback_sse41+0xee5>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,40,5,170,15,0,0 // movaps 0xfaa(%rip),%xmm8 # 4800 <_sk_callback_sse41+0xef5>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,174,15,0,0 // addps 0xfae(%rip),%xmm8 # 4810 <_sk_callback_sse41+0xf05>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,178,15,0,0 // addps 0xfb2(%rip),%xmm8 # 4820 <_sk_callback_sse41+0xf15>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,182,15,0,0 // addps 0xfb6(%rip),%xmm8 # 4830 <_sk_callback_sse41+0xf25>
+ .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21979,27 +21257,17 @@
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,176,15,0,0 // movaps 0xfb0(%rip),%xmm8 # 4840 <_sk_callback_sse41+0xf35>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,217 // movd %ecx,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
+ .byte 68,15,40,21,171,15,0,0 // movaps 0xfab(%rip),%xmm10 # 4850 <_sk_callback_sse41+0xf45>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
+ .byte 68,15,88,21,175,15,0,0 // addps 0xfaf(%rip),%xmm10 # 4860 <_sk_callback_sse41+0xf55>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
+ .byte 68,15,88,21,171,15,0,0 // addps 0xfab(%rip),%xmm10 # 4870 <_sk_callback_sse41+0xf65>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22009,21 +21277,13 @@
FUNCTION(_sk_bicubic_p3y_sse41)
_sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,157,15,0,0 // addps 0xf9d(%rip),%xmm1 # 4880 <_sk_callback_sse41+0xf75>
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
+ .byte 68,15,89,5,157,15,0,0 // mulps 0xf9d(%rip),%xmm8 # 4890 <_sk_callback_sse41+0xf85>
+ .byte 68,15,88,5,165,15,0,0 // addps 0xfa5(%rip),%xmm8 # 48a0 <_sk_callback_sse41+0xf95>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22113,6 +21373,249 @@
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%rdi)
+ .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
+ .byte 191,0,0,224,64 // mov $0x40e00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3b68 <.literal16+0x188>
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3b6c <.literal16+0x18c>
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3b70 <.literal16+0x190>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 145 // xchg %eax,%ecx
+ .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
+ .byte 145 // xchg %eax,%ecx
+ .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
+ .byte 154 // (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,92 // ds pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 168,87 // test $0x57,%al
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,194 // lret $0xc2bd
+ .byte 135,210 // xchg %edx,%edx
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,4 // cmpb $0x4,(%rdi)
+ .byte 231,140 // out %eax,$0x8c
+ .byte 59,4,231 // cmp (%rdi,%riz,8),%eax
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 4,231 // add $0xe7,%al
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 4,231 // add $0xe7,%al
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,171,170 // addb $0xaa,-0x55(%rax)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
@@ -22121,14 +21624,30 @@
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3ef9 <.literal16+0x39>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 3cb9 <.literal16+0x2d9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3efd <.literal16+0x3d>
+ .byte 224,7 // loopne 3cbd <.literal16+0x2dd>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3f01 <.literal16+0x41>
+ .byte 224,7 // loopne 3cc1 <.literal16+0x2e1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3f05 <.literal16+0x45>
+ .byte 224,7 // loopne 3cc5 <.literal16+0x2e5>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -22137,7 +21656,18 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,255 // cmpb $0xff,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
@@ -22148,10 +21678,10 @@
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a003f28 <_sk_callback_sse41+0xa000140>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a003d18 <_sk_callback_sse41+0xa00040d>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3003f30 <_sk_callback_sse41+0x3000148>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3003d20 <_sk_callback_sse41+0x3000415>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -22163,10 +21693,9 @@
.byte 255,14 // decl (%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
+ .byte 255,129,128,128,59,129 // incl -0x7ec47f80(%rcx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,255,0,255,0,255,0 // addl $0xff00ff,0xff3b80(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
@@ -22180,24 +21709,45 @@
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
+ .byte 0,128,0,128,55,128 // add %al,-0x7fc88000(%rax)
+ .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,8 // add %cl,(%rax)
- .byte 128,10,128 // orb $0x80,(%rdx)
- .byte 12,128 // or $0x80,%al
+ .byte 8,128,10,128,12,128 // or %al,-0x7ff37ff6(%rax)
.byte 14 // (bad)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,52,0 // add %dh,(%rax,%rax,1)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 3deb <.literal16+0x40b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 3def <.literal16+0x40f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 3df3 <.literal16+0x413>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -22205,16 +21755,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3f94 <.literal16+0xd4>
+ .byte 127,0 // jg 3de4 <.literal16+0x404>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3f98 <.literal16+0xd8>
+ .byte 127,0 // jg 3de8 <.literal16+0x408>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3f9c <.literal16+0xdc>
+ .byte 127,0 // jg 3dec <.literal16+0x40c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3fa0 <.literal16+0xe0>
+ .byte 127,0 // jg 3df0 <.literal16+0x410>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22223,7 +21773,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4025 <.literal16+0x165>
+ .byte 119,115 // ja 3e75 <.literal16+0x495>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22234,7 +21784,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3f89 <.literal16+0xc9>
+ .byte 117,191 // jne 3dd9 <.literal16+0x3f9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22246,7 +21796,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a37fca <_sk_callback_sse41+0xffffffffe9a341e2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a37e1a <_sk_callback_sse41+0xffffffffe9a3450f>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22287,7 +21837,13 @@
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
.byte 75,0,0 // rex.WXB add %al,(%r8)
- .byte 0,52,0 // add %dh,(%rax,%rax,1)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -22295,16 +21851,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4054 <.literal16+0x194>
+ .byte 127,0 // jg 3eb4 <.literal16+0x4d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4058 <.literal16+0x198>
+ .byte 127,0 // jg 3eb8 <.literal16+0x4d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 405c <.literal16+0x19c>
+ .byte 127,0 // jg 3ebc <.literal16+0x4dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4060 <.literal16+0x1a0>
+ .byte 127,0 // jg 3ec0 <.literal16+0x4e0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22313,7 +21869,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 40e5 <.literal16+0x225>
+ .byte 119,115 // ja 3f45 <.literal16+0x565>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22324,7 +21880,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4049 <.literal16+0x189>
+ .byte 117,191 // jne 3ea9 <.literal16+0x4c9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22336,7 +21892,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3808a <_sk_callback_sse41+0xffffffffe9a342a2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a37eea <_sk_callback_sse41+0xffffffffe9a345df>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22377,7 +21933,13 @@
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
.byte 75,0,0 // rex.WXB add %al,(%r8)
- .byte 0,52,0 // add %dh,(%rax,%rax,1)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -22385,16 +21947,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4114 <.literal16+0x254>
+ .byte 127,0 // jg 3f84 <.literal16+0x5a4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4118 <.literal16+0x258>
+ .byte 127,0 // jg 3f88 <.literal16+0x5a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 411c <.literal16+0x25c>
+ .byte 127,0 // jg 3f8c <.literal16+0x5ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4120 <.literal16+0x260>
+ .byte 127,0 // jg 3f90 <.literal16+0x5b0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22403,7 +21965,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 41a5 <.literal16+0x2e5>
+ .byte 119,115 // ja 4015 <.literal16+0x635>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22414,7 +21976,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4109 <.literal16+0x249>
+ .byte 117,191 // jne 3f79 <.literal16+0x599>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22426,7 +21988,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3814a <_sk_callback_sse41+0xffffffffe9a34362>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a37fba <_sk_callback_sse41+0xffffffffe9a346af>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22467,7 +22029,13 @@
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
.byte 75,0,0 // rex.WXB add %al,(%r8)
- .byte 0,52,0 // add %dh,(%rax,%rax,1)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -22475,16 +22043,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 41d4 <.literal16+0x314>
+ .byte 127,0 // jg 4054 <.literal16+0x674>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41d8 <.literal16+0x318>
+ .byte 127,0 // jg 4058 <.literal16+0x678>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41dc <.literal16+0x31c>
+ .byte 127,0 // jg 405c <.literal16+0x67c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41e0 <.literal16+0x320>
+ .byte 127,0 // jg 4060 <.literal16+0x680>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22493,7 +22061,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4265 <.literal16+0x3a5>
+ .byte 119,115 // ja 40e5 <.literal16+0x705>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22504,7 +22072,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 41c9 <.literal16+0x309>
+ .byte 117,191 // jne 4049 <.literal16+0x669>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22516,7 +22084,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3820a <_sk_callback_sse41+0xffffffffe9a34422>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3808a <_sk_callback_sse41+0xffffffffe9a3477f>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22556,7 +22124,111 @@
.byte 75,0,0 // rex.WXB add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
- .byte 75,255,0 // rex.WXB incq (%r8)
+ .byte 75,0,0 // rex.WXB add %al,(%r8)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,200 // add %cl,%al
+ .byte 66,0,0 // rex.X add %al,(%rax)
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 127,67 // jg 4167 <.literal16+0x787>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 416b <.literal16+0x78b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 416f <.literal16+0x78f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 4173 <.literal16+0x793>
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
+ .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax
+ .byte 60,203 // cmp $0xcb,%al
+ .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax
+ .byte 13,60,111,18,3 // or $0x3126f3c,%eax
+ .byte 59,111,18 // cmp 0x12(%rdi),%ebp
+ .byte 3,59 // add (%rbx),%edi
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 18,3 // adc (%rbx),%al
+ .byte 59,111,18 // cmp 0x12(%rdi),%ebp
+ .byte 3,59 // add (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 163,59,10,215,163,59,10,215,163 // movabs %eax,0xa3d70a3ba3d70a3b
+ .byte 59,10 // cmp (%rdx),%ecx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 163,59,194,24,17,60,194,24,17 // movabs %eax,0x1118c23c1118c23b
+ .byte 60,194 // cmp $0xc2,%al
+ .byte 24,17 // sbb %dl,(%rcx)
+ .byte 60,194 // cmp $0xc2,%al
+ .byte 24,17 // sbb %dl,(%rcx)
+ .byte 60,203 // cmp $0xcb,%al
+ .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax
+ .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax
+ .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 41f3 <.literal16+0x813>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 41f7 <.literal16+0x817>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 41fb <.literal16+0x81b>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 41ff <.literal16+0x81f>
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 423b <.literal16+0x85b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 423f <.literal16+0x85f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 4243 <.literal16+0x863>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
@@ -22564,12 +22236,13 @@
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004298 <_sk_callback_sse41+0xa0004b0>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax)
+ .byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30042a0 <_sk_callback_sse41+0x30004b8>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3004270 <_sk_callback_sse41+0x3000965>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -22590,14 +22263,30 @@
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42c9 <.literal16+0x409>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 42a9 <.literal16+0x8c9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42cd <.literal16+0x40d>
+ .byte 224,7 // loopne 42ad <.literal16+0x8cd>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42d1 <.literal16+0x411>
+ .byte 224,7 // loopne 42b1 <.literal16+0x8d1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42d5 <.literal16+0x415>
+ .byte 224,7 // loopne 42b5 <.literal16+0x8d5>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -22606,7 +22295,18 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
@@ -22615,14 +22315,30 @@
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42f9 <.literal16+0x439>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 4319 <.literal16+0x939>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42fd <.literal16+0x43d>
+ .byte 224,7 // loopne 431d <.literal16+0x93d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 4301 <.literal16+0x441>
+ .byte 224,7 // loopne 4321 <.literal16+0x941>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 4305 <.literal16+0x445>
+ .byte 224,7 // loopne 4325 <.literal16+0x945>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -22631,7 +22347,57 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,248 // add %bh,%al
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 124,66 // jl 43b6 <.literal16+0x9d6>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 43ba <.literal16+0x9da>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 43be <.literal16+0x9de>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 43c2 <.literal16+0x9e2>
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
.byte 240,0,0 // lock add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
@@ -22639,6 +22405,31 @@
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx)
+ .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax)
+ .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx)
+ .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
+ .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
@@ -22647,6 +22438,10 @@
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
.byte 240,0,0 // lock add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
@@ -22654,7 +22449,9 @@
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx)
+ .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax)
+ .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22662,52 +22459,32 @@
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx)
+ .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
+ .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 44c5 <.literal16+0xae5>
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 44c9 <.literal16+0xae9>
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 44cd <.literal16+0xaed>
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 112,65 // jo 44d1 <.literal16+0xaf1>
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax)
+ .byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0043a8 <_sk_callback_sse41+0xa0005c0>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30043b0 <_sk_callback_sse41+0x30005c8>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30044c0 <_sk_callback_sse41+0x3000bb5>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -22728,12 +22505,13 @@
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0043d8 <_sk_callback_sse41+0xa0005f0>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,1,255,255,255 // addb $0xff,-0xfec5(%rax)
+ .byte 5,255,255,255,9 // add $0x9ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 30043e0 <_sk_callback_sse41+0x30005f8>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3004500 <_sk_callback_sse41+0x3000bf5>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -22746,10 +22524,16 @@
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,0 // incl (%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 455b <.literal16+0xb7b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 455f <.literal16+0xb7f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 4563 <.literal16+0xb83>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,128,0,0,0,4 // add %al,0x4000000(%rax)
+ .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,4,0 // add %al,(%rax,%rax,1)
.byte 0,0 // add %al,(%rax)
@@ -22757,6 +22541,8 @@
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
+ .byte 4,0 // add $0x0,%al
+ .byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,0 // add %al,(%rax)
@@ -22800,7 +22586,325 @@
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 64,254 // rex (bad)
- .byte 255 // .byte 0xff
+ .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax)
+ .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 255 // (bad)
+ .byte 127,71 // jg 462b <.literal16+0xc4b>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 462f <.literal16+0xc4f>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 4633 <.literal16+0xc53>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 4637 <.literal16+0xc57>
+ .byte 208 // (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,89 // ds pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 152 // cwtl
+ .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%rbx)
+ .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
+ .byte 152 // cwtl
+ .byte 221,147,61,0,0,0 // fstl 0x3d(%rbx)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,114 // cmpb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,114,28 // jb,pt 46d2 <.literal16+0xcf2>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 46d6 <.literal16+0xcf6>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 46da <.literal16+0xcfa>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d565 <_sk_callback_sse41+0x3d639c5a>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d5a5 <_sk_callback_sse41+0x3d639c9a>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 114,28 // jb 479e <.literal16+0xdbe>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 47a2 <.literal16+0xdc2>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 47a6 <.literal16+0xdc6>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 47aa <.literal16+0xdca>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,114 // cmpb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,114,28 // jb,pt 47e2 <.literal16+0xe02>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 47e6 <.literal16+0xe06>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 47ea <.literal16+0xe0a>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d675 <_sk_callback_sse41+0x3d639d6a>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d6b5 <_sk_callback_sse41+0x3d639daa>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 114,28 // jb 48ae <.literal16+0xece>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 48b2 <_sk_callback_sse41+0xfa7>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 48b6 <_sk_callback_sse41+0xfab>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 48ba <_sk_callback_sse41+0xfaf>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
BALIGN32
HIDDEN _sk_start_pipeline_sse2
@@ -22861,7 +22965,7 @@
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,52,66,0,0 // movaps 0x4234(%rip),%xmm2 # 42b0 <_sk_callback_sse2+0xd9>
+ .byte 15,40,21,100,61,0,0 // movaps 0x3d64(%rip),%xmm2 # 3de0 <_sk_callback_sse2+0xd8>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,2 // movups (%rdx),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -22870,7 +22974,7 @@
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,35,66,0,0 // movaps 0x4223(%rip),%xmm2 # 42c0 <_sk_callback_sse2+0xe9>
+ .byte 15,40,21,83,61,0,0 // movaps 0x3d53(%rip),%xmm2 # 3df0 <_sk_callback_sse2+0xe8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -22910,9 +23014,7 @@
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,14,61,0,0 // movaps 0x3d0e(%rip),%xmm8 # 3e00 <_sk_callback_sse2+0xf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -22937,9 +23039,7 @@
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,209,60,0,0 // movaps 0x3cd1(%rip),%xmm9 # 3e10 <_sk_callback_sse2+0x108>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -22986,9 +23086,7 @@
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,117,60,0,0 // movaps 0x3c75(%rip),%xmm8 # 3e20 <_sk_callback_sse2+0x118>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -23001,9 +23099,7 @@
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,101,60,0,0 // movaps 0x3c65(%rip),%xmm8 # 3e30 <_sk_callback_sse2+0x128>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -23020,9 +23116,7 @@
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,72,60,0,0 // movaps 0x3c48(%rip),%xmm8 # 3e40 <_sk_callback_sse2+0x138>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -23042,9 +23136,7 @@
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,28,60,0,0 // movaps 0x3c1c(%rip),%xmm8 # 3e50 <_sk_callback_sse2+0x148>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -23072,9 +23164,7 @@
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,240,59,0,0 // movaps 0x3bf0(%rip),%xmm8 # 3e60 <_sk_callback_sse2+0x158>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -23150,9 +23240,7 @@
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,40,29,33,59,0,0 // movaps 0x3b21(%rip),%xmm3 # 3e70 <_sk_callback_sse2+0x168>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -23200,9 +23288,7 @@
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,140,58,0,0 // movaps 0x3a8c(%rip),%xmm2 # 3e80 <_sk_callback_sse2+0x178>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -23236,9 +23322,7 @@
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,49,58,0,0 // movaps 0x3a31(%rip),%xmm2 # 3e90 <_sk_callback_sse2+0x188>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -23275,9 +23359,7 @@
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,40,21,203,57,0,0 // movaps 0x39cb(%rip),%xmm2 # 3ea0 <_sk_callback_sse2+0x198>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -23289,126 +23371,122 @@
.globl _sk_exclusion_sse2
FUNCTION(_sk_exclusion_sse2)
_sk_exclusion_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
+ .byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
+ .byte 65,15,92,192 // subps %xmm8,%xmm0
+ .byte 68,15,40,193 // movaps %xmm1,%xmm8
+ .byte 68,15,88,197 // addps %xmm5,%xmm8
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 68,15,92,193 // subps %xmm1,%xmm8
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 68,15,88,206 // addps %xmm6,%xmm9
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 68,15,92,202 // subps %xmm2,%xmm9
+ .byte 15,40,13,140,57,0,0 // movaps 0x398c(%rip),%xmm1 # 3eb0 <_sk_callback_sse2+0x1a8>
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 65,15,40,209 // movaps %xmm9,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colorburn_sse2
.globl _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 68,15,40,21,123,57,0,0 // movaps 0x397b(%rip),%xmm10 # 3ec0 <_sk_callback_sse2+0x1b8>
+ .byte 69,15,40,202 // movaps %xmm10,%xmm9
+ .byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 65,15,94,204 // divps %xmm12,%xmm1
+ .byte 69,15,89,216 // mulps %xmm8,%xmm11
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 65,15,94,192 // divps %xmm8,%xmm0
+ .byte 68,15,40,231 // movaps %xmm7,%xmm12
+ .byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,93,233 // minps %xmm1,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 65,15,40,204 // movaps %xmm12,%xmm1
- .byte 65,15,194,202,0 // cmpeqps %xmm10,%xmm1
- .byte 68,15,92,203 // subps %xmm3,%xmm9
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 68,15,88,240 // addps %xmm0,%xmm14
- .byte 68,15,84,225 // andps %xmm1,%xmm12
- .byte 65,15,85,206 // andnps %xmm14,%xmm1
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,89,235 // mulps %xmm3,%xmm13
+ .byte 69,15,88,235 // addps %xmm11,%xmm13
+ .byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 65,15,86,204 // orps %xmm12,%xmm1
- .byte 68,15,40,228 // movaps %xmm4,%xmm12
- .byte 68,15,194,231,0 // cmpeqps %xmm7,%xmm12
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 65,15,84,196 // andps %xmm12,%xmm0
- .byte 68,15,85,225 // andnps %xmm1,%xmm12
- .byte 65,15,86,196 // orps %xmm12,%xmm0
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 69,15,40,224 // movaps %xmm8,%xmm12
+ .byte 69,15,194,227,0 // cmpeqps %xmm11,%xmm12
+ .byte 68,15,92,211 // subps %xmm3,%xmm10
+ .byte 69,15,84,196 // andps %xmm12,%xmm8
+ .byte 69,15,85,229 // andnps %xmm13,%xmm12
+ .byte 69,15,40,234 // movaps %xmm10,%xmm13
+ .byte 68,15,89,236 // mulps %xmm4,%xmm13
+ .byte 69,15,86,224 // orps %xmm8,%xmm12
+ .byte 68,15,40,196 // movaps %xmm4,%xmm8
+ .byte 68,15,194,199,0 // cmpeqps %xmm7,%xmm8
+ .byte 69,15,88,229 // addps %xmm13,%xmm12
+ .byte 65,15,84,192 // andps %xmm8,%xmm0
+ .byte 69,15,85,196 // andnps %xmm12,%xmm8
+ .byte 65,15,86,192 // orps %xmm8,%xmm0
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
+ .byte 68,15,89,193 // mulps %xmm1,%xmm8
.byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,92,229 // subps %xmm5,%xmm12
.byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,94,224 // divps %xmm8,%xmm12
+ .byte 68,15,94,225 // divps %xmm1,%xmm12
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,93,236 // minps %xmm12,%xmm13
.byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 69,15,194,234,0 // cmpeqps %xmm10,%xmm13
+ .byte 68,15,40,233 // movaps %xmm1,%xmm13
+ .byte 69,15,194,235,0 // cmpeqps %xmm11,%xmm13
.byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 69,15,84,197 // andps %xmm13,%xmm8
+ .byte 69,15,88,224 // addps %xmm8,%xmm12
+ .byte 65,15,84,205 // andps %xmm13,%xmm1
.byte 69,15,85,236 // andnps %xmm12,%xmm13
- .byte 69,15,86,232 // orps %xmm8,%xmm13
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,40,197 // movaps %xmm5,%xmm8
- .byte 68,15,194,199,0 // cmpeqps %xmm7,%xmm8
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 69,15,85,197 // andnps %xmm13,%xmm8
- .byte 65,15,86,200 // orps %xmm8,%xmm1
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 68,15,92,198 // subps %xmm6,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 68,15,94,194 // divps %xmm2,%xmm8
+ .byte 68,15,88,197 // addps %xmm5,%xmm8
+ .byte 68,15,86,233 // orps %xmm1,%xmm13
+ .byte 65,15,40,202 // movaps %xmm10,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 68,15,88,233 // addps %xmm1,%xmm13
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
+ .byte 68,15,84,193 // andps %xmm1,%xmm8
+ .byte 65,15,85,205 // andnps %xmm13,%xmm1
+ .byte 68,15,86,193 // orps %xmm1,%xmm8
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,94,202 // divps %xmm2,%xmm1
.byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 69,15,93,224 // minps %xmm8,%xmm12
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,194,210,0 // cmpeqps %xmm2,%xmm10
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 69,15,88,195 // addps %xmm11,%xmm8
- .byte 65,15,84,210 // andps %xmm10,%xmm2
- .byte 69,15,85,208 // andnps %xmm8,%xmm10
- .byte 69,15,40,195 // movaps %xmm11,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 68,15,86,210 // orps %xmm2,%xmm10
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,194,215,0 // cmpeqps %xmm7,%xmm2
- .byte 68,15,84,194 // andps %xmm2,%xmm8
- .byte 65,15,85,210 // andnps %xmm10,%xmm2
- .byte 68,15,86,194 // orps %xmm2,%xmm8
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 65,15,88,217 // addps %xmm9,%xmm3
+ .byte 68,15,93,225 // minps %xmm1,%xmm12
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 65,15,92,204 // subps %xmm12,%xmm1
+ .byte 68,15,89,202 // mulps %xmm2,%xmm9
+ .byte 68,15,194,218,0 // cmpeqps %xmm2,%xmm11
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 65,15,88,201 // addps %xmm9,%xmm1
+ .byte 65,15,84,211 // andps %xmm11,%xmm2
+ .byte 68,15,85,217 // andnps %xmm1,%xmm11
+ .byte 68,15,88,206 // addps %xmm6,%xmm9
+ .byte 68,15,86,218 // orps %xmm2,%xmm11
+ .byte 65,15,40,202 // movaps %xmm10,%xmm1
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 68,15,88,217 // addps %xmm1,%xmm11
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
+ .byte 68,15,84,201 // andps %xmm1,%xmm9
+ .byte 65,15,85,203 // andnps %xmm11,%xmm1
+ .byte 68,15,86,201 // orps %xmm1,%xmm9
+ .byte 68,15,89,215 // mulps %xmm7,%xmm10
+ .byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 65,15,40,209 // movaps %xmm9,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_colordodge_sse2
@@ -23416,62 +23494,62 @@
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,49,56,0,0 // movaps 0x3831(%rip),%xmm10 # 3ed0 <_sk_callback_sse2+0x1c8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 69,15,89,225 // mulps %xmm9,%xmm12
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 69,15,92,225 // subps %xmm9,%xmm12
- .byte 69,15,94,196 // divps %xmm12,%xmm8
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
+ .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 65,15,92,193 // subps %xmm9,%xmm0
+ .byte 68,15,94,192 // divps %xmm0,%xmm8
.byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,93,232 // minps %xmm8,%xmm13
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 68,15,88,232 // addps %xmm0,%xmm13
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 69,15,84,206 // andps %xmm14,%xmm9
- .byte 69,15,85,245 // andnps %xmm13,%xmm14
+ .byte 68,15,85,240 // andnps %xmm0,%xmm14
.byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 65,15,40,196 // movaps %xmm12,%xmm0
+ .byte 15,88,196 // addps %xmm4,%xmm0
.byte 68,15,92,211 // subps %xmm3,%xmm10
.byte 69,15,86,241 // orps %xmm9,%xmm14
.byte 69,15,40,202 // movaps %xmm10,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
.byte 69,15,88,241 // addps %xmm9,%xmm14
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 69,15,194,200,0 // cmpeqps %xmm8,%xmm9
.byte 65,15,84,193 // andps %xmm9,%xmm0
.byte 69,15,85,206 // andnps %xmm14,%xmm9
.byte 65,15,86,193 // orps %xmm9,%xmm0
- .byte 68,15,40,235 // movaps %xmm3,%xmm13
- .byte 68,15,89,237 // mulps %xmm5,%xmm13
.byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 69,15,94,233 // divps %xmm9,%xmm13
- .byte 69,15,40,203 // movaps %xmm11,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,93,229 // minps %xmm13,%xmm12
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 68,15,194,235,0 // cmpeqps %xmm3,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 65,15,84,205 // andps %xmm13,%xmm1
- .byte 69,15,85,236 // andnps %xmm12,%xmm13
- .byte 68,15,86,233 // orps %xmm1,%xmm13
+ .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,40,227 // movaps %xmm3,%xmm12
+ .byte 68,15,92,225 // subps %xmm1,%xmm12
+ .byte 69,15,94,204 // divps %xmm12,%xmm9
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 68,15,89,225 // mulps %xmm1,%xmm12
+ .byte 69,15,93,233 // minps %xmm9,%xmm13
+ .byte 68,15,40,241 // movaps %xmm1,%xmm14
+ .byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14
+ .byte 68,15,89,235 // mulps %xmm3,%xmm13
+ .byte 69,15,88,236 // addps %xmm12,%xmm13
+ .byte 65,15,84,206 // andps %xmm14,%xmm1
+ .byte 69,15,85,245 // andnps %xmm13,%xmm14
+ .byte 69,15,40,204 // movaps %xmm12,%xmm9
+ .byte 68,15,88,205 // addps %xmm5,%xmm9
+ .byte 68,15,86,241 // orps %xmm1,%xmm14
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,205 // addps %xmm5,%xmm9
- .byte 68,15,88,233 // addps %xmm1,%xmm13
+ .byte 68,15,88,241 // addps %xmm1,%xmm14
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 65,15,194,200,0 // cmpeqps %xmm8,%xmm1
.byte 68,15,84,201 // andps %xmm1,%xmm9
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
+ .byte 65,15,85,206 // andnps %xmm14,%xmm1
.byte 68,15,86,201 // orps %xmm1,%xmm9
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -23510,9 +23588,7 @@
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
+ .byte 68,15,40,29,230,54,0,0 // movaps 0x36e6(%rip),%xmm11 # 3ee0 <_sk_callback_sse2+0x1d8>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -23598,64 +23674,64 @@
.globl _sk_overlay_sse2
FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
+ .byte 68,15,40,193 // movaps %xmm1,%xmm8
+ .byte 68,15,40,232 // movaps %xmm0,%xmm13
+ .byte 68,15,40,13,180,53,0,0 // movaps 0x35b4(%rip),%xmm9 # 3ef0 <_sk_callback_sse2+0x1e8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,220 // mulps %xmm4,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,92,224 // subps %xmm0,%xmm12
+ .byte 68,15,92,215 // subps %xmm7,%xmm10
+ .byte 69,15,40,218 // movaps %xmm10,%xmm11
+ .byte 69,15,89,221 // mulps %xmm13,%xmm11
+ .byte 68,15,92,203 // subps %xmm3,%xmm9
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,92,236 // subps %xmm4,%xmm13
- .byte 68,15,40,244 // movaps %xmm4,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 68,15,194,247,2 // cmpleps %xmm7,%xmm14
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 69,15,40,226 // movaps %xmm10,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 65,15,84,198 // andps %xmm14,%xmm0
- .byte 69,15,85,244 // andnps %xmm12,%xmm14
- .byte 65,15,86,198 // orps %xmm14,%xmm0
.byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 69,15,40,224 // movaps %xmm8,%xmm12
- .byte 68,15,89,229 // mulps %xmm5,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
+ .byte 68,15,40,227 // movaps %xmm3,%xmm12
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 68,15,89,236 // mulps %xmm4,%xmm13
+ .byte 68,15,40,247 // movaps %xmm7,%xmm14
+ .byte 68,15,92,244 // subps %xmm4,%xmm14
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,194,207,2 // cmpleps %xmm7,%xmm1
+ .byte 69,15,88,237 // addps %xmm13,%xmm13
.byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 68,15,92,217 // subps %xmm1,%xmm11
+ .byte 68,15,89,223 // mulps %xmm7,%xmm11
+ .byte 69,15,89,244 // mulps %xmm12,%xmm14
+ .byte 69,15,88,246 // addps %xmm14,%xmm14
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 69,15,92,230 // subps %xmm14,%xmm12
+ .byte 68,15,84,233 // andps %xmm1,%xmm13
+ .byte 65,15,85,204 // andnps %xmm12,%xmm1
+ .byte 65,15,86,205 // orps %xmm13,%xmm1
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 69,15,40,226 // movaps %xmm10,%xmm12
+ .byte 69,15,89,224 // mulps %xmm8,%xmm12
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 65,15,88,204 // addps %xmm12,%xmm1
+ .byte 68,15,40,227 // movaps %xmm3,%xmm12
+ .byte 69,15,92,224 // subps %xmm8,%xmm12
+ .byte 68,15,89,197 // mulps %xmm5,%xmm8
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 68,15,92,237 // subps %xmm5,%xmm13
.byte 68,15,40,245 // movaps %xmm5,%xmm14
.byte 69,15,88,246 // addps %xmm14,%xmm14
.byte 68,15,194,247,2 // cmpleps %xmm7,%xmm14
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
+ .byte 69,15,88,192 // addps %xmm8,%xmm8
+ .byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 65,15,84,206 // andps %xmm14,%xmm1
- .byte 69,15,85,243 // andnps %xmm11,%xmm14
- .byte 65,15,86,206 // orps %xmm14,%xmm1
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,92,202 // subps %xmm2,%xmm9
+ .byte 69,15,40,227 // movaps %xmm11,%xmm12
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 69,15,84,198 // andps %xmm14,%xmm8
+ .byte 69,15,85,244 // andnps %xmm12,%xmm14
+ .byte 69,15,86,240 // orps %xmm8,%xmm14
+ .byte 65,15,88,206 // addps %xmm14,%xmm1
+ .byte 68,15,89,210 // mulps %xmm2,%xmm10
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
+ .byte 68,15,89,198 // mulps %xmm6,%xmm8
+ .byte 69,15,88,194 // addps %xmm10,%xmm8
+ .byte 68,15,40,211 // movaps %xmm3,%xmm10
+ .byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 68,15,40,231 // movaps %xmm7,%xmm12
.byte 68,15,92,230 // subps %xmm6,%xmm12
@@ -23663,158 +23739,154 @@
.byte 69,15,88,237 // addps %xmm13,%xmm13
.byte 68,15,194,239,2 // cmpleps %xmm7,%xmm13
.byte 15,88,210 // addps %xmm2,%xmm2
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,88,228 // addps %xmm12,%xmm12
- .byte 69,15,92,212 // subps %xmm12,%xmm10
+ .byte 69,15,92,220 // subps %xmm12,%xmm11
.byte 65,15,84,213 // andps %xmm13,%xmm2
- .byte 69,15,85,234 // andnps %xmm10,%xmm13
- .byte 65,15,86,213 // orps %xmm13,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 65,15,88,216 // addps %xmm8,%xmm3
+ .byte 69,15,85,235 // andnps %xmm11,%xmm13
+ .byte 68,15,86,234 // orps %xmm2,%xmm13
+ .byte 69,15,88,197 // addps %xmm13,%xmm8
+ .byte 68,15,89,207 // mulps %xmm7,%xmm9
+ .byte 65,15,88,217 // addps %xmm9,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,208 // movaps %xmm8,%xmm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_softlight_sse2
.globl _sk_softlight_sse2
FUNCTION(_sk_softlight_sse2)
_sk_softlight_sse2:
+ .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
+ .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,194,231,1 // cmpltps %xmm7,%xmm12
- .byte 68,15,40,212 // movaps %xmm4,%xmm10
+ .byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,92,242 // subps %xmm10,%xmm14
+ .byte 68,15,40,13,113,52,0,0 // movaps 0x3471(%rip),%xmm9 # 3f00 <_sk_callback_sse2+0x1f8>
+ .byte 69,15,40,249 // movaps %xmm9,%xmm15
+ .byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 69,15,40,234 // movaps %xmm10,%xmm13
.byte 65,15,82,194 // rsqrtps %xmm10,%xmm0
- .byte 68,15,83,248 // rcpps %xmm0,%xmm15
- .byte 69,15,92,250 // subps %xmm10,%xmm15
+ .byte 15,83,200 // rcpps %xmm0,%xmm1
+ .byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 69,15,88,210 // addps %xmm10,%xmm10
.byte 69,15,88,210 // addps %xmm10,%xmm10
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 69,15,92,217 // subps %xmm9,%xmm11
+ .byte 68,15,40,53,75,52,0,0 // movaps 0x344b(%rip),%xmm14 # 3f10 <_sk_callback_sse2+0x208>
+ .byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 184,0,0,224,64 // mov $0x40e00000,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,75,52,0,0 // movaps 0x344b(%rip),%xmm10 # 3f20 <_sk_callback_sse2+0x218>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 15,88,228 // addps %xmm4,%xmm4
.byte 15,88,228 // addps %xmm4,%xmm4
.byte 15,194,231,2 // cmpleps %xmm7,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
- .byte 65,15,85,231 // andnps %xmm15,%xmm4
+ .byte 15,85,225 // andnps %xmm1,%xmm4
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 65,15,86,229 // orps %xmm13,%xmm4
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,92,235 // subps %xmm3,%xmm13
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 65,15,89,229 // mulps %xmm13,%xmm4
- .byte 65,15,88,227 // addps %xmm11,%xmm4
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 68,15,89,249 // mulps %xmm1,%xmm15
+ .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,225 // addps %xmm1,%xmm4
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 69,15,40,251 // movaps %xmm11,%xmm15
- .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp)
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
+ .byte 65,15,40,203 // movaps %xmm11,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 68,15,92,239 // subps %xmm7,%xmm13
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 69,15,88,199 // addps %xmm15,%xmm8
- .byte 68,15,88,243 // addps %xmm3,%xmm14
- .byte 68,15,89,241 // mulps %xmm1,%xmm14
+ .byte 68,15,88,193 // addps %xmm1,%xmm8
+ .byte 68,15,88,251 // addps %xmm3,%xmm15
+ .byte 68,15,89,253 // mulps %xmm5,%xmm15
.byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 68,15,84,240 // andps %xmm0,%xmm14
+ .byte 68,15,84,248 // andps %xmm0,%xmm15
.byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 65,15,86,198 // orps %xmm14,%xmm0
+ .byte 65,15,86,199 // orps %xmm15,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 68,15,40,197 // movaps %xmm5,%xmm8
+ .byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 68,15,94,199 // divps %xmm7,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 65,15,40,230 // movaps %xmm14,%xmm4
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 69,15,40,248 // movaps %xmm8,%xmm15
- .byte 69,15,92,249 // subps %xmm9,%xmm15
- .byte 68,15,89,252 // mulps %xmm4,%xmm15
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,92,240 // subps %xmm8,%xmm14
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 65,15,88,206 // addps %xmm14,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 69,15,40,249 // movaps %xmm9,%xmm15
+ .byte 69,15,92,248 // subps %xmm8,%xmm15
.byte 65,15,82,224 // rsqrtps %xmm8,%xmm4
.byte 15,83,228 // rcpps %xmm4,%xmm4
.byte 65,15,92,224 // subps %xmm8,%xmm4
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 69,15,88,199 // addps %xmm15,%xmm8
- .byte 68,15,40,253 // movaps %xmm5,%xmm15
- .byte 69,15,88,255 // addps %xmm15,%xmm15
- .byte 69,15,88,255 // addps %xmm15,%xmm15
- .byte 68,15,194,255,2 // cmpleps %xmm7,%xmm15
- .byte 69,15,84,199 // andps %xmm15,%xmm8
- .byte 68,15,85,252 // andnps %xmm4,%xmm15
- .byte 69,15,86,248 // orps %xmm8,%xmm15
+ .byte 68,15,88,193 // addps %xmm1,%xmm8
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,194,207,2 // cmpleps %xmm7,%xmm1
+ .byte 68,15,84,193 // andps %xmm1,%xmm8
+ .byte 15,85,204 // andnps %xmm4,%xmm1
+ .byte 65,15,86,200 // orps %xmm8,%xmm1
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 68,15,89,244 // mulps %xmm4,%xmm14
- .byte 15,89,231 // mulps %xmm7,%xmm4
.byte 68,15,89,252 // mulps %xmm4,%xmm15
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 68,15,88,252 // addps %xmm4,%xmm15
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,88,204 // addps %xmm4,%xmm1
.byte 65,15,40,227 // movaps %xmm11,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,89,230 // mulps %xmm6,%xmm4
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 15,88,212 // addps %xmm4,%xmm2
- .byte 68,15,88,243 // addps %xmm3,%xmm14
- .byte 68,15,89,245 // mulps %xmm5,%xmm14
+ .byte 68,15,88,251 // addps %xmm3,%xmm15
+ .byte 68,15,89,254 // mulps %xmm6,%xmm15
.byte 68,15,194,195,2 // cmpleps %xmm3,%xmm8
- .byte 69,15,84,240 // andps %xmm8,%xmm14
- .byte 69,15,85,199 // andnps %xmm15,%xmm8
- .byte 69,15,86,198 // orps %xmm14,%xmm8
+ .byte 69,15,84,248 // andps %xmm8,%xmm15
+ .byte 68,15,85,193 // andnps %xmm1,%xmm8
+ .byte 69,15,86,199 // orps %xmm15,%xmm8
.byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 68,15,40,246 // movaps %xmm6,%xmm14
- .byte 65,15,40,206 // movaps %xmm14,%xmm1
+ .byte 68,15,40,124,36,216 // movaps -0x28(%rsp),%xmm15
+ .byte 65,15,40,207 // movaps %xmm15,%xmm1
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 65,15,84,204 // andps %xmm12,%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 65,15,92,225 // subps %xmm9,%xmm4
.byte 68,15,92,201 // subps %xmm1,%xmm9
+ .byte 68,15,88,241 // addps %xmm1,%xmm14
.byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 15,82,241 // rsqrtps %xmm1,%xmm6
- .byte 15,83,246 // rcpps %xmm6,%xmm6
- .byte 15,92,241 // subps %xmm1,%xmm6
+ .byte 15,82,209 // rsqrtps %xmm1,%xmm2
+ .byte 15,83,210 // rcpps %xmm2,%xmm2
+ .byte 15,92,209 // subps %xmm1,%xmm2
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 68,15,88,213 // addps %xmm5,%xmm10
- .byte 65,15,40,238 // movaps %xmm14,%xmm5
- .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,89,228 // mulps %xmm4,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 68,15,89,244 // mulps %xmm4,%xmm14
+ .byte 69,15,88,214 // addps %xmm14,%xmm10
+ .byte 65,15,40,207 // movaps %xmm15,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,194,207,2 // cmpleps %xmm7,%xmm1
.byte 68,15,84,209 // andps %xmm1,%xmm10
- .byte 15,85,206 // andnps %xmm6,%xmm1
+ .byte 15,85,202 // andnps %xmm2,%xmm1
.byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2
.byte 68,15,89,234 // mulps %xmm2,%xmm13
.byte 15,88,210 // addps %xmm2,%xmm2
@@ -23825,14 +23897,14 @@
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 65,15,89,231 // mulps %xmm15,%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
.byte 65,15,40,227 // movaps %xmm11,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 65,15,89,231 // mulps %xmm15,%xmm4
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 68,15,88,203 // addps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 69,15,89,207 // mulps %xmm15,%xmm9
+ .byte 69,15,40,215 // movaps %xmm15,%xmm10
.byte 15,194,211,2 // cmpleps %xmm3,%xmm2
.byte 68,15,84,202 // andps %xmm2,%xmm9
.byte 15,85,209 // andnps %xmm1,%xmm2
@@ -23841,8 +23913,9 @@
.byte 68,15,89,223 // mulps %xmm7,%xmm11
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
+ .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,40,238 // movaps %xmm6,%xmm5
+ .byte 65,15,40,242 // movaps %xmm10,%xmm6
.byte 65,15,40,200 // movaps %xmm8,%xmm1
.byte 255,224 // jmpq *%rax
@@ -23862,9 +23935,7 @@
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,90,50,0,0 // movaps 0x325a(%rip),%xmm8 # 3f30 <_sk_callback_sse2+0x228>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -23876,10 +23947,7 @@
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,216 // minps %xmm8,%xmm3
+ .byte 15,93,29,79,50,0,0 // minps 0x324f(%rip),%xmm3 # 3f40 <_sk_callback_sse2+0x238>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -23966,9 +24034,7 @@
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
+ .byte 68,15,40,13,186,49,0,0 // movaps 0x31ba(%rip),%xmm9 # 3f50 <_sk_callback_sse2+0x248>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -23982,40 +24048,30 @@
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 184,145,131,158,61 // mov $0x3d9e8391,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 184,154,153,153,62 // mov $0x3e99999a,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 184,92,143,50,63 // mov $0x3f328f5c,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 68,15,89,240 // mulps %xmm0,%xmm14
+ .byte 68,15,40,5,165,49,0,0 // movaps 0x31a5(%rip),%xmm8 # 3f60 <_sk_callback_sse2+0x258>
+ .byte 68,15,40,232 // movaps %xmm0,%xmm13
+ .byte 69,15,89,232 // mulps %xmm8,%xmm13
+ .byte 68,15,40,216 // movaps %xmm0,%xmm11
+ .byte 69,15,89,219 // mulps %xmm11,%xmm11
+ .byte 68,15,40,13,157,49,0,0 // movaps 0x319d(%rip),%xmm9 # 3f70 <_sk_callback_sse2+0x268>
+ .byte 68,15,40,240 // movaps %xmm0,%xmm14
+ .byte 69,15,89,241 // mulps %xmm9,%xmm14
+ .byte 68,15,40,21,157,49,0,0 // movaps 0x319d(%rip),%xmm10 # 3f80 <_sk_callback_sse2+0x278>
.byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 184,10,215,35,59 // mov $0x3b23d70a,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
+ .byte 69,15,89,243 // mulps %xmm11,%xmm14
+ .byte 68,15,40,29,157,49,0,0 // movaps 0x319d(%rip),%xmm11 # 3f90 <_sk_callback_sse2+0x288>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 184,174,71,97,61 // mov $0x3d6147ae,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
+ .byte 68,15,40,37,161,49,0,0 // movaps 0x31a1(%rip),%xmm12 # 3fa0 <_sk_callback_sse2+0x298>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
.byte 65,15,86,197 // orps %xmm13,%xmm0
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 68,15,89,233 // mulps %xmm1,%xmm13
+ .byte 68,15,40,233 // movaps %xmm1,%xmm13
+ .byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,246 // mulps %xmm14,%xmm14
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
+ .byte 68,15,40,249 // movaps %xmm1,%xmm15
+ .byte 69,15,89,249 // mulps %xmm9,%xmm15
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 69,15,88,251 // addps %xmm11,%xmm15
@@ -24042,35 +24098,22 @@
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 69,15,83,248 // rcpps %xmm8,%xmm15
+ .byte 69,15,83,200 // rcpps %xmm8,%xmm9
.byte 69,15,82,232 // rsqrtps %xmm8,%xmm13
- .byte 184,41,92,71,65 // mov $0x41475c29,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 68,15,89,240 // mulps %xmm0,%xmm14
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 184,194,135,210,62 // mov $0x3ed287c2,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 184,206,111,48,63 // mov $0x3f306fce,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 184,168,87,202,61 // mov $0x3dca57a8,%eax
- .byte 53,0,0,0,128 // xor $0x80000000,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,89,251 // mulps %xmm11,%xmm15
- .byte 69,15,88,252 // addps %xmm12,%xmm15
- .byte 69,15,89,234 // mulps %xmm10,%xmm13
- .byte 69,15,88,239 // addps %xmm15,%xmm13
+ .byte 68,15,40,5,38,49,0,0 // movaps 0x3126(%rip),%xmm8 # 3fb0 <_sk_callback_sse2+0x2a8>
+ .byte 68,15,40,240 // movaps %xmm0,%xmm14
+ .byte 69,15,89,240 // mulps %xmm8,%xmm14
+ .byte 68,15,40,21,38,49,0,0 // movaps 0x3126(%rip),%xmm10 # 3fc0 <_sk_callback_sse2+0x2b8>
+ .byte 69,15,89,202 // mulps %xmm10,%xmm9
+ .byte 68,15,40,29,42,49,0,0 // movaps 0x312a(%rip),%xmm11 # 3fd0 <_sk_callback_sse2+0x2c8>
+ .byte 69,15,88,203 // addps %xmm11,%xmm9
+ .byte 68,15,40,37,46,49,0,0 // movaps 0x312e(%rip),%xmm12 # 3fe0 <_sk_callback_sse2+0x2d8>
+ .byte 69,15,89,236 // mulps %xmm12,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 68,15,40,13,46,49,0,0 // movaps 0x312e(%rip),%xmm9 # 3ff0 <_sk_callback_sse2+0x2e8>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,93,253 // minps %xmm13,%xmm15
- .byte 184,4,231,140,59 // mov $0x3b8ce704,%eax
- .byte 102,68,15,110,232 // movd %eax,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
+ .byte 68,15,40,45,46,49,0,0 // movaps 0x312e(%rip),%xmm13 # 4000 <_sk_callback_sse2+0x2f8>
.byte 65,15,194,197,1 // cmpltps %xmm13,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
@@ -24078,26 +24121,26 @@
.byte 68,15,82,241 // rsqrtps %xmm1,%xmm14
.byte 69,15,83,254 // rcpps %xmm14,%xmm15
.byte 69,15,82,246 // rsqrtps %xmm14,%xmm14
- .byte 69,15,89,251 // mulps %xmm11,%xmm15
- .byte 69,15,88,252 // addps %xmm12,%xmm15
- .byte 69,15,89,242 // mulps %xmm10,%xmm14
+ .byte 69,15,89,250 // mulps %xmm10,%xmm15
+ .byte 69,15,88,251 // addps %xmm11,%xmm15
+ .byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 69,15,88,247 // addps %xmm15,%xmm14
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,93,254 // minps %xmm14,%xmm15
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 68,15,89,241 // mulps %xmm1,%xmm14
+ .byte 68,15,40,241 // movaps %xmm1,%xmm14
+ .byte 69,15,89,240 // mulps %xmm8,%xmm14
.byte 65,15,194,205,1 // cmpltps %xmm13,%xmm1
.byte 68,15,84,241 // andps %xmm1,%xmm14
.byte 65,15,85,207 // andnps %xmm15,%xmm1
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 68,15,82,242 // rsqrtps %xmm2,%xmm14
.byte 69,15,83,254 // rcpps %xmm14,%xmm15
- .byte 69,15,89,251 // mulps %xmm11,%xmm15
- .byte 69,15,88,252 // addps %xmm12,%xmm15
- .byte 69,15,82,222 // rsqrtps %xmm14,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 69,15,88,223 // addps %xmm15,%xmm11
- .byte 69,15,93,203 // minps %xmm11,%xmm9
+ .byte 69,15,89,250 // mulps %xmm10,%xmm15
+ .byte 69,15,88,251 // addps %xmm11,%xmm15
+ .byte 69,15,82,214 // rsqrtps %xmm14,%xmm10
+ .byte 69,15,89,212 // mulps %xmm12,%xmm10
+ .byte 69,15,88,215 // addps %xmm15,%xmm10
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
.byte 68,15,89,194 // mulps %xmm2,%xmm8
.byte 65,15,194,213,1 // cmpltps %xmm13,%xmm2
.byte 68,15,84,194 // andps %xmm2,%xmm8
@@ -24120,63 +24163,48 @@
.byte 68,15,93,218 // minps %xmm2,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,94,225 // divps %xmm1,%xmm12
- .byte 65,184,171,170,42,62 // mov $0x3e2aaaab,%r8d
+ .byte 68,15,40,45,135,48,0,0 // movaps 0x3087(%rip),%xmm13 # 4010 <_sk_callback_sse2+0x308>
+ .byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
+ .byte 69,15,40,225 // movaps %xmm9,%xmm12
+ .byte 68,15,92,226 // subps %xmm2,%xmm12
+ .byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 185,0,0,192,64 // mov $0x40c00000,%ecx
- .byte 102,68,15,110,233 // movd %ecx,%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 69,15,84,238 // andps %xmm14,%xmm13
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 69,15,40,242 // movaps %xmm10,%xmm14
- .byte 69,15,194,241,0 // cmpeqps %xmm9,%xmm14
+ .byte 68,15,84,53,109,48,0,0 // andps 0x306d(%rip),%xmm14 # 4020 <_sk_callback_sse2+0x318>
+ .byte 69,15,88,244 // addps %xmm12,%xmm14
+ .byte 69,15,40,250 // movaps %xmm10,%xmm15
+ .byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
+ .byte 65,15,89,213 // mulps %xmm13,%xmm2
+ .byte 68,15,40,37,96,48,0,0 // movaps 0x3060(%rip),%xmm12 # 4030 <_sk_callback_sse2+0x328>
+ .byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 185,0,0,0,64 // mov $0x40000000,%ecx
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 184,0,0,128,64 // mov $0x40800000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 69,15,85,241 // andnps %xmm9,%xmm14
- .byte 68,15,86,242 // orps %xmm2,%xmm14
- .byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 65,15,85,198 // andnps %xmm14,%xmm0
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,86,197 // orps %xmm13,%xmm0
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 69,15,194,203,4 // cmpneqps %xmm11,%xmm9
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 69,15,92,194 // subps %xmm10,%xmm8
+ .byte 69,15,89,197 // mulps %xmm13,%xmm8
+ .byte 68,15,88,5,92,48,0,0 // addps 0x305c(%rip),%xmm8 # 4040 <_sk_callback_sse2+0x338>
+ .byte 65,15,84,215 // andps %xmm15,%xmm2
+ .byte 69,15,85,248 // andnps %xmm8,%xmm15
+ .byte 68,15,86,250 // orps %xmm2,%xmm15
+ .byte 68,15,84,240 // andps %xmm0,%xmm14
+ .byte 65,15,85,199 // andnps %xmm15,%xmm0
+ .byte 65,15,86,198 // orps %xmm14,%xmm0
+ .byte 15,89,5,77,48,0,0 // mulps 0x304d(%rip),%xmm0 # 4050 <_sk_callback_sse2+0x348>
+ .byte 69,15,40,194 // movaps %xmm10,%xmm8
+ .byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
+ .byte 65,15,84,192 // andps %xmm8,%xmm0
+ .byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 184,0,0,0,63 // mov $0x3f000000,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,92,195 // subps %xmm11,%xmm8
+ .byte 68,15,40,13,64,48,0,0 // movaps 0x3040(%rip),%xmm9 # 4060 <_sk_callback_sse2+0x358>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 68,15,194,226,1 // cmpltps %xmm2,%xmm12
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 69,15,85,226 // andnps %xmm10,%xmm12
- .byte 69,15,86,224 // orps %xmm8,%xmm12
- .byte 65,15,94,204 // divps %xmm12,%xmm1
- .byte 65,15,84,201 // andps %xmm9,%xmm1
+ .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
+ .byte 69,15,92,227 // subps %xmm11,%xmm12
+ .byte 69,15,84,225 // andps %xmm9,%xmm12
+ .byte 69,15,85,202 // andnps %xmm10,%xmm9
+ .byte 69,15,86,204 // orps %xmm12,%xmm9
+ .byte 65,15,94,201 // divps %xmm9,%xmm1
+ .byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24385,14 +24413,11 @@
.byte 102,69,15,96,193 // punpcklbw %xmm9,%xmm8
.byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 68,15,89,5,60,45,0,0 // mulps 0x2d3c(%rip),%xmm8 # 4070 <_sk_callback_sse2+0x368>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24429,21 +24454,18 @@
.byte 102,69,15,96,193 // punpcklbw %xmm9,%xmm8
.byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,89,5,218,44,0,0 // mulps 0x2cda(%rip),%xmm8 # 4080 <_sk_callback_sse2+0x378>
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24457,39 +24479,28 @@
.byte 243,68,15,126,4,120 // movq (%rax,%rdi,2),%xmm8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,68,15,97,195 // punpcklwd %xmm3,%xmm8
- .byte 102,15,111,29,171,45,0,0 // movdqa 0x2dab(%rip),%xmm3 # 42d0 <_sk_callback_sse2+0xf9>
+ .byte 102,15,111,29,162,44,0,0 // movdqa 0x2ca2(%rip),%xmm3 # 4090 <_sk_callback_sse2+0x388>
.byte 102,65,15,219,216 // pand %xmm8,%xmm3
.byte 68,15,91,203 // cvtdq2ps %xmm3,%xmm9
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 102,15,111,29,151,45,0,0 // movdqa 0x2d97(%rip),%xmm3 # 42e0 <_sk_callback_sse2+0x109>
+ .byte 68,15,89,13,161,44,0,0 // mulps 0x2ca1(%rip),%xmm9 # 40a0 <_sk_callback_sse2+0x398>
+ .byte 102,15,111,29,169,44,0,0 // movdqa 0x2ca9(%rip),%xmm3 # 40b0 <_sk_callback_sse2+0x3a8>
.byte 102,65,15,219,216 // pand %xmm8,%xmm3
- .byte 68,15,91,203 // cvtdq2ps %xmm3,%xmm9
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 102,68,15,219,5,130,45,0,0 // pand 0x2d82(%rip),%xmm8 # 42f0 <_sk_callback_sse2+0x119>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,170,44,0,0 // mulps 0x2caa(%rip),%xmm3 # 40c0 <_sk_callback_sse2+0x3b8>
+ .byte 102,68,15,219,5,177,44,0,0 // pand 0x2cb1(%rip),%xmm8 # 40d0 <_sk_callback_sse2+0x3c8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 68,15,89,5,181,44,0,0 // mulps 0x2cb5(%rip),%xmm8 # 40e0 <_sk_callback_sse2+0x3d8>
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,159,44,0,0 // movaps 0x2c9f(%rip),%xmm3 # 40f0 <_sk_callback_sse2+0x3e8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_tables_sse2
@@ -24500,7 +24511,7 @@
.byte 76,139,0 // mov (%rax),%r8
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 243,69,15,111,12,184 // movdqu (%r8,%rdi,4),%xmm9
- .byte 102,68,15,111,5,55,45,0,0 // movdqa 0x2d37(%rip),%xmm8 # 4300 <_sk_callback_sse2+0x129>
+ .byte 102,68,15,111,5,149,44,0,0 // movdqa 0x2c95(%rip),%xmm8 # 4100 <_sk_callback_sse2+0x3f8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -24554,11 +24565,8 @@
.byte 15,20,211 // unpcklps %xmm3,%xmm2
.byte 65,15,20,208 // unpcklps %xmm8,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 69,15,91,193 // cvtdq2ps %xmm9,%xmm8
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
+ .byte 15,89,29,162,43,0,0 // mulps 0x2ba2(%rip),%xmm3 # 4110 <_sk_callback_sse2+0x408>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24577,7 +24585,7 @@
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,21,253,43,0,0 // movdqa 0x2bfd(%rip),%xmm10 # 4310 <_sk_callback_sse2+0x139>
+ .byte 102,68,15,111,21,117,43,0,0 // movdqa 0x2b75(%rip),%xmm10 # 4120 <_sk_callback_sse2+0x418>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -24631,9 +24639,6 @@
.byte 243,67,15,16,28,129 // movss (%r9,%r8,4),%xmm3
.byte 15,20,211 // unpcklps %xmm3,%xmm2
.byte 65,15,20,210 // unpcklps %xmm10,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
@@ -24641,7 +24646,7 @@
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
+ .byte 15,89,29,100,42,0,0 // mulps 0x2a64(%rip),%xmm3 # 4130 <_sk_callback_sse2+0x428>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24663,7 +24668,7 @@
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
- .byte 102,68,15,111,5,144,42,0,0 // movdqa 0x2a90(%rip),%xmm8 # 4320 <_sk_callback_sse2+0x149>
+ .byte 102,68,15,111,5,36,42,0,0 // movdqa 0x2a24(%rip),%xmm8 # 4140 <_sk_callback_sse2+0x438>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
@@ -24717,10 +24722,8 @@
.byte 243,67,15,16,28,129 // movss (%r9,%r8,4),%xmm3
.byte 15,20,211 // unpcklps %xmm3,%xmm2
.byte 65,15,20,208 // unpcklps %xmm8,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,51,41,0,0 // movaps 0x2933(%rip),%xmm3 # 4150 <_sk_callback_sse2+0x448>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_byte_tables_sse2
@@ -24730,9 +24733,7 @@
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,52,41,0,0 // movaps 0x2934(%rip),%xmm8 # 4160 <_sk_callback_sse2+0x458>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,72,15,126,193 // movq %xmm0,%rcx
@@ -24759,9 +24760,7 @@
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 185,129,128,128,59 // mov $0x3b808081,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,209,40,0,0 // movaps 0x28d1(%rip),%xmm10 # 4170 <_sk_callback_sse2+0x468>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -24811,8 +24810,8 @@
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3
+ .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 102,72,15,126,217 // movq %xmm3,%rcx
.byte 65,137,200 // mov %ecx,%r8d
.byte 72,193,233,32 // shr $0x20,%rcx
@@ -24877,9 +24876,7 @@
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 185,129,128,128,59 // mov $0x3b808081,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,36,39,0,0 // movaps 0x2724(%rip),%xmm10 # 4180 <_sk_callback_sse2+0x478>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -25076,49 +25073,47 @@
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,115,36,0,0 // mulps 0x2473(%rip),%xmm9 # 4330 <_sk_callback_sse2+0x159>
- .byte 68,15,84,21,123,36,0,0 // andps 0x247b(%rip),%xmm10 # 4340 <_sk_callback_sse2+0x169>
- .byte 68,15,86,21,131,36,0,0 // orps 0x2483(%rip),%xmm10 # 4350 <_sk_callback_sse2+0x179>
- .byte 68,15,88,13,139,36,0,0 // addps 0x248b(%rip),%xmm9 # 4360 <_sk_callback_sse2+0x189>
- .byte 68,15,40,37,147,36,0,0 // movaps 0x2493(%rip),%xmm12 # 4370 <_sk_callback_sse2+0x199>
+ .byte 68,15,89,13,99,36,0,0 // mulps 0x2463(%rip),%xmm9 # 4190 <_sk_callback_sse2+0x488>
+ .byte 68,15,84,21,107,36,0,0 // andps 0x246b(%rip),%xmm10 # 41a0 <_sk_callback_sse2+0x498>
+ .byte 68,15,86,21,115,36,0,0 // orps 0x2473(%rip),%xmm10 # 41b0 <_sk_callback_sse2+0x4a8>
+ .byte 68,15,88,13,123,36,0,0 // addps 0x247b(%rip),%xmm9 # 41c0 <_sk_callback_sse2+0x4b8>
+ .byte 68,15,40,37,131,36,0,0 // movaps 0x2483(%rip),%xmm12 # 41d0 <_sk_callback_sse2+0x4c8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,147,36,0,0 // addps 0x2493(%rip),%xmm10 # 4380 <_sk_callback_sse2+0x1a9>
- .byte 68,15,40,37,155,36,0,0 // movaps 0x249b(%rip),%xmm12 # 4390 <_sk_callback_sse2+0x1b9>
+ .byte 68,15,88,21,131,36,0,0 // addps 0x2483(%rip),%xmm10 # 41e0 <_sk_callback_sse2+0x4d8>
+ .byte 68,15,40,37,139,36,0,0 // movaps 0x248b(%rip),%xmm12 # 41f0 <_sk_callback_sse2+0x4e8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,133,36,0,0 // andps 0x2485(%rip),%xmm12 # 43a0 <_sk_callback_sse2+0x1c9>
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,125,36,0,0 // addps 0x247d(%rip),%xmm9 # 43b0 <_sk_callback_sse2+0x1d9>
- .byte 68,15,40,29,133,36,0,0 // movaps 0x2485(%rip),%xmm11 # 43c0 <_sk_callback_sse2+0x1e9>
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,133,36,0,0 // movaps 0x2485(%rip),%xmm11 # 43d0 <_sk_callback_sse2+0x1f9>
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,137,36,0,0 // movaps 0x2489(%rip),%xmm12 # 43e0 <_sk_callback_sse2+0x209>
- .byte 69,15,94,227 // divps %xmm11,%xmm12
+ .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
+ .byte 68,15,40,21,117,36,0,0 // movaps 0x2475(%rip),%xmm10 # 4200 <_sk_callback_sse2+0x4f8>
+ .byte 69,15,84,234 // andps %xmm10,%xmm13
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,88,13,105,36,0,0 // addps 0x2469(%rip),%xmm9 # 4210 <_sk_callback_sse2+0x508>
+ .byte 68,15,40,37,113,36,0,0 // movaps 0x2471(%rip),%xmm12 # 4220 <_sk_callback_sse2+0x518>
+ .byte 69,15,89,229 // mulps %xmm13,%xmm12
+ .byte 69,15,92,204 // subps %xmm12,%xmm9
+ .byte 68,15,40,37,113,36,0,0 // movaps 0x2471(%rip),%xmm12 # 4230 <_sk_callback_sse2+0x528>
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 68,15,40,45,117,36,0,0 // movaps 0x2475(%rip),%xmm13 # 4240 <_sk_callback_sse2+0x538>
+ .byte 69,15,94,236 // divps %xmm12,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 68,15,89,45,117,36,0,0 // mulps 0x2475(%rip),%xmm13 # 4250 <_sk_callback_sse2+0x548>
+ .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
+ .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
+ .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,137,36,0,0 // mulps 0x2489(%rip),%xmm12 # 43f0 <_sk_callback_sse2+0x219>
- .byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
.byte 68,15,84,192 // andps %xmm0,%xmm8
- .byte 65,15,85,195 // andnps %xmm11,%xmm0
+ .byte 65,15,85,196 // andnps %xmm12,%xmm0
.byte 65,15,86,192 // orps %xmm8,%xmm0
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,192 // minps %xmm8,%xmm0
+ .byte 65,15,95,195 // maxps %xmm11,%xmm0
+ .byte 65,15,93,194 // minps %xmm10,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25145,49 +25140,47 @@
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,250,35,0,0 // mulps 0x23fa(%rip),%xmm9 # 4400 <_sk_callback_sse2+0x229>
- .byte 68,15,84,21,2,36,0,0 // andps 0x2402(%rip),%xmm10 # 4410 <_sk_callback_sse2+0x239>
- .byte 68,15,86,21,10,36,0,0 // orps 0x240a(%rip),%xmm10 # 4420 <_sk_callback_sse2+0x249>
- .byte 68,15,88,13,18,36,0,0 // addps 0x2412(%rip),%xmm9 # 4430 <_sk_callback_sse2+0x259>
- .byte 68,15,40,37,26,36,0,0 // movaps 0x241a(%rip),%xmm12 # 4440 <_sk_callback_sse2+0x269>
+ .byte 68,15,89,13,245,35,0,0 // mulps 0x23f5(%rip),%xmm9 # 4260 <_sk_callback_sse2+0x558>
+ .byte 68,15,84,21,253,35,0,0 // andps 0x23fd(%rip),%xmm10 # 4270 <_sk_callback_sse2+0x568>
+ .byte 68,15,86,21,5,36,0,0 // orps 0x2405(%rip),%xmm10 # 4280 <_sk_callback_sse2+0x578>
+ .byte 68,15,88,13,13,36,0,0 // addps 0x240d(%rip),%xmm9 # 4290 <_sk_callback_sse2+0x588>
+ .byte 68,15,40,37,21,36,0,0 // movaps 0x2415(%rip),%xmm12 # 42a0 <_sk_callback_sse2+0x598>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,26,36,0,0 // addps 0x241a(%rip),%xmm10 # 4450 <_sk_callback_sse2+0x279>
- .byte 68,15,40,37,34,36,0,0 // movaps 0x2422(%rip),%xmm12 # 4460 <_sk_callback_sse2+0x289>
+ .byte 68,15,88,21,21,36,0,0 // addps 0x2415(%rip),%xmm10 # 42b0 <_sk_callback_sse2+0x5a8>
+ .byte 68,15,40,37,29,36,0,0 // movaps 0x241d(%rip),%xmm12 # 42c0 <_sk_callback_sse2+0x5b8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,12,36,0,0 // andps 0x240c(%rip),%xmm12 # 4470 <_sk_callback_sse2+0x299>
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,4,36,0,0 // addps 0x2404(%rip),%xmm9 # 4480 <_sk_callback_sse2+0x2a9>
- .byte 68,15,40,29,12,36,0,0 // movaps 0x240c(%rip),%xmm11 # 4490 <_sk_callback_sse2+0x2b9>
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,12,36,0,0 // movaps 0x240c(%rip),%xmm11 # 44a0 <_sk_callback_sse2+0x2c9>
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,16,36,0,0 // movaps 0x2410(%rip),%xmm12 # 44b0 <_sk_callback_sse2+0x2d9>
- .byte 69,15,94,227 // divps %xmm11,%xmm12
+ .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
+ .byte 68,15,40,21,7,36,0,0 // movaps 0x2407(%rip),%xmm10 # 42d0 <_sk_callback_sse2+0x5c8>
+ .byte 69,15,84,234 // andps %xmm10,%xmm13
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,88,13,251,35,0,0 // addps 0x23fb(%rip),%xmm9 # 42e0 <_sk_callback_sse2+0x5d8>
+ .byte 68,15,40,37,3,36,0,0 // movaps 0x2403(%rip),%xmm12 # 42f0 <_sk_callback_sse2+0x5e8>
+ .byte 69,15,89,229 // mulps %xmm13,%xmm12
+ .byte 69,15,92,204 // subps %xmm12,%xmm9
+ .byte 68,15,40,37,3,36,0,0 // movaps 0x2403(%rip),%xmm12 # 4300 <_sk_callback_sse2+0x5f8>
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 68,15,40,45,7,36,0,0 // movaps 0x2407(%rip),%xmm13 # 4310 <_sk_callback_sse2+0x608>
+ .byte 69,15,94,236 // divps %xmm12,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 68,15,89,45,7,36,0,0 // mulps 0x2407(%rip),%xmm13 # 4320 <_sk_callback_sse2+0x618>
+ .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
+ .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
+ .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,16,36,0,0 // mulps 0x2410(%rip),%xmm12 # 44c0 <_sk_callback_sse2+0x2e9>
- .byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
.byte 68,15,84,193 // andps %xmm1,%xmm8
- .byte 65,15,85,203 // andnps %xmm11,%xmm1
+ .byte 65,15,85,204 // andnps %xmm12,%xmm1
.byte 65,15,86,200 // orps %xmm8,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,200 // minps %xmm8,%xmm1
+ .byte 65,15,95,203 // maxps %xmm11,%xmm1
+ .byte 65,15,93,202 // minps %xmm10,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25214,49 +25207,47 @@
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,129,35,0,0 // mulps 0x2381(%rip),%xmm9 # 44d0 <_sk_callback_sse2+0x2f9>
- .byte 68,15,84,21,137,35,0,0 // andps 0x2389(%rip),%xmm10 # 44e0 <_sk_callback_sse2+0x309>
- .byte 68,15,86,21,145,35,0,0 // orps 0x2391(%rip),%xmm10 # 44f0 <_sk_callback_sse2+0x319>
- .byte 68,15,88,13,153,35,0,0 // addps 0x2399(%rip),%xmm9 # 4500 <_sk_callback_sse2+0x329>
- .byte 68,15,40,37,161,35,0,0 // movaps 0x23a1(%rip),%xmm12 # 4510 <_sk_callback_sse2+0x339>
+ .byte 68,15,89,13,135,35,0,0 // mulps 0x2387(%rip),%xmm9 # 4330 <_sk_callback_sse2+0x628>
+ .byte 68,15,84,21,143,35,0,0 // andps 0x238f(%rip),%xmm10 # 4340 <_sk_callback_sse2+0x638>
+ .byte 68,15,86,21,151,35,0,0 // orps 0x2397(%rip),%xmm10 # 4350 <_sk_callback_sse2+0x648>
+ .byte 68,15,88,13,159,35,0,0 // addps 0x239f(%rip),%xmm9 # 4360 <_sk_callback_sse2+0x658>
+ .byte 68,15,40,37,167,35,0,0 // movaps 0x23a7(%rip),%xmm12 # 4370 <_sk_callback_sse2+0x668>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,161,35,0,0 // addps 0x23a1(%rip),%xmm10 # 4520 <_sk_callback_sse2+0x349>
- .byte 68,15,40,37,169,35,0,0 // movaps 0x23a9(%rip),%xmm12 # 4530 <_sk_callback_sse2+0x359>
+ .byte 68,15,88,21,167,35,0,0 // addps 0x23a7(%rip),%xmm10 # 4380 <_sk_callback_sse2+0x678>
+ .byte 68,15,40,37,175,35,0,0 // movaps 0x23af(%rip),%xmm12 # 4390 <_sk_callback_sse2+0x688>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,147,35,0,0 // andps 0x2393(%rip),%xmm12 # 4540 <_sk_callback_sse2+0x369>
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,139,35,0,0 // addps 0x238b(%rip),%xmm9 # 4550 <_sk_callback_sse2+0x379>
- .byte 68,15,40,29,147,35,0,0 // movaps 0x2393(%rip),%xmm11 # 4560 <_sk_callback_sse2+0x389>
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,147,35,0,0 // movaps 0x2393(%rip),%xmm11 # 4570 <_sk_callback_sse2+0x399>
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,151,35,0,0 // movaps 0x2397(%rip),%xmm12 # 4580 <_sk_callback_sse2+0x3a9>
- .byte 69,15,94,227 // divps %xmm11,%xmm12
+ .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
+ .byte 68,15,40,21,153,35,0,0 // movaps 0x2399(%rip),%xmm10 # 43a0 <_sk_callback_sse2+0x698>
+ .byte 69,15,84,234 // andps %xmm10,%xmm13
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,88,13,141,35,0,0 // addps 0x238d(%rip),%xmm9 # 43b0 <_sk_callback_sse2+0x6a8>
+ .byte 68,15,40,37,149,35,0,0 // movaps 0x2395(%rip),%xmm12 # 43c0 <_sk_callback_sse2+0x6b8>
+ .byte 69,15,89,229 // mulps %xmm13,%xmm12
+ .byte 69,15,92,204 // subps %xmm12,%xmm9
+ .byte 68,15,40,37,149,35,0,0 // movaps 0x2395(%rip),%xmm12 # 43d0 <_sk_callback_sse2+0x6c8>
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 68,15,40,45,153,35,0,0 // movaps 0x2399(%rip),%xmm13 # 43e0 <_sk_callback_sse2+0x6d8>
+ .byte 69,15,94,236 // divps %xmm12,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 68,15,89,45,153,35,0,0 // mulps 0x2399(%rip),%xmm13 # 43f0 <_sk_callback_sse2+0x6e8>
+ .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
+ .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
+ .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,151,35,0,0 // mulps 0x2397(%rip),%xmm12 # 4590 <_sk_callback_sse2+0x3b9>
- .byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
.byte 68,15,84,194 // andps %xmm2,%xmm8
- .byte 65,15,85,211 // andnps %xmm11,%xmm2
+ .byte 65,15,85,212 // andnps %xmm12,%xmm2
.byte 65,15,86,208 // orps %xmm8,%xmm2
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,208 // minps %xmm8,%xmm2
+ .byte 65,15,95,211 // maxps %xmm11,%xmm2
+ .byte 65,15,93,210 // minps %xmm10,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25283,49 +25274,47 @@
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,8,35,0,0 // mulps 0x2308(%rip),%xmm9 # 45a0 <_sk_callback_sse2+0x3c9>
- .byte 68,15,84,21,16,35,0,0 // andps 0x2310(%rip),%xmm10 # 45b0 <_sk_callback_sse2+0x3d9>
- .byte 68,15,86,21,24,35,0,0 // orps 0x2318(%rip),%xmm10 # 45c0 <_sk_callback_sse2+0x3e9>
- .byte 68,15,88,13,32,35,0,0 // addps 0x2320(%rip),%xmm9 # 45d0 <_sk_callback_sse2+0x3f9>
- .byte 68,15,40,37,40,35,0,0 // movaps 0x2328(%rip),%xmm12 # 45e0 <_sk_callback_sse2+0x409>
+ .byte 68,15,89,13,25,35,0,0 // mulps 0x2319(%rip),%xmm9 # 4400 <_sk_callback_sse2+0x6f8>
+ .byte 68,15,84,21,33,35,0,0 // andps 0x2321(%rip),%xmm10 # 4410 <_sk_callback_sse2+0x708>
+ .byte 68,15,86,21,41,35,0,0 // orps 0x2329(%rip),%xmm10 # 4420 <_sk_callback_sse2+0x718>
+ .byte 68,15,88,13,49,35,0,0 // addps 0x2331(%rip),%xmm9 # 4430 <_sk_callback_sse2+0x728>
+ .byte 68,15,40,37,57,35,0,0 // movaps 0x2339(%rip),%xmm12 # 4440 <_sk_callback_sse2+0x738>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,40,35,0,0 // addps 0x2328(%rip),%xmm10 # 45f0 <_sk_callback_sse2+0x419>
- .byte 68,15,40,37,48,35,0,0 // movaps 0x2330(%rip),%xmm12 # 4600 <_sk_callback_sse2+0x429>
+ .byte 68,15,88,21,57,35,0,0 // addps 0x2339(%rip),%xmm10 # 4450 <_sk_callback_sse2+0x748>
+ .byte 68,15,40,37,65,35,0,0 // movaps 0x2341(%rip),%xmm12 # 4460 <_sk_callback_sse2+0x758>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,26,35,0,0 // andps 0x231a(%rip),%xmm12 # 4610 <_sk_callback_sse2+0x439>
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,18,35,0,0 // addps 0x2312(%rip),%xmm9 # 4620 <_sk_callback_sse2+0x449>
- .byte 68,15,40,29,26,35,0,0 // movaps 0x231a(%rip),%xmm11 # 4630 <_sk_callback_sse2+0x459>
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,26,35,0,0 // movaps 0x231a(%rip),%xmm11 # 4640 <_sk_callback_sse2+0x469>
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,30,35,0,0 // movaps 0x231e(%rip),%xmm12 # 4650 <_sk_callback_sse2+0x479>
- .byte 69,15,94,227 // divps %xmm11,%xmm12
+ .byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
+ .byte 68,15,40,21,43,35,0,0 // movaps 0x232b(%rip),%xmm10 # 4470 <_sk_callback_sse2+0x768>
+ .byte 69,15,84,234 // andps %xmm10,%xmm13
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 69,15,40,233 // movaps %xmm9,%xmm13
+ .byte 69,15,92,236 // subps %xmm12,%xmm13
+ .byte 68,15,88,13,31,35,0,0 // addps 0x231f(%rip),%xmm9 # 4480 <_sk_callback_sse2+0x778>
+ .byte 68,15,40,37,39,35,0,0 // movaps 0x2327(%rip),%xmm12 # 4490 <_sk_callback_sse2+0x788>
+ .byte 69,15,89,229 // mulps %xmm13,%xmm12
+ .byte 69,15,92,204 // subps %xmm12,%xmm9
+ .byte 68,15,40,37,39,35,0,0 // movaps 0x2327(%rip),%xmm12 # 44a0 <_sk_callback_sse2+0x798>
+ .byte 69,15,92,229 // subps %xmm13,%xmm12
+ .byte 68,15,40,45,43,35,0,0 // movaps 0x232b(%rip),%xmm13 # 44b0 <_sk_callback_sse2+0x7a8>
+ .byte 69,15,94,236 // divps %xmm12,%xmm13
+ .byte 69,15,88,233 // addps %xmm9,%xmm13
+ .byte 68,15,89,45,43,35,0,0 // mulps 0x232b(%rip),%xmm13 # 44c0 <_sk_callback_sse2+0x7b8>
+ .byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
+ .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
+ .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,30,35,0,0 // mulps 0x231e(%rip),%xmm12 # 4660 <_sk_callback_sse2+0x489>
- .byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
.byte 68,15,84,195 // andps %xmm3,%xmm8
- .byte 65,15,85,219 // andnps %xmm11,%xmm3
+ .byte 65,15,85,220 // andnps %xmm12,%xmm3
.byte 65,15,86,216 // orps %xmm8,%xmm3
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,93,216 // minps %xmm8,%xmm3
+ .byte 65,15,95,219 // maxps %xmm11,%xmm3
+ .byte 65,15,93,218 // minps %xmm10,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25333,86 +25322,56 @@
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 184,0,0,200,66 // mov $0x42c80000,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 184,0,0,127,67 // mov $0x437f0000,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 15,89,5,8,35,0,0 // mulps 0x2308(%rip),%xmm0 # 44d0 <_sk_callback_sse2+0x7c8>
+ .byte 68,15,40,5,16,35,0,0 // movaps 0x2310(%rip),%xmm8 # 44e0 <_sk_callback_sse2+0x7d8>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 184,0,0,0,67 // mov $0x43000000,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 184,0,0,128,65 // mov $0x41800000,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 184,203,61,13,60 // mov $0x3c0d3dcb,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 184,111,18,3,59 // mov $0x3b03126f,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 184,10,215,163,59 // mov $0x3ba3d70a,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 184,194,24,17,60 // mov $0x3c1118c2,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,201,1 // cmpltps %xmm1,%xmm9
- .byte 184,203,61,13,62 // mov $0x3e0d3dcb,%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 65,15,92,211 // subps %xmm11,%xmm2
- .byte 184,80,128,3,62 // mov $0x3e038050,%eax
- .byte 102,68,15,110,224 // movd %eax,%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 65,15,84,201 // andps %xmm9,%xmm1
- .byte 68,15,85,202 // andnps %xmm2,%xmm9
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,194,202,1 // cmpltps %xmm2,%xmm1
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 69,15,85,194 // andnps %xmm10,%xmm8
- .byte 68,15,86,192 // orps %xmm0,%xmm8
- .byte 184,31,215,118,63 // mov $0x3f76d71f,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 184,246,64,83,63 // mov $0x3f5340f6,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 68,15,40,13,20,35,0,0 // movaps 0x2314(%rip),%xmm9 # 44f0 <_sk_callback_sse2+0x7e8>
+ .byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 65,15,88,209 // addps %xmm9,%xmm2
+ .byte 15,88,5,17,35,0,0 // addps 0x2311(%rip),%xmm0 # 4500 <_sk_callback_sse2+0x7f8>
+ .byte 15,89,5,26,35,0,0 // mulps 0x231a(%rip),%xmm0 # 4510 <_sk_callback_sse2+0x808>
+ .byte 15,89,13,35,35,0,0 // mulps 0x2323(%rip),%xmm1 # 4520 <_sk_callback_sse2+0x818>
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,89,21,41,35,0,0 // mulps 0x2329(%rip),%xmm2 # 4530 <_sk_callback_sse2+0x828>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 68,15,92,202 // subps %xmm2,%xmm9
+ .byte 68,15,40,225 // movaps %xmm1,%xmm12
+ .byte 69,15,89,228 // mulps %xmm12,%xmm12
+ .byte 68,15,89,225 // mulps %xmm1,%xmm12
+ .byte 15,40,21,30,35,0,0 // movaps 0x231e(%rip),%xmm2 # 4540 <_sk_callback_sse2+0x838>
+ .byte 68,15,40,194 // movaps %xmm2,%xmm8
+ .byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
+ .byte 68,15,40,21,29,35,0,0 // movaps 0x231d(%rip),%xmm10 # 4550 <_sk_callback_sse2+0x848>
+ .byte 65,15,88,202 // addps %xmm10,%xmm1
+ .byte 68,15,40,29,33,35,0,0 // movaps 0x2321(%rip),%xmm11 # 4560 <_sk_callback_sse2+0x858>
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 69,15,84,224 // andps %xmm8,%xmm12
+ .byte 68,15,85,193 // andnps %xmm1,%xmm8
+ .byte 69,15,86,196 // orps %xmm12,%xmm8
+ .byte 68,15,40,224 // movaps %xmm0,%xmm12
+ .byte 69,15,89,228 // mulps %xmm12,%xmm12
+ .byte 68,15,89,224 // mulps %xmm0,%xmm12
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 65,15,194,204,1 // cmpltps %xmm12,%xmm1
+ .byte 65,15,88,194 // addps %xmm10,%xmm0
+ .byte 65,15,89,195 // mulps %xmm11,%xmm0
+ .byte 68,15,84,225 // andps %xmm1,%xmm12
+ .byte 15,85,200 // andnps %xmm0,%xmm1
+ .byte 65,15,86,204 // orps %xmm12,%xmm1
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 15,89,192 // mulps %xmm0,%xmm0
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
+ .byte 69,15,88,202 // addps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 15,84,194 // andps %xmm2,%xmm0
+ .byte 65,15,85,209 // andnps %xmm9,%xmm2
+ .byte 15,86,208 // orps %xmm0,%xmm2
+ .byte 68,15,89,5,209,34,0,0 // mulps 0x22d1(%rip),%xmm8 # 4570 <_sk_callback_sse2+0x868>
+ .byte 15,89,21,218,34,0,0 // mulps 0x22da(%rip),%xmm2 # 4580 <_sk_callback_sse2+0x878>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_a8_sse2
@@ -25425,11 +25384,8 @@
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
+ .byte 15,89,29,194,34,0,0 // mulps 0x22c2(%rip),%xmm3 # 4590 <_sk_callback_sse2+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -25473,11 +25429,8 @@
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
+ .byte 15,89,29,49,34,0,0 // mulps 0x2231(%rip),%xmm3 # 45a0 <_sk_callback_sse2+0x898>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -25490,9 +25443,7 @@
_sk_store_a8_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,37,34,0,0 // movaps 0x2225(%rip),%xmm8 # 45b0 <_sk_callback_sse2+0x8a8>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -25513,15 +25464,10 @@
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,236,33,0,0 // mulps 0x21ec(%rip),%xmm0 # 45c0 <_sk_callback_sse2+0x8b8>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,243,33,0,0 // movaps 0x21f3(%rip),%xmm3 # 45d0 <_sk_callback_sse2+0x8c8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -25563,15 +25509,10 @@
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,104,33,0,0 // mulps 0x2168(%rip),%xmm0 # 45e0 <_sk_callback_sse2+0x8d8>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,111,33,0,0 // movaps 0x216f(%rip),%xmm3 # 45f0 <_sk_callback_sse2+0x8e8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -25583,9 +25524,9 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 26e8 <_sk_gather_i8_sse2+0xf>
+ .byte 116,5 // je 2498 <_sk_gather_i8_sse2+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 26ea <_sk_gather_i8_sse2+0x11>
+ .byte 235,2 // jmp 249a <_sk_gather_i8_sse2+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -25634,13 +25575,11 @@
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
.byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,15,111,21,174,30,0,0 // movdqa 0x1eae(%rip),%xmm2 # 4670 <_sk_callback_sse2+0x499>
+ .byte 102,15,111,21,142,32,0,0 // movdqa 0x208e(%rip),%xmm2 # 4600 <_sk_callback_sse2+0x8f8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,138,32,0,0 // movaps 0x208a(%rip),%xmm8 # 4610 <_sk_callback_sse2+0x908>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -25667,30 +25606,19 @@
.byte 243,15,126,20,120 // movq (%rax,%rdi,2),%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,73,30,0,0 // movdqa 0x1e49(%rip),%xmm0 # 4680 <_sk_callback_sse2+0x4a9>
+ .byte 102,15,111,5,64,32,0,0 // movdqa 0x2040(%rip),%xmm0 # 4620 <_sk_callback_sse2+0x918>
.byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,58,30,0,0 // movdqa 0x1e3a(%rip),%xmm1 # 4690 <_sk_callback_sse2+0x4b9>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,66,32,0,0 // mulps 0x2042(%rip),%xmm0 # 4630 <_sk_callback_sse2+0x928>
+ .byte 102,15,111,13,74,32,0,0 // movdqa 0x204a(%rip),%xmm1 # 4640 <_sk_callback_sse2+0x938>
.byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,217 // cvtdq2ps %xmm1,%xmm3
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 102,15,219,21,43,30,0,0 // pand 0x1e2b(%rip),%xmm2 # 46a0 <_sk_callback_sse2+0x4c9>
- .byte 15,91,218 // cvtdq2ps %xmm2,%xmm3
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,76,32,0,0 // mulps 0x204c(%rip),%xmm1 # 4650 <_sk_callback_sse2+0x948>
+ .byte 102,15,219,21,84,32,0,0 // pand 0x2054(%rip),%xmm2 # 4660 <_sk_callback_sse2+0x958>
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,90,32,0,0 // mulps 0x205a(%rip),%xmm2 # 4670 <_sk_callback_sse2+0x968>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,97,32,0,0 // movaps 0x2061(%rip),%xmm3 # 4680 <_sk_callback_sse2+0x978>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_gather_565_sse2
@@ -25725,30 +25653,19 @@
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,146,29,0,0 // movdqa 0x1d92(%rip),%xmm0 # 46b0 <_sk_callback_sse2+0x4d9>
+ .byte 102,15,111,5,234,31,0,0 // movdqa 0x1fea(%rip),%xmm0 # 4690 <_sk_callback_sse2+0x988>
.byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,8,33,132,55 // mov $0x37842108,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,131,29,0,0 // movdqa 0x1d83(%rip),%xmm1 # 46c0 <_sk_callback_sse2+0x4e9>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,236,31,0,0 // mulps 0x1fec(%rip),%xmm0 # 46a0 <_sk_callback_sse2+0x998>
+ .byte 102,15,111,13,244,31,0,0 // movdqa 0x1ff4(%rip),%xmm1 # 46b0 <_sk_callback_sse2+0x9a8>
.byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,217 // cvtdq2ps %xmm1,%xmm3
- .byte 184,33,8,2,58 // mov $0x3a020821,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 102,15,219,21,116,29,0,0 // pand 0x1d74(%rip),%xmm2 # 46d0 <_sk_callback_sse2+0x4f9>
- .byte 15,91,218 // cvtdq2ps %xmm2,%xmm3
- .byte 184,8,33,4,61 // mov $0x3d042108,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,246,31,0,0 // mulps 0x1ff6(%rip),%xmm1 # 46c0 <_sk_callback_sse2+0x9b8>
+ .byte 102,15,219,21,254,31,0,0 // pand 0x1ffe(%rip),%xmm2 # 46d0 <_sk_callback_sse2+0x9c8>
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,4,32,0,0 // mulps 0x2004(%rip),%xmm2 # 46e0 <_sk_callback_sse2+0x9d8>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,11,32,0,0 // movaps 0x200b(%rip),%xmm3 # 46f0 <_sk_callback_sse2+0x9e8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -25757,16 +25674,12 @@
_sk_store_565_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,248,65 // mov $0x41f80000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,12,32,0,0 // movaps 0x200c(%rip),%xmm8 # 4700 <_sk_callback_sse2+0x9f8>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 185,0,0,124,66 // mov $0x427c0000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 68,15,40,21,1,32,0,0 // movaps 0x2001(%rip),%xmm10 # 4710 <_sk_callback_sse2+0xa08>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -25790,33 +25703,21 @@
.byte 243,15,126,28,120 // movq (%rax,%rdi,2),%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,211,28,0,0 // movdqa 0x1cd3(%rip),%xmm0 # 46e0 <_sk_callback_sse2+0x509>
+ .byte 102,15,111,5,186,31,0,0 // movdqa 0x1fba(%rip),%xmm0 # 4720 <_sk_callback_sse2+0xa18>
.byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,196,28,0,0 // movdqa 0x1cc4(%rip),%xmm1 # 46f0 <_sk_callback_sse2+0x519>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,188,31,0,0 // mulps 0x1fbc(%rip),%xmm0 # 4730 <_sk_callback_sse2+0xa28>
+ .byte 102,15,111,13,196,31,0,0 // movdqa 0x1fc4(%rip),%xmm1 # 4740 <_sk_callback_sse2+0xa38>
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 102,15,111,21,181,28,0,0 // movdqa 0x1cb5(%rip),%xmm2 # 4700 <_sk_callback_sse2+0x529>
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,198,31,0,0 // mulps 0x1fc6(%rip),%xmm1 # 4750 <_sk_callback_sse2+0xa48>
+ .byte 102,15,111,21,206,31,0,0 // movdqa 0x1fce(%rip),%xmm2 # 4760 <_sk_callback_sse2+0xa58>
.byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 68,15,91,194 // cvtdq2ps %xmm2,%xmm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,219,29,164,28,0,0 // pand 0x1ca4(%rip),%xmm3 # 4710 <_sk_callback_sse2+0x539>
- .byte 68,15,91,195 // cvtdq2ps %xmm3,%xmm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,208,31,0,0 // mulps 0x1fd0(%rip),%xmm2 # 4770 <_sk_callback_sse2+0xa68>
+ .byte 102,15,219,29,216,31,0,0 // pand 0x1fd8(%rip),%xmm3 # 4780 <_sk_callback_sse2+0xa78>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,222,31,0,0 // mulps 0x1fde(%rip),%xmm3 # 4790 <_sk_callback_sse2+0xa88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25852,33 +25753,21 @@
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,22,28,0,0 // movdqa 0x1c16(%rip),%xmm0 # 4720 <_sk_callback_sse2+0x549>
+ .byte 102,15,111,5,101,31,0,0 // movdqa 0x1f65(%rip),%xmm0 # 47a0 <_sk_callback_sse2+0xa98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 184,137,136,136,55 // mov $0x37888889,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 102,15,111,13,7,28,0,0 // movdqa 0x1c07(%rip),%xmm1 # 4730 <_sk_callback_sse2+0x559>
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,89,5,103,31,0,0 // mulps 0x1f67(%rip),%xmm0 # 47b0 <_sk_callback_sse2+0xaa8>
+ .byte 102,15,111,13,111,31,0,0 // movdqa 0x1f6f(%rip),%xmm1 # 47c0 <_sk_callback_sse2+0xab8>
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 184,137,136,136,57 // mov $0x39888889,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 102,15,111,21,248,27,0,0 // movdqa 0x1bf8(%rip),%xmm2 # 4740 <_sk_callback_sse2+0x569>
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,13,113,31,0,0 // mulps 0x1f71(%rip),%xmm1 # 47d0 <_sk_callback_sse2+0xac8>
+ .byte 102,15,111,21,121,31,0,0 // movdqa 0x1f79(%rip),%xmm2 # 47e0 <_sk_callback_sse2+0xad8>
.byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 68,15,91,194 // cvtdq2ps %xmm2,%xmm8
- .byte 184,137,136,136,59 // mov $0x3b888889,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,219,29,231,27,0,0 // pand 0x1be7(%rip),%xmm3 # 4750 <_sk_callback_sse2+0x579>
- .byte 68,15,91,195 // cvtdq2ps %xmm3,%xmm8
- .byte 184,137,136,136,61 // mov $0x3d888889,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
+ .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,89,21,123,31,0,0 // mulps 0x1f7b(%rip),%xmm2 # 47f0 <_sk_callback_sse2+0xae8>
+ .byte 102,15,219,29,131,31,0,0 // pand 0x1f83(%rip),%xmm3 # 4800 <_sk_callback_sse2+0xaf8>
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,29,137,31,0,0 // mulps 0x1f89(%rip),%xmm3 # 4810 <_sk_callback_sse2+0xb08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25888,20 +25777,18 @@
_sk_store_4444_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,112,65 // mov $0x41700000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,136,31,0,0 // movaps 0x1f88(%rip),%xmm8 # 4820 <_sk_callback_sse2+0xb18>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
.byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
.byte 68,15,89,195 // mulps %xmm3,%xmm8
@@ -25922,13 +25809,11 @@
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 68,15,16,12,184 // movups (%rax,%rdi,4),%xmm9
- .byte 15,40,21,77,27,0,0 // movaps 0x1b4d(%rip),%xmm2 # 4760 <_sk_callback_sse2+0x589>
+ .byte 15,40,21,27,31,0,0 // movaps 0x1f1b(%rip),%xmm2 # 4830 <_sk_callback_sse2+0xb28>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,25,31,0,0 // movaps 0x1f19(%rip),%xmm8 # 4840 <_sk_callback_sse2+0xb38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,40,201 // movaps %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -25977,13 +25862,11 @@
.byte 102,67,15,110,12,129 // movd (%r9,%r8,4),%xmm1
.byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
.byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,15,111,21,133,26,0,0 // movdqa 0x1a85(%rip),%xmm2 # 4770 <_sk_callback_sse2+0x599>
+ .byte 102,15,111,21,106,30,0,0 // movdqa 0x1e6a(%rip),%xmm2 # 4850 <_sk_callback_sse2+0xb48>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 184,129,128,128,59 // mov $0x3b808081,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,102,30,0,0 // movaps 0x1e66(%rip),%xmm8 # 4860 <_sk_callback_sse2+0xb58>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -26007,19 +25890,17 @@
_sk_store_8888_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,0,127,67 // mov $0x437f0000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
+ .byte 68,15,40,5,41,30,0,0 // movaps 0x1e29(%rip),%xmm8 # 4870 <_sk_callback_sse2+0xb68>
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
.byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
+ .byte 68,15,40,202 // movaps %xmm2,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
.byte 68,15,89,195 // mulps %xmm3,%xmm8
@@ -26048,7 +25929,7 @@
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,134,25,0,0 // movdqa 0x1986(%rip),%xmm9 # 4780 <_sk_callback_sse2+0x5a9>
+ .byte 102,68,15,111,13,153,29,0,0 // movdqa 0x1d99(%rip),%xmm9 # 4880 <_sk_callback_sse2+0xb78>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -26056,11 +25937,11 @@
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,107,25,0,0 // movdqa 0x196b(%rip),%xmm11 # 4790 <_sk_callback_sse2+0x5b9>
+ .byte 102,68,15,111,29,126,29,0,0 // movdqa 0x1d7e(%rip),%xmm11 # 4890 <_sk_callback_sse2+0xb88>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,109,25,0,0 // movdqa 0x196d(%rip),%xmm12 # 47a0 <_sk_callback_sse2+0x5c9>
+ .byte 102,68,15,111,37,128,29,0,0 // movdqa 0x1d80(%rip),%xmm12 # 48a0 <_sk_callback_sse2+0xb98>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,112,25,0,0 // movdqa 0x1970(%rip),%xmm3 # 47b0 <_sk_callback_sse2+0x5d9>
+ .byte 102,15,111,29,131,29,0,0 // movdqa 0x1d83(%rip),%xmm3 # 48b0 <_sk_callback_sse2+0xba8>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -26146,7 +26027,7 @@
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,254,23,0,0 // movdqa 0x17fe(%rip),%xmm9 # 47c0 <_sk_callback_sse2+0x5e9>
+ .byte 102,68,15,111,13,17,28,0,0 // movdqa 0x1c11(%rip),%xmm9 # 48c0 <_sk_callback_sse2+0xbb8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -26154,11 +26035,11 @@
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,227,23,0,0 // movdqa 0x17e3(%rip),%xmm11 # 47d0 <_sk_callback_sse2+0x5f9>
+ .byte 102,68,15,111,29,246,27,0,0 // movdqa 0x1bf6(%rip),%xmm11 # 48d0 <_sk_callback_sse2+0xbc8>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,229,23,0,0 // movdqa 0x17e5(%rip),%xmm12 # 47e0 <_sk_callback_sse2+0x609>
+ .byte 102,68,15,111,37,248,27,0,0 // movdqa 0x1bf8(%rip),%xmm12 # 48e0 <_sk_callback_sse2+0xbd8>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,232,23,0,0 // movdqa 0x17e8(%rip),%xmm3 # 47f0 <_sk_callback_sse2+0x619>
+ .byte 102,15,111,29,251,27,0,0 // movdqa 0x1bfb(%rip),%xmm3 # 48f0 <_sk_callback_sse2+0xbe8>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -26211,17 +26092,17 @@
_sk_store_f16_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 102,68,15,111,21,16,23,0,0 // movdqa 0x1710(%rip),%xmm10 # 4800 <_sk_callback_sse2+0x629>
+ .byte 102,68,15,111,21,35,27,0,0 // movdqa 0x1b23(%rip),%xmm10 # 4900 <_sk_callback_sse2+0xbf8>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,234 // pand %xmm10,%xmm13
.byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,68,15,111,13,3,23,0,0 // movdqa 0x1703(%rip),%xmm9 # 4810 <_sk_callback_sse2+0x639>
+ .byte 102,68,15,111,13,22,27,0,0 // movdqa 0x1b16(%rip),%xmm9 # 4910 <_sk_callback_sse2+0xc08>
.byte 102,65,15,114,213,16 // psrld $0x10,%xmm13
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,196 // pcmpgtd %xmm12,%xmm8
.byte 102,65,15,114,212,13 // psrld $0xd,%xmm12
- .byte 102,68,15,111,29,244,22,0,0 // movdqa 0x16f4(%rip),%xmm11 # 4820 <_sk_callback_sse2+0x649>
+ .byte 102,68,15,111,29,7,27,0,0 // movdqa 0x1b07(%rip),%xmm11 # 4920 <_sk_callback_sse2+0xc18>
.byte 102,69,15,235,235 // por %xmm11,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
@@ -26292,9 +26173,6 @@
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -26303,6 +26181,7 @@
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
+ .byte 68,15,40,5,165,25,0,0 // movaps 0x19a5(%rip),%xmm8 # 4930 <_sk_callback_sse2+0xc28>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -26348,35 +26227,31 @@
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
.byte 102,15,105,209 // punpckhwd %xmm1,%xmm2
- .byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
+ .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 68,15,40,13,225,24,0,0 // movaps 0x18e1(%rip),%xmm9 # 4940 <_sk_callback_sse2+0xc38>
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3
+ .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,203 // cvtdq2ps %xmm3,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 65,15,89,201 // mulps %xmm9,%xmm1
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2
+ .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 184,0,0,128,63 // mov $0x3f800000,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,168,24,0,0 // movaps 0x18a8(%rip),%xmm3 # 4950 <_sk_callback_sse2+0xc48>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_u16_be_sse2
@@ -26385,11 +26260,9 @@
_sk_store_u16_be_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 185,0,255,127,71 // mov $0x477fff00,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
+ .byte 68,15,40,13,169,24,0,0 // movaps 0x18a9(%rip),%xmm9 # 4960 <_sk_callback_sse2+0xc58>
+ .byte 68,15,40,192 // movaps %xmm0,%xmm8
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
@@ -26398,8 +26271,8 @@
.byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
.byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
+ .byte 68,15,40,209 // movaps %xmm1,%xmm10
+ .byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
.byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
@@ -26408,8 +26281,8 @@
.byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
.byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
+ .byte 68,15,40,218 // movaps %xmm2,%xmm11
+ .byte 69,15,89,217 // mulps %xmm9,%xmm11
.byte 102,69,15,91,219 // cvtps2dq %xmm11,%xmm11
.byte 102,65,15,114,243,16 // pslld $0x10,%xmm11
.byte 102,65,15,114,227,16 // psrad $0x10,%xmm11
@@ -26537,7 +26410,7 @@
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,37,18,0,0 // andps 0x1225(%rip),%xmm9 # 4830 <_sk_callback_sse2+0x659>
+ .byte 68,15,84,13,147,22,0,0 // andps 0x1693(%rip),%xmm9 # 4970 <_sk_callback_sse2+0xc68>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,92,194 // subps %xmm10,%xmm0
@@ -26559,7 +26432,7 @@
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,237,17,0,0 // andps 0x11ed(%rip),%xmm9 # 4840 <_sk_callback_sse2+0x669>
+ .byte 68,15,84,13,91,22,0,0 // andps 0x165b(%rip),%xmm9 # 4980 <_sk_callback_sse2+0xc78>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,92,202 // subps %xmm10,%xmm1
@@ -26585,7 +26458,7 @@
.byte 243,69,15,91,218 // cvttps2dq %xmm10,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,163,17,0,0 // andps 0x11a3(%rip),%xmm10 # 4850 <_sk_callback_sse2+0x679>
+ .byte 68,15,84,21,17,22,0,0 // andps 0x1611(%rip),%xmm10 # 4990 <_sk_callback_sse2+0xc88>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -26615,7 +26488,7 @@
.byte 243,69,15,91,218 // cvttps2dq %xmm10,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,73,17,0,0 // andps 0x1149(%rip),%xmm10 # 4860 <_sk_callback_sse2+0x689>
+ .byte 68,15,84,21,183,21,0,0 // andps 0x15b7(%rip),%xmm10 # 49a0 <_sk_callback_sse2+0xc98>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -26633,20 +26506,12 @@
.globl _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
- .byte 184,208,179,89,62 // mov $0x3e59b3d0,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 184,89,23,55,63 // mov $0x3f371759,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 184,152,221,147,61 // mov $0x3d93dd98,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,89,5,143,21,0,0 // mulps 0x158f(%rip),%xmm0 # 49b0 <_sk_callback_sse2+0xca8>
+ .byte 15,89,13,152,21,0,0 // mulps 0x1598(%rip),%xmm1 # 49c0 <_sk_callback_sse2+0xcb8>
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,89,29,158,21,0,0 // mulps 0x159e(%rip),%xmm3 # 49d0 <_sk_callback_sse2+0xcc8>
+ .byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
@@ -26878,7 +26743,7 @@
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 72,139,8 // mov (%rax),%rcx
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,132,15,1,0,0 // je 3c2b <_sk_linear_gradient_sse2+0x149>
+ .byte 15,132,15,1,0,0 // je 38e5 <_sk_linear_gradient_sse2+0x149>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 69,15,87,192 // xorps %xmm8,%xmm8
@@ -26939,8 +26804,8 @@
.byte 69,15,86,231 // orps %xmm15,%xmm12
.byte 72,131,192,36 // add $0x24,%rax
.byte 72,255,201 // dec %rcx
- .byte 15,133,8,255,255,255 // jne 3b31 <_sk_linear_gradient_sse2+0x4f>
- .byte 235,13 // jmp 3c38 <_sk_linear_gradient_sse2+0x156>
+ .byte 15,133,8,255,255,255 // jne 37eb <_sk_linear_gradient_sse2+0x4f>
+ .byte 235,13 // jmp 38f2 <_sk_linear_gradient_sse2+0x156>
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -26995,16 +26860,15 @@
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,5,79,16,0,0 // movaps 0x104f(%rip),%xmm8 # 49e0 <_sk_callback_sse2+0xcd8>
+ .byte 15,17,0 // movups %xmm0,(%rax)
+ .byte 68,15,40,200 // movaps %xmm0,%xmm9
+ .byte 69,15,88,200 // addps %xmm8,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,112,11,0,0 // movaps 0xb70(%rip),%xmm12 # 4870 <_sk_callback_sse2+0x699>
+ .byte 68,15,40,37,58,16,0,0 // movaps 0x103a(%rip),%xmm12 # 49f0 <_sk_callback_sse2+0xce8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -27016,7 +26880,6 @@
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 15,17,0 // movups %xmm0,(%rax)
.byte 15,17,72,32 // movups %xmm1,0x20(%rax)
.byte 68,15,17,72,64 // movups %xmm9,0x40(%rax)
.byte 68,15,17,64,96 // movups %xmm8,0x60(%rax)
@@ -27050,17 +26913,12 @@
FUNCTION(_sk_bilinear_nx_sse2)
_sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,179,15,0,0 // addps 0xfb3(%rip),%xmm0 # 4a00 <_sk_callback_sse2+0xcf8>
+ .byte 68,15,40,13,187,15,0,0 // movaps 0xfbb(%rip),%xmm9 # 4a10 <_sk_callback_sse2+0xd08>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27069,13 +26927,10 @@
FUNCTION(_sk_bilinear_px_sse2)
_sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,170,15,0,0 // addps 0xfaa(%rip),%xmm0 # 4a20 <_sk_callback_sse2+0xd18>
+ .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27084,17 +26939,12 @@
FUNCTION(_sk_bilinear_ny_sse2)
_sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,156,15,0,0 // addps 0xf9c(%rip),%xmm1 # 4a30 <_sk_callback_sse2+0xd28>
+ .byte 68,15,40,13,164,15,0,0 // movaps 0xfa4(%rip),%xmm9 # 4a40 <_sk_callback_sse2+0xd38>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27103,13 +26953,10 @@
FUNCTION(_sk_bilinear_py_sse2)
_sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,146,15,0,0 // addps 0xf92(%rip),%xmm1 # 4a50 <_sk_callback_sse2+0xd48>
+ .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27118,25 +26965,15 @@
FUNCTION(_sk_bicubic_n3x_sse2)
_sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,191 // mov $0xbfc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,133,15,0,0 // addps 0xf85(%rip),%xmm0 # 4a60 <_sk_callback_sse2+0xd58>
+ .byte 68,15,40,13,141,15,0,0 // movaps 0xf8d(%rip),%xmm9 # 4a70 <_sk_callback_sse2+0xd68>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 69,15,88,202 // addps %xmm10,%xmm9
+ .byte 68,15,89,13,137,15,0,0 // mulps 0xf89(%rip),%xmm9 # 4a80 <_sk_callback_sse2+0xd78>
+ .byte 68,15,88,13,145,15,0,0 // addps 0xf91(%rip),%xmm9 # 4a90 <_sk_callback_sse2+0xd88>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -27147,35 +26984,19 @@
FUNCTION(_sk_bicubic_n1x_sse2)
_sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,128,15,0,0 // addps 0xf80(%rip),%xmm0 # 4aa0 <_sk_callback_sse2+0xd98>
+ .byte 68,15,40,13,136,15,0,0 // movaps 0xf88(%rip),%xmm9 # 4ab0 <_sk_callback_sse2+0xda8>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,40,5,140,15,0,0 // movaps 0xf8c(%rip),%xmm8 # 4ac0 <_sk_callback_sse2+0xdb8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,144,15,0,0 // addps 0xf90(%rip),%xmm8 # 4ad0 <_sk_callback_sse2+0xdc8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,148,15,0,0 // addps 0xf94(%rip),%xmm8 # 4ae0 <_sk_callback_sse2+0xdd8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,152,15,0,0 // addps 0xf98(%rip),%xmm8 # 4af0 <_sk_callback_sse2+0xde8>
+ .byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27184,27 +27005,17 @@
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,146,15,0,0 // movaps 0xf92(%rip),%xmm8 # 4b00 <_sk_callback_sse2+0xdf8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,217 // movd %ecx,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
+ .byte 68,15,40,21,142,15,0,0 // movaps 0xf8e(%rip),%xmm10 # 4b10 <_sk_callback_sse2+0xe08>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
+ .byte 68,15,88,21,146,15,0,0 // addps 0xf92(%rip),%xmm10 # 4b20 <_sk_callback_sse2+0xe18>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
+ .byte 68,15,88,21,142,15,0,0 // addps 0xf8e(%rip),%xmm10 # 4b30 <_sk_callback_sse2+0xe28>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27214,21 +27025,13 @@
FUNCTION(_sk_bicubic_p3x_sse2)
_sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
+ .byte 15,88,5,129,15,0,0 // addps 0xf81(%rip),%xmm0 # 4b40 <_sk_callback_sse2+0xe38>
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
+ .byte 68,15,89,5,129,15,0,0 // mulps 0xf81(%rip),%xmm8 # 4b50 <_sk_callback_sse2+0xe48>
+ .byte 68,15,88,5,137,15,0,0 // addps 0xf89(%rip),%xmm8 # 4b60 <_sk_callback_sse2+0xe58>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -27239,25 +27042,15 @@
FUNCTION(_sk_bicubic_n3y_sse2)
_sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,191 // mov $0xbfc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,119,15,0,0 // addps 0xf77(%rip),%xmm1 # 4b70 <_sk_callback_sse2+0xe68>
+ .byte 68,15,40,13,127,15,0,0 // movaps 0xf7f(%rip),%xmm9 # 4b80 <_sk_callback_sse2+0xe78>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 69,15,88,202 // addps %xmm10,%xmm9
+ .byte 68,15,89,13,123,15,0,0 // mulps 0xf7b(%rip),%xmm9 # 4b90 <_sk_callback_sse2+0xe88>
+ .byte 68,15,88,13,131,15,0,0 // addps 0xf83(%rip),%xmm9 # 4ba0 <_sk_callback_sse2+0xe98>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -27268,35 +27061,19 @@
FUNCTION(_sk_bicubic_n1y_sse2)
_sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,191 // mov $0xbf000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,0,0,128,63 // mov $0x3f800000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,113,15,0,0 // addps 0xf71(%rip),%xmm1 # 4bb0 <_sk_callback_sse2+0xea8>
+ .byte 68,15,40,13,121,15,0,0 // movaps 0xf79(%rip),%xmm9 # 4bc0 <_sk_callback_sse2+0xeb8>
+ .byte 69,15,92,200 // subps %xmm8,%xmm9
+ .byte 68,15,40,5,125,15,0,0 // movaps 0xf7d(%rip),%xmm8 # 4bd0 <_sk_callback_sse2+0xec8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,129,15,0,0 // addps 0xf81(%rip),%xmm8 # 4be0 <_sk_callback_sse2+0xed8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,133,15,0,0 // addps 0xf85(%rip),%xmm8 # 4bf0 <_sk_callback_sse2+0xee8>
+ .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,88,5,137,15,0,0 // addps 0xf89(%rip),%xmm8 # 4c00 <_sk_callback_sse2+0xef8>
+ .byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27305,27 +27082,17 @@
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,0,63 // mov $0x3f000000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
+ .byte 68,15,40,5,131,15,0,0 // movaps 0xf83(%rip),%xmm8 # 4c10 <_sk_callback_sse2+0xf08>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,85,85,149,191 // mov $0xbf955555,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,217 // movd %ecx,%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
+ .byte 68,15,40,21,126,15,0,0 // movaps 0xf7e(%rip),%xmm10 # 4c20 <_sk_callback_sse2+0xf18>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
+ .byte 68,15,88,21,130,15,0,0 // addps 0xf82(%rip),%xmm10 # 4c30 <_sk_callback_sse2+0xf28>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 185,57,142,99,61 // mov $0x3d638e39,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
+ .byte 68,15,88,21,126,15,0,0 // addps 0xf7e(%rip),%xmm10 # 4c40 <_sk_callback_sse2+0xf38>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27335,21 +27102,13 @@
FUNCTION(_sk_bicubic_p3y_sse2)
_sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 185,0,0,192,63 // mov $0x3fc00000,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
- .byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 185,114,28,199,62 // mov $0x3ec71c72,%ecx
- .byte 102,68,15,110,193 // movd %ecx,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
+ .byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
+ .byte 15,88,13,112,15,0,0 // addps 0xf70(%rip),%xmm1 # 4c50 <_sk_callback_sse2+0xf48>
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 185,171,170,170,190 // mov $0xbeaaaaab,%ecx
- .byte 102,68,15,110,209 // movd %ecx,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
+ .byte 68,15,89,5,112,15,0,0 // mulps 0xf70(%rip),%xmm8 # 4c60 <_sk_callback_sse2+0xf58>
+ .byte 68,15,88,5,120,15,0,0 // addps 0xf78(%rip),%xmm8 # 4c70 <_sk_callback_sse2+0xf68>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -27439,6 +27198,249 @@
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%rdi)
+ .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
+ .byte 191,0,0,224,64 // mov $0x40e00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3f68 <.literal16+0x188>
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3f6c <.literal16+0x18c>
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 3f70 <.literal16+0x190>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 145 // xchg %eax,%ecx
+ .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
+ .byte 145 // xchg %eax,%ecx
+ .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
+ .byte 154 // (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,154 // ds (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,92 // ds pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 92 // pop %rsp
+ .byte 143 // (bad)
+ .byte 50,63 // xor (%rdi),%bh
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 41,92,71,65 // sub %ebx,0x41(%rdi,%rax,2)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 206 // (bad)
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 48,63 // xor %bh,(%rdi)
+ .byte 168,87 // test $0x57,%al
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,168 // lret $0xa8bd
+ .byte 87 // push %rdi
+ .byte 202,189,194 // lret $0xc2bd
+ .byte 135,210 // xchg %edx,%edx
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,194,135,210 // ds retq $0xd287
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,4 // cmpb $0x4,(%rdi)
+ .byte 231,140 // out %eax,$0x8c
+ .byte 59,4,231 // cmp (%rdi,%riz,8),%eax
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 4,231 // add $0xe7,%al
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 4,231 // add $0xe7,%al
+ .byte 140,59 // mov %?,(%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,0,0 // addb $0x0,0x0(%rax)
+ .byte 128,64,171,170 // addb $0xaa,-0x55(%rax)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,62 // sub (%rsi),%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
@@ -27447,14 +27449,30 @@
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42e9 <.literal16+0x39>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 40b9 <.literal16+0x2d9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42ed <.literal16+0x3d>
+ .byte 224,7 // loopne 40bd <.literal16+0x2dd>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42f1 <.literal16+0x41>
+ .byte 224,7 // loopne 40c1 <.literal16+0x2e1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 42f5 <.literal16+0x45>
+ .byte 224,7 // loopne 40c5 <.literal16+0x2e5>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -27463,7 +27481,18 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,255 // cmpb $0xff,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
@@ -27471,23 +27500,48 @@
.byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
+ .byte 0,129,128,128,59,129 // add %al,-0x7ec47f80(%rcx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,255,0,255,0,255,0 // addl $0xff00ff,0xff3b80(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 41ab <.literal16+0x3cb>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 41af <.literal16+0x3cf>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 41b3 <.literal16+0x3d3>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -27497,16 +27551,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4344 <.literal16+0x94>
+ .byte 127,0 // jg 41a4 <.literal16+0x3c4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4348 <.literal16+0x98>
+ .byte 127,0 // jg 41a8 <.literal16+0x3c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 434c <.literal16+0x9c>
+ .byte 127,0 // jg 41ac <.literal16+0x3cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4350 <.literal16+0xa0>
+ .byte 127,0 // jg 41b0 <.literal16+0x3d0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27515,7 +27569,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 43d5 <.literal16+0x125>
+ .byte 119,115 // ja 4235 <.literal16+0x455>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27526,7 +27580,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4339 <.literal16+0x89>
+ .byte 117,191 // jne 4199 <.literal16+0x3b9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27538,7 +27592,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3837a <_sk_callback_sse2+0xffffffffe9a341a3>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a381da <_sk_callback_sse2+0xffffffffe9a344d2>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27592,16 +27646,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4414 <.literal16+0x164>
+ .byte 127,0 // jg 4274 <.literal16+0x494>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4418 <.literal16+0x168>
+ .byte 127,0 // jg 4278 <.literal16+0x498>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 441c <.literal16+0x16c>
+ .byte 127,0 // jg 427c <.literal16+0x49c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4420 <.literal16+0x170>
+ .byte 127,0 // jg 4280 <.literal16+0x4a0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27610,7 +27664,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 44a5 <.literal16+0x1f5>
+ .byte 119,115 // ja 4305 <.literal16+0x525>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27621,7 +27675,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4409 <.literal16+0x159>
+ .byte 117,191 // jne 4269 <.literal16+0x489>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27633,7 +27687,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3844a <_sk_callback_sse2+0xffffffffe9a34273>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a382aa <_sk_callback_sse2+0xffffffffe9a345a2>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27687,16 +27741,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 44e4 <.literal16+0x234>
+ .byte 127,0 // jg 4344 <.literal16+0x564>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 44e8 <.literal16+0x238>
+ .byte 127,0 // jg 4348 <.literal16+0x568>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 44ec <.literal16+0x23c>
+ .byte 127,0 // jg 434c <.literal16+0x56c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 44f0 <.literal16+0x240>
+ .byte 127,0 // jg 4350 <.literal16+0x570>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27705,7 +27759,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4575 <.literal16+0x2c5>
+ .byte 119,115 // ja 43d5 <.literal16+0x5f5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27716,7 +27770,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 44d9 <.literal16+0x229>
+ .byte 117,191 // jne 4339 <.literal16+0x559>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27728,7 +27782,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3851a <_sk_callback_sse2+0xffffffffe9a34343>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3837a <_sk_callback_sse2+0xffffffffe9a34672>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27782,16 +27836,16 @@
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 45b4 <.literal16+0x304>
+ .byte 127,0 // jg 4414 <.literal16+0x634>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 45b8 <.literal16+0x308>
+ .byte 127,0 // jg 4418 <.literal16+0x638>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 45bc <.literal16+0x30c>
+ .byte 127,0 // jg 441c <.literal16+0x63c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 45c0 <.literal16+0x310>
+ .byte 127,0 // jg 4420 <.literal16+0x640>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27800,7 +27854,7 @@
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4645 <.literal16+0x395>
+ .byte 119,115 // ja 44a5 <.literal16+0x6c5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27811,7 +27865,7 @@
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 45a9 <.literal16+0x2f9>
+ .byte 117,191 // jne 4409 <.literal16+0x629>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27823,7 +27877,7 @@
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a385ea <_sk_callback_sse2+0xffffffffe9a34413>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3844a <_sk_callback_sse2+0xffffffffe9a34742>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27868,7 +27922,105 @@
.byte 75,0,0 // rex.WXB add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
- .byte 75,255,0 // rex.WXB incq (%r8)
+ .byte 75,0,0 // rex.WXB add %al,(%r8)
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 200,66,0,0 // enterq $0x42,$0x0
+ .byte 127,67 // jg 4527 <.literal16+0x747>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 452b <.literal16+0x74b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 452f <.literal16+0x74f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 4533 <.literal16+0x753>
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,195 // add %al,%bl
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
+ .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
+ .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax
+ .byte 60,203 // cmp $0xcb,%al
+ .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax
+ .byte 13,60,111,18,3 // or $0x3126f3c,%eax
+ .byte 59,111,18 // cmp 0x12(%rdi),%ebp
+ .byte 3,59 // add (%rbx),%edi
+ .byte 111 // outsl %ds:(%rsi),(%dx)
+ .byte 18,3 // adc (%rbx),%al
+ .byte 59,111,18 // cmp 0x12(%rdi),%ebp
+ .byte 3,59 // add (%rbx),%edi
+ .byte 10,215 // or %bh,%dl
+ .byte 163,59,10,215,163,59,10,215,163 // movabs %eax,0xa3d70a3ba3d70a3b
+ .byte 59,10 // cmp (%rdx),%ecx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 163,59,194,24,17,60,194,24,17 // movabs %eax,0x1118c23c1118c23b
+ .byte 60,194 // cmp $0xc2,%al
+ .byte 24,17 // sbb %dl,(%rcx)
+ .byte 60,194 // cmp $0xc2,%al
+ .byte 24,17 // sbb %dl,(%rcx)
+ .byte 60,203 // cmp $0xcb,%al
+ .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax
+ .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax
+ .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 80 // push %rax
+ .byte 128,3,62 // addb $0x3e,(%rbx)
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 45b3 <.literal16+0x7d3>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 45b7 <.literal16+0x7d7>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 45bb <.literal16+0x7db>
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 45bf <.literal16+0x7df>
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,0 // cmpb $0x0,(%rbx)
+ .byte 0,127,67 // add %bh,0x43(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 45fb <.literal16+0x81b>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 45ff <.literal16+0x81f>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 4603 <.literal16+0x823>
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,0,128,63 // addb $0x3f,-0x7fffffc5(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
@@ -27876,22 +28028,39 @@
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 4649 <.literal16+0x869>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 4699 <.literal16+0x3e9>
+ .byte 224,7 // loopne 464d <.literal16+0x86d>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 469d <.literal16+0x3ed>
+ .byte 224,7 // loopne 4651 <.literal16+0x871>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46a1 <.literal16+0x3f1>
+ .byte 224,7 // loopne 4655 <.literal16+0x875>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46a5 <.literal16+0x3f5>
- .byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -27900,7 +28069,18 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 248 // clc
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
@@ -27909,14 +28089,30 @@
.byte 0,0 // add %al,(%rax)
.byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46c9 <.literal16+0x419>
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 46b9 <.literal16+0x8d9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46cd <.literal16+0x41d>
+ .byte 224,7 // loopne 46bd <.literal16+0x8dd>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46d1 <.literal16+0x421>
+ .byte 224,7 // loopne 46c1 <.literal16+0x8e1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 46d5 <.literal16+0x425>
+ .byte 224,7 // loopne 46c5 <.literal16+0x8e5>
.byte 0,0 // add %al,(%rax)
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
.byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
@@ -27925,7 +28121,57 @@
.byte 0,0 // add %al,(%rax)
.byte 0,31 // add %bl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 4,61 // add $0x3d,%al
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,248 // add %bh,%al
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 124,66 // jl 4756 <.literal16+0x976>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 475a <.literal16+0x97a>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 475e <.literal16+0x97e>
+ .byte 0,0 // add %al,(%rax)
+ .byte 124,66 // jl 4762 <.literal16+0x982>
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
.byte 240,0,0 // lock add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
@@ -27933,6 +28179,31 @@
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx)
+ .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax)
+ .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,15 // add %cl,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx)
+ .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
+ .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
+ .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
+ .byte 136,55 // mov %dh,(%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
@@ -27941,6 +28212,10 @@
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
+ .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
+ .byte 136,57 // mov %bh,(%rcx)
.byte 240,0,0 // lock add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
@@ -27948,7 +28223,9 @@
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx)
+ .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax)
+ .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27956,58 +28233,48 @@
.byte 0,0 // add %al,(%rax)
.byte 0,15 // add %cl,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx)
+ .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
+ .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 4865 <.literal16+0xa85>
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 4869 <.literal16+0xa89>
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 112,65 // jo 486d <.literal16+0xa8d>
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 112,65 // jo 4871 <.literal16+0xa91>
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,255,0,0,0 // addb $0x0,0xff3b(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
+ .byte 128,59,129 // cmpb $0x81,(%rbx)
+ .byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 127,67 // jg 48bb <.literal16+0xadb>
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
+ .byte 127,67 // jg 48bf <.literal16+0xadf>
.byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
+ .byte 127,67 // jg 48c3 <.literal16+0xae3>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
+ .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
.byte 0,56 // add %bh,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,56 // add %bh,(%rax)
@@ -28058,11 +28325,35 @@
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 64,254 // rex (bad)
- .byte 255,0 // incl (%rax)
+ .byte 255,128,0,128,55,128 // incl -0x7fc88000(%rax)
+ .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 128,0,128 // addb $0x80,(%rax)
+ .byte 55 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 255 // (bad)
+ .byte 127,71 // jg 49ab <.literal16+0xbcb>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 49af <.literal16+0xbcf>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 49b3 <.literal16+0xbd3>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 49b7 <.literal16+0xbd7>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
@@ -28082,7 +28373,302 @@
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
+ .byte 128,63,208 // cmpb $0xd0,(%rdi)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,208 // ds (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,89 // ds pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
+ .byte 63 // (bad)
+ .byte 152 // cwtl
+ .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%rbx)
+ .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
+ .byte 152 // cwtl
+ .byte 221,147,61,0,0,0 // fstl 0x3d(%rbx)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 191,0,0,0,191 // mov $0xbf000000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,114 // cmpb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,114,28 // jb,pt 4aa2 <.literal16+0xcc2>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4aa6 <.literal16+0xcc6>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4aaa <.literal16+0xcca>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d935 <_sk_callback_sse2+0x3d639c2d>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63d975 <_sk_callback_sse2+0x3d639c6d>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 114,28 // jb 4b6e <.literal16+0xd8e>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4b72 <.literal16+0xd92>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4b76 <.literal16+0xd96>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4b7a <.literal16+0xd9a>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,114 // cmpb $0x72,(%rdi)
+ .byte 28,199 // sbb $0xc7,%al
+ .byte 62,114,28 // jb,pt 4bb2 <.literal16+0xdd2>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4bb6 <.literal16+0xdd6>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4bba <.literal16+0xdda>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,63,85 // cmpb $0x55,(%rdi)
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63da45 <_sk_callback_sse2+0x3d639d3d>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,63 // add %bh,(%rdi)
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 85 // push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,85,85,149,191 // mov $0xbf955555,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d63da85 <_sk_callback_sse2+0x3d639d7d>
+ .byte 57,142,99,61,0,0 // cmp %ecx,0x3d63(%rsi)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,192 // add %al,%al
+ .byte 63 // (bad)
+ .byte 114,28 // jb 4c7e <.literal16+0xe9e>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4c82 <_sk_callback_sse2+0xf7a>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4c86 <_sk_callback_sse2+0xf7e>
+ .byte 199 // (bad)
+ .byte 62,114,28 // jb,pt 4c8a <_sk_callback_sse2+0xf82>
+ .byte 199 // (bad)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
#endif