some float constants

Trying to go slowly to find where problems arise.
Weirdly, I think I got everything except hsl_to_rgb.

CQ_INCLUDE_TRYBOTS=skia.primary:Test-Win7-MSVC-Golo-CPU-AVX-x86_64-Release,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release-SK_CPU_LIMIT_SSE41,Test-Ubuntu-Clang-GCE-CPU-AVX2-x86_64-Release-SK_CPU_LIMIT_SSE2

Change-Id: I4d85a4c1f40bd87e7cb18fc9b5ce020812dc31db
Reviewed-on: https://skia-review.googlesource.com/14905
Reviewed-by: Mike Klein <mtklein@chromium.org>
Commit-Queue: Mike Klein <mtklein@chromium.org>
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index bb77bec..0932fd0 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -7347,14 +7347,14 @@
   .byte  197,249,110,199                     // vmovd         %edi,%xmm0
   .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,173,63,0,0        // vbroadcastss  0x3fad(%rip),%ymm1        # 4070 <_sk_callback_hsw+0x126>
+  .byte  196,226,125,24,13,125,60,0,0        // vbroadcastss  0x3c7d(%rip),%ymm1        # 3d40 <_sk_callback_hsw+0x125>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  197,252,88,2                        // vaddps        (%rdx),%ymm0,%ymm0
   .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  197,236,88,201                      // vaddps        %ymm1,%ymm2,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,21,145,63,0,0        // vbroadcastss  0x3f91(%rip),%ymm2        # 4074 <_sk_callback_hsw+0x12a>
+  .byte  196,226,125,24,21,97,60,0,0         // vbroadcastss  0x3c61(%rip),%ymm2        # 3d44 <_sk_callback_hsw+0x129>
   .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
@@ -7389,16 +7389,14 @@
 .globl _sk_srcatop_hsw
 FUNCTION(_sk_srcatop_hsw)
 _sk_srcatop_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  196,98,125,24,5,17,60,0,0           // vbroadcastss  0x3c11(%rip),%ymm8        # 3d48 <_sk_callback_hsw+0x12d>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,204                       // vmulps        %ymm4,%ymm8,%ymm9
-  .byte  196,194,69,168,193                  // vfmadd213ps   %ymm9,%ymm7,%ymm0
-  .byte  197,60,89,205                       // vmulps        %ymm5,%ymm8,%ymm9
-  .byte  196,194,69,168,201                  // vfmadd213ps   %ymm9,%ymm7,%ymm1
-  .byte  197,60,89,206                       // vmulps        %ymm6,%ymm8,%ymm9
-  .byte  196,194,69,168,209                  // vfmadd213ps   %ymm9,%ymm7,%ymm2
+  .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  196,226,61,184,205                  // vfmadd231ps   %ymm5,%ymm8,%ymm1
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  196,226,61,184,214                  // vfmadd231ps   %ymm6,%ymm8,%ymm2
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  196,194,69,168,216                  // vfmadd213ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -7408,9 +7406,7 @@
 .globl _sk_dstatop_hsw
 FUNCTION(_sk_dstatop_hsw)
 _sk_dstatop_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,228,59,0,0          // vbroadcastss  0x3be4(%rip),%ymm8        # 3d4c <_sk_callback_hsw+0x131>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,226,101,184,196                 // vfmadd231ps   %ymm4,%ymm3,%ymm0
@@ -7449,9 +7445,7 @@
 .globl _sk_srcout_hsw
 FUNCTION(_sk_srcout_hsw)
 _sk_srcout_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,139,59,0,0          // vbroadcastss  0x3b8b(%rip),%ymm8        # 3d50 <_sk_callback_hsw+0x135>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -7464,9 +7458,7 @@
 .globl _sk_dstout_hsw
 FUNCTION(_sk_dstout_hsw)
 _sk_dstout_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,110,59,0,0         // vbroadcastss  0x3b6e(%rip),%ymm0        # 3d54 <_sk_callback_hsw+0x139>
   .byte  197,252,92,219                      // vsubps        %ymm3,%ymm0,%ymm3
   .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
   .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
@@ -7479,9 +7471,7 @@
 .globl _sk_srcover_hsw
 FUNCTION(_sk_srcover_hsw)
 _sk_srcover_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,81,59,0,0           // vbroadcastss  0x3b51(%rip),%ymm8        # 3d58 <_sk_callback_hsw+0x13d>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,93,184,192                  // vfmadd231ps   %ymm8,%ymm4,%ymm0
   .byte  196,194,85,184,200                  // vfmadd231ps   %ymm8,%ymm5,%ymm1
@@ -7494,9 +7484,7 @@
 .globl _sk_dstover_hsw
 FUNCTION(_sk_dstover_hsw)
 _sk_dstover_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,48,59,0,0           // vbroadcastss  0x3b30(%rip),%ymm8        # 3d5c <_sk_callback_hsw+0x141>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
   .byte  196,226,61,168,205                  // vfmadd213ps   %ymm5,%ymm8,%ymm1
@@ -7520,13 +7508,11 @@
 .globl _sk_multiply_hsw
 FUNCTION(_sk_multiply_hsw)
 _sk_multiply_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,251,58,0,0          // vbroadcastss  0x3afb(%rip),%ymm8        # 3d60 <_sk_callback_hsw+0x145>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,212                       // vmulps        %ymm4,%ymm8,%ymm10
-  .byte  196,98,53,184,208                   // vfmadd231ps   %ymm0,%ymm9,%ymm10
+  .byte  196,98,61,184,212                   // vfmadd231ps   %ymm4,%ymm8,%ymm10
   .byte  196,194,93,168,194                  // vfmadd213ps   %ymm10,%ymm4,%ymm0
   .byte  197,52,89,209                       // vmulps        %ymm1,%ymm9,%ymm10
   .byte  196,98,61,184,213                   // vfmadd231ps   %ymm5,%ymm8,%ymm10
@@ -7570,13 +7556,11 @@
 .globl _sk_xor__hsw
 FUNCTION(_sk_xor__hsw)
 _sk_xor__hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,118,58,0,0          // vbroadcastss  0x3a76(%rip),%ymm8        # 3d64 <_sk_callback_hsw+0x149>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,212                       // vmulps        %ymm4,%ymm8,%ymm10
-  .byte  196,194,53,168,194                  // vfmadd213ps   %ymm10,%ymm9,%ymm0
+  .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
   .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
   .byte  196,226,61,184,205                  // vfmadd231ps   %ymm5,%ymm8,%ymm1
   .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
@@ -7606,9 +7590,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,95,209                  // vmaxps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,254,57,0,0          // vbroadcastss  0x39fe(%rip),%ymm8        # 3d68 <_sk_callback_hsw+0x14d>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -7633,9 +7615,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,173,57,0,0          // vbroadcastss  0x39ad(%rip),%ymm8        # 3d6c <_sk_callback_hsw+0x151>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -7663,9 +7643,7 @@
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,80,57,0,0           // vbroadcastss  0x3950(%rip),%ymm8        # 3d70 <_sk_callback_hsw+0x155>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -7687,9 +7665,7 @@
   .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,14,57,0,0           // vbroadcastss  0x390e(%rip),%ymm8        # 3d74 <_sk_callback_hsw+0x159>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -7699,9 +7675,7 @@
 .globl _sk_colorburn_hsw
 FUNCTION(_sk_colorburn_hsw)
 _sk_colorburn_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,252,56,0,0          // vbroadcastss  0x38fc(%rip),%ymm8        # 3d78 <_sk_callback_hsw+0x15d>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,216                       // vmulps        %ymm0,%ymm9,%ymm11
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
@@ -7759,9 +7733,7 @@
 FUNCTION(_sk_colordodge_hsw)
 _sk_colordodge_hsw:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  196,98,125,24,13,7,56,0,0           // vbroadcastss  0x3807(%rip),%ymm9        # 3d7c <_sk_callback_hsw+0x161>
   .byte  197,52,92,215                       // vsubps        %ymm7,%ymm9,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,52,92,203                       // vsubps        %ymm3,%ymm9,%ymm9
@@ -7814,13 +7786,11 @@
 .globl _sk_hardlight_hsw
 FUNCTION(_sk_hardlight_hsw)
 _sk_hardlight_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,40,55,0,0           // vbroadcastss  0x3728(%rip),%ymm8        # 3d80 <_sk_callback_hsw+0x165>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
+  .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,98,45,184,216                   // vfmadd231ps   %ymm0,%ymm10,%ymm11
+  .byte  196,98,61,184,220                   // vfmadd231ps   %ymm4,%ymm8,%ymm11
   .byte  197,124,88,200                      // vaddps        %ymm0,%ymm0,%ymm9
   .byte  197,52,194,227,2                    // vcmpleps      %ymm3,%ymm9,%ymm12
   .byte  197,124,89,204                      // vmulps        %ymm4,%ymm0,%ymm9
@@ -7832,7 +7802,7 @@
   .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
   .byte  196,195,125,74,197,192              // vblendvps     %ymm12,%ymm13,%ymm0,%ymm0
-  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
   .byte  197,44,89,217                       // vmulps        %ymm1,%ymm10,%ymm11
   .byte  196,98,61,184,221                   // vfmadd231ps   %ymm5,%ymm8,%ymm11
   .byte  197,116,88,225                      // vaddps        %ymm1,%ymm1,%ymm12
@@ -7845,7 +7815,7 @@
   .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
   .byte  197,180,92,201                      // vsubps        %ymm1,%ymm9,%ymm1
   .byte  196,195,117,74,205,192              // vblendvps     %ymm12,%ymm13,%ymm1,%ymm1
-  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
   .byte  197,44,89,210                       // vmulps        %ymm2,%ymm10,%ymm10
   .byte  196,98,61,184,214                   // vfmadd231ps   %ymm6,%ymm8,%ymm10
   .byte  197,108,88,218                      // vaddps        %ymm2,%ymm2,%ymm11
@@ -7858,7 +7828,7 @@
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,180,92,210                      // vsubps        %ymm2,%ymm9,%ymm2
   .byte  196,195,109,74,212,176              // vblendvps     %ymm11,%ymm12,%ymm2,%ymm2
-  .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
+  .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -7867,13 +7837,11 @@
 .globl _sk_overlay_hsw
 FUNCTION(_sk_overlay_hsw)
 _sk_overlay_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,96,54,0,0           // vbroadcastss  0x3660(%rip),%ymm8        # 3d84 <_sk_callback_hsw+0x169>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
+  .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,98,45,184,216                   // vfmadd231ps   %ymm0,%ymm10,%ymm11
+  .byte  196,98,61,184,220                   // vfmadd231ps   %ymm4,%ymm8,%ymm11
   .byte  197,92,88,204                       // vaddps        %ymm4,%ymm4,%ymm9
   .byte  197,52,194,231,2                    // vcmpleps      %ymm7,%ymm9,%ymm12
   .byte  197,124,89,204                      // vmulps        %ymm4,%ymm0,%ymm9
@@ -7885,7 +7853,7 @@
   .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
   .byte  196,195,125,74,197,192              // vblendvps     %ymm12,%ymm13,%ymm0,%ymm0
-  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
   .byte  197,44,89,217                       // vmulps        %ymm1,%ymm10,%ymm11
   .byte  196,98,61,184,221                   // vfmadd231ps   %ymm5,%ymm8,%ymm11
   .byte  197,84,88,229                       // vaddps        %ymm5,%ymm5,%ymm12
@@ -7898,7 +7866,7 @@
   .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
   .byte  197,180,92,201                      // vsubps        %ymm1,%ymm9,%ymm1
   .byte  196,195,117,74,205,192              // vblendvps     %ymm12,%ymm13,%ymm1,%ymm1
-  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
   .byte  197,44,89,210                       // vmulps        %ymm2,%ymm10,%ymm10
   .byte  196,98,61,184,214                   // vfmadd231ps   %ymm6,%ymm8,%ymm10
   .byte  197,76,88,222                       // vaddps        %ymm6,%ymm6,%ymm11
@@ -7911,7 +7879,7 @@
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,180,92,210                      // vsubps        %ymm2,%ymm9,%ymm2
   .byte  196,195,109,74,212,176              // vblendvps     %ymm11,%ymm12,%ymm2,%ymm2
-  .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
+  .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -7921,99 +7889,99 @@
 FUNCTION(_sk_softlight_hsw)
 _sk_softlight_hsw:
   .byte  197,252,17,84,36,200                // vmovups       %ymm2,-0x38(%rsp)
-  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
-  .byte  197,44,194,223,1                    // vcmpltps      %ymm7,%ymm10,%ymm11
+  .byte  197,252,40,209                      // vmovaps       %ymm1,%ymm2
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  197,52,194,215,1                    // vcmpltps      %ymm7,%ymm9,%ymm10
   .byte  197,92,94,199                       // vdivps        %ymm7,%ymm4,%ymm8
-  .byte  196,67,45,74,224,176                // vblendvps     %ymm11,%ymm8,%ymm10,%ymm12
-  .byte  196,65,28,88,196                    // vaddps        %ymm12,%ymm12,%ymm8
-  .byte  196,65,60,88,232                    // vaddps        %ymm8,%ymm8,%ymm13
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  196,66,21,168,237                   // vfmadd213ps   %ymm13,%ymm13,%ymm13
-  .byte  196,65,28,92,240                    // vsubps        %ymm8,%ymm12,%ymm14
-  .byte  184,0,0,224,64                      // mov           $0x40e00000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  196,65,28,89,249                    // vmulps        %ymm9,%ymm12,%ymm15
-  .byte  196,66,21,184,254                   // vfmadd231ps   %ymm14,%ymm13,%ymm15
-  .byte  196,65,124,82,236                   // vrsqrtps      %ymm12,%ymm13
-  .byte  196,65,124,83,237                   // vrcpps        %ymm13,%ymm13
-  .byte  196,65,20,92,236                    // vsubps        %ymm12,%ymm13,%ymm13
-  .byte  197,92,88,244                       // vaddps        %ymm4,%ymm4,%ymm14
-  .byte  196,65,12,88,246                    // vaddps        %ymm14,%ymm14,%ymm14
-  .byte  197,12,194,247,2                    // vcmpleps      %ymm7,%ymm14,%ymm14
-  .byte  196,67,21,74,239,224                // vblendvps     %ymm14,%ymm15,%ymm13,%ymm13
+  .byte  196,67,53,74,232,160                // vblendvps     %ymm10,%ymm8,%ymm9,%ymm13
+  .byte  196,65,20,88,197                    // vaddps        %ymm13,%ymm13,%ymm8
+  .byte  196,65,60,88,192                    // vaddps        %ymm8,%ymm8,%ymm8
+  .byte  196,66,61,168,192                   // vfmadd213ps   %ymm8,%ymm8,%ymm8
+  .byte  196,98,125,24,29,107,53,0,0         // vbroadcastss  0x356b(%rip),%ymm11        # 3d8c <_sk_callback_hsw+0x171>
+  .byte  196,65,20,88,227                    // vaddps        %ymm11,%ymm13,%ymm12
+  .byte  196,65,28,89,192                    // vmulps        %ymm8,%ymm12,%ymm8
+  .byte  196,98,125,24,37,92,53,0,0          // vbroadcastss  0x355c(%rip),%ymm12        # 3d90 <_sk_callback_hsw+0x175>
+  .byte  196,66,21,184,196                   // vfmadd231ps   %ymm12,%ymm13,%ymm8
+  .byte  196,65,124,82,245                   // vrsqrtps      %ymm13,%ymm14
+  .byte  196,65,124,83,246                   // vrcpps        %ymm14,%ymm14
+  .byte  196,65,12,92,245                    // vsubps        %ymm13,%ymm14,%ymm14
+  .byte  197,92,88,252                       // vaddps        %ymm4,%ymm4,%ymm15
+  .byte  196,65,4,88,255                     // vaddps        %ymm15,%ymm15,%ymm15
+  .byte  197,4,194,255,2                     // vcmpleps      %ymm7,%ymm15,%ymm15
+  .byte  196,67,13,74,240,240                // vblendvps     %ymm15,%ymm8,%ymm14,%ymm14
+  .byte  197,116,88,249                      // vaddps        %ymm1,%ymm1,%ymm15
+  .byte  196,98,125,24,5,31,53,0,0           // vbroadcastss  0x351f(%rip),%ymm8        # 3d88 <_sk_callback_hsw+0x16d>
+  .byte  196,65,60,92,237                    // vsubps        %ymm13,%ymm8,%ymm13
+  .byte  197,132,92,195                      // vsubps        %ymm3,%ymm15,%ymm0
+  .byte  196,98,125,168,235                  // vfmadd213ps   %ymm3,%ymm0,%ymm13
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  196,193,124,89,198                  // vmulps        %ymm14,%ymm0,%ymm0
+  .byte  197,20,89,236                       // vmulps        %ymm4,%ymm13,%ymm13
+  .byte  196,226,101,184,196                 // vfmadd231ps   %ymm4,%ymm3,%ymm0
+  .byte  197,4,194,243,2                     // vcmpleps      %ymm3,%ymm15,%ymm14
+  .byte  196,195,125,74,197,224              // vblendvps     %ymm14,%ymm13,%ymm0,%ymm0
+  .byte  197,252,17,68,36,168                // vmovups       %ymm0,-0x58(%rsp)
+  .byte  197,212,94,199                      // vdivps        %ymm7,%ymm5,%ymm0
+  .byte  196,227,53,74,192,160               // vblendvps     %ymm10,%ymm0,%ymm9,%ymm0
   .byte  197,124,88,240                      // vaddps        %ymm0,%ymm0,%ymm14
-  .byte  197,12,92,251                       // vsubps        %ymm3,%ymm14,%ymm15
-  .byte  196,65,60,92,228                    // vsubps        %ymm12,%ymm8,%ymm12
-  .byte  196,98,5,168,227                    // vfmadd213ps   %ymm3,%ymm15,%ymm12
-  .byte  197,28,89,228                       // vmulps        %ymm4,%ymm12,%ymm12
-  .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
-  .byte  196,65,4,89,237                     // vmulps        %ymm13,%ymm15,%ymm13
-  .byte  196,98,101,184,236                  // vfmadd231ps   %ymm4,%ymm3,%ymm13
-  .byte  197,12,194,243,2                    // vcmpleps      %ymm3,%ymm14,%ymm14
-  .byte  196,195,21,74,212,224               // vblendvps     %ymm14,%ymm12,%ymm13,%ymm2
-  .byte  197,84,94,239                       // vdivps        %ymm7,%ymm5,%ymm13
-  .byte  196,67,45,74,237,176                // vblendvps     %ymm11,%ymm13,%ymm10,%ymm13
-  .byte  196,65,20,88,245                    // vaddps        %ymm13,%ymm13,%ymm14
   .byte  196,65,12,88,246                    // vaddps        %ymm14,%ymm14,%ymm14
   .byte  196,66,13,168,246                   // vfmadd213ps   %ymm14,%ymm14,%ymm14
-  .byte  196,65,20,92,248                    // vsubps        %ymm8,%ymm13,%ymm15
+  .byte  196,65,124,88,251                   // vaddps        %ymm11,%ymm0,%ymm15
   .byte  196,65,4,89,246                     // vmulps        %ymm14,%ymm15,%ymm14
-  .byte  196,66,53,184,245                   // vfmadd231ps   %ymm13,%ymm9,%ymm14
-  .byte  196,65,124,82,253                   // vrsqrtps      %ymm13,%ymm15
+  .byte  196,66,125,184,244                  // vfmadd231ps   %ymm12,%ymm0,%ymm14
+  .byte  197,124,82,248                      // vrsqrtps      %ymm0,%ymm15
   .byte  196,65,124,83,255                   // vrcpps        %ymm15,%ymm15
-  .byte  196,65,4,92,253                     // vsubps        %ymm13,%ymm15,%ymm15
-  .byte  197,84,88,229                       // vaddps        %ymm5,%ymm5,%ymm12
-  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
-  .byte  197,28,194,231,2                    // vcmpleps      %ymm7,%ymm12,%ymm12
-  .byte  196,67,5,74,230,192                 // vblendvps     %ymm12,%ymm14,%ymm15,%ymm12
-  .byte  197,116,88,241                      // vaddps        %ymm1,%ymm1,%ymm14
-  .byte  196,65,60,92,237                    // vsubps        %ymm13,%ymm8,%ymm13
+  .byte  197,4,92,248                        // vsubps        %ymm0,%ymm15,%ymm15
+  .byte  197,84,88,237                       // vaddps        %ymm5,%ymm5,%ymm13
+  .byte  196,65,20,88,237                    // vaddps        %ymm13,%ymm13,%ymm13
+  .byte  197,20,194,239,2                    // vcmpleps      %ymm7,%ymm13,%ymm13
+  .byte  196,67,5,74,238,208                 // vblendvps     %ymm13,%ymm14,%ymm15,%ymm13
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,108,88,242                      // vaddps        %ymm2,%ymm2,%ymm14
   .byte  197,12,92,251                       // vsubps        %ymm3,%ymm14,%ymm15
-  .byte  196,98,5,168,235                    // vfmadd213ps   %ymm3,%ymm15,%ymm13
+  .byte  196,226,5,168,195                   // vfmadd213ps   %ymm3,%ymm15,%ymm0
   .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
-  .byte  196,65,4,89,228                     // vmulps        %ymm12,%ymm15,%ymm12
-  .byte  197,20,89,237                       // vmulps        %ymm5,%ymm13,%ymm13
-  .byte  196,98,101,184,229                  // vfmadd231ps   %ymm5,%ymm3,%ymm12
+  .byte  196,65,4,89,237                     // vmulps        %ymm13,%ymm15,%ymm13
+  .byte  197,252,89,197                      // vmulps        %ymm5,%ymm0,%ymm0
+  .byte  196,98,101,184,237                  // vfmadd231ps   %ymm5,%ymm3,%ymm13
   .byte  197,12,194,243,2                    // vcmpleps      %ymm3,%ymm14,%ymm14
-  .byte  196,67,29,74,237,224                // vblendvps     %ymm14,%ymm13,%ymm12,%ymm13
-  .byte  197,76,94,231                       // vdivps        %ymm7,%ymm6,%ymm12
-  .byte  196,67,45,74,212,176                // vblendvps     %ymm11,%ymm12,%ymm10,%ymm10
-  .byte  196,65,44,88,218                    // vaddps        %ymm10,%ymm10,%ymm11
+  .byte  196,99,21,74,240,224                // vblendvps     %ymm14,%ymm0,%ymm13,%ymm14
+  .byte  197,204,94,199                      // vdivps        %ymm7,%ymm6,%ymm0
+  .byte  196,227,53,74,192,160               // vblendvps     %ymm10,%ymm0,%ymm9,%ymm0
+  .byte  197,124,88,200                      // vaddps        %ymm0,%ymm0,%ymm9
+  .byte  196,65,52,88,201                    // vaddps        %ymm9,%ymm9,%ymm9
+  .byte  196,66,53,168,201                   // vfmadd213ps   %ymm9,%ymm9,%ymm9
+  .byte  196,65,124,88,211                   // vaddps        %ymm11,%ymm0,%ymm10
+  .byte  196,65,44,89,201                    // vmulps        %ymm9,%ymm10,%ymm9
+  .byte  196,66,125,184,204                  // vfmadd231ps   %ymm12,%ymm0,%ymm9
+  .byte  197,124,82,208                      // vrsqrtps      %ymm0,%ymm10
+  .byte  196,65,124,83,210                   // vrcpps        %ymm10,%ymm10
+  .byte  197,44,92,208                       // vsubps        %ymm0,%ymm10,%ymm10
+  .byte  197,76,88,222                       // vaddps        %ymm6,%ymm6,%ymm11
   .byte  196,65,36,88,219                    // vaddps        %ymm11,%ymm11,%ymm11
-  .byte  196,66,37,168,219                   // vfmadd213ps   %ymm11,%ymm11,%ymm11
-  .byte  196,65,44,92,224                    // vsubps        %ymm8,%ymm10,%ymm12
-  .byte  196,65,28,89,219                    // vmulps        %ymm11,%ymm12,%ymm11
-  .byte  196,66,45,168,203                   // vfmadd213ps   %ymm11,%ymm10,%ymm9
-  .byte  196,65,124,82,218                   // vrsqrtps      %ymm10,%ymm11
-  .byte  196,65,124,83,219                   // vrcpps        %ymm11,%ymm11
-  .byte  196,65,36,92,218                    // vsubps        %ymm10,%ymm11,%ymm11
-  .byte  197,76,88,230                       // vaddps        %ymm6,%ymm6,%ymm12
-  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
-  .byte  197,28,194,231,2                    // vcmpleps      %ymm7,%ymm12,%ymm12
-  .byte  196,67,37,74,201,192                // vblendvps     %ymm12,%ymm9,%ymm11,%ymm9
-  .byte  197,124,16,116,36,200               // vmovups       -0x38(%rsp),%ymm14
-  .byte  196,65,12,88,222                    // vaddps        %ymm14,%ymm14,%ymm11
-  .byte  197,36,92,227                       // vsubps        %ymm3,%ymm11,%ymm12
-  .byte  196,65,60,92,210                    // vsubps        %ymm10,%ymm8,%ymm10
-  .byte  196,98,29,168,211                   // vfmadd213ps   %ymm3,%ymm12,%ymm10
-  .byte  197,28,89,231                       // vmulps        %ymm7,%ymm12,%ymm12
-  .byte  196,65,28,89,201                    // vmulps        %ymm9,%ymm12,%ymm9
-  .byte  197,44,89,214                       // vmulps        %ymm6,%ymm10,%ymm10
+  .byte  197,36,194,223,2                    // vcmpleps      %ymm7,%ymm11,%ymm11
+  .byte  196,67,45,74,201,176                // vblendvps     %ymm11,%ymm9,%ymm10,%ymm9
+  .byte  197,124,16,100,36,200               // vmovups       -0x38(%rsp),%ymm12
+  .byte  196,65,28,88,212                    // vaddps        %ymm12,%ymm12,%ymm10
+  .byte  197,44,92,219                       // vsubps        %ymm3,%ymm10,%ymm11
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  196,226,37,168,195                  // vfmadd213ps   %ymm3,%ymm11,%ymm0
+  .byte  197,36,89,223                       // vmulps        %ymm7,%ymm11,%ymm11
+  .byte  196,65,36,89,201                    // vmulps        %ymm9,%ymm11,%ymm9
+  .byte  197,252,89,198                      // vmulps        %ymm6,%ymm0,%ymm0
   .byte  196,98,101,184,206                  // vfmadd231ps   %ymm6,%ymm3,%ymm9
-  .byte  197,36,194,219,2                    // vcmpleps      %ymm3,%ymm11,%ymm11
-  .byte  196,67,53,74,202,176                // vblendvps     %ymm11,%ymm10,%ymm9,%ymm9
+  .byte  197,44,194,211,2                    // vcmpleps      %ymm3,%ymm10,%ymm10
+  .byte  196,99,53,74,200,160                // vblendvps     %ymm10,%ymm0,%ymm9,%ymm9
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
+  .byte  197,172,89,193                      // vmulps        %ymm1,%ymm10,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,98,45,184,216                   // vfmadd231ps   %ymm0,%ymm10,%ymm11
-  .byte  196,193,108,88,195                  // vaddps        %ymm11,%ymm2,%ymm0
-  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
+  .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
+  .byte  197,252,88,68,36,168                // vaddps        -0x58(%rsp),%ymm0,%ymm0
+  .byte  197,172,89,202                      // vmulps        %ymm2,%ymm10,%ymm1
   .byte  196,226,61,184,205                  // vfmadd231ps   %ymm5,%ymm8,%ymm1
-  .byte  196,193,116,88,205                  // vaddps        %ymm13,%ymm1,%ymm1
-  .byte  196,193,44,89,214                   // vmulps        %ymm14,%ymm10,%ymm2
+  .byte  196,193,116,88,206                  // vaddps        %ymm14,%ymm1,%ymm1
+  .byte  196,193,44,89,212                   // vmulps        %ymm12,%ymm10,%ymm2
   .byte  196,226,61,184,214                  // vfmadd231ps   %ymm6,%ymm8,%ymm2
   .byte  196,193,108,88,209                  // vaddps        %ymm9,%ymm2,%ymm2
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
@@ -8036,9 +8004,7 @@
 .globl _sk_clamp_1_hsw
 FUNCTION(_sk_clamp_1_hsw)
 _sk_clamp_1_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,164,51,0,0          // vbroadcastss  0x33a4(%rip),%ymm8        # 3d94 <_sk_callback_hsw+0x179>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
@@ -8050,9 +8016,7 @@
 .globl _sk_clamp_a_hsw
 FUNCTION(_sk_clamp_a_hsw)
 _sk_clamp_a_hsw:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,135,51,0,0          // vbroadcastss  0x3387(%rip),%ymm8        # 3d98 <_sk_callback_hsw+0x17d>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
   .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
@@ -8138,9 +8102,7 @@
 _sk_unpremul_hsw:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,65,100,194,200,0                // vcmpeqps      %ymm8,%ymm3,%ymm9
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
+  .byte  196,98,125,24,21,207,50,0,0         // vbroadcastss  0x32cf(%rip),%ymm10        # 3d9c <_sk_callback_hsw+0x181>
   .byte  197,44,94,211                       // vdivps        %ymm3,%ymm10,%ymm10
   .byte  196,67,45,74,192,144                // vblendvps     %ymm9,%ymm8,%ymm10,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
@@ -8153,41 +8115,31 @@
 .globl _sk_from_srgb_hsw
 FUNCTION(_sk_from_srgb_hsw)
 _sk_from_srgb_hsw:
-  .byte  184,145,131,158,61                  // mov           $0x3d9e8391,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  196,98,125,24,5,176,50,0,0          // vbroadcastss  0x32b0(%rip),%ymm8        # 3da0 <_sk_callback_hsw+0x185>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  197,124,89,208                      // vmulps        %ymm0,%ymm0,%ymm10
-  .byte  184,154,153,153,62                  // mov           $0x3e99999a,%eax
-  .byte  197,121,110,216                     // vmovd         %eax,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  184,92,143,50,63                    // mov           $0x3f328f5c,%eax
-  .byte  197,121,110,224                     // vmovd         %eax,%xmm12
-  .byte  196,66,125,88,228                   // vpbroadcastd  %xmm12,%ymm12
-  .byte  196,65,125,111,235                  // vmovdqa       %ymm11,%ymm13
-  .byte  196,66,125,168,236                  // vfmadd213ps   %ymm12,%ymm0,%ymm13
-  .byte  184,10,215,35,59                    // mov           $0x3b23d70a,%eax
-  .byte  197,121,110,240                     // vmovd         %eax,%xmm14
-  .byte  196,66,125,88,246                   // vpbroadcastd  %xmm14,%ymm14
+  .byte  196,98,125,24,29,162,50,0,0         // vbroadcastss  0x32a2(%rip),%ymm11        # 3da4 <_sk_callback_hsw+0x189>
+  .byte  196,98,125,24,37,157,50,0,0         // vbroadcastss  0x329d(%rip),%ymm12        # 3da8 <_sk_callback_hsw+0x18d>
+  .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
+  .byte  196,66,125,168,235                  // vfmadd213ps   %ymm11,%ymm0,%ymm13
+  .byte  196,98,125,24,53,142,50,0,0         // vbroadcastss  0x328e(%rip),%ymm14        # 3dac <_sk_callback_hsw+0x191>
   .byte  196,66,45,168,238                   // vfmadd213ps   %ymm14,%ymm10,%ymm13
-  .byte  184,174,71,97,61                    // mov           $0x3d6147ae,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
+  .byte  196,98,125,24,21,132,50,0,0         // vbroadcastss  0x3284(%rip),%ymm10        # 3db0 <_sk_callback_hsw+0x195>
   .byte  196,193,124,194,194,1               // vcmpltps      %ymm10,%ymm0,%ymm0
   .byte  196,195,21,74,193,0                 // vblendvps     %ymm0,%ymm9,%ymm13,%ymm0
-  .byte  197,60,89,201                       // vmulps        %ymm1,%ymm8,%ymm9
+  .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
   .byte  197,116,89,233                      // vmulps        %ymm1,%ymm1,%ymm13
-  .byte  196,65,125,111,251                  // vmovdqa       %ymm11,%ymm15
-  .byte  196,66,117,168,252                  // vfmadd213ps   %ymm12,%ymm1,%ymm15
+  .byte  196,65,124,40,252                   // vmovaps       %ymm12,%ymm15
+  .byte  196,66,117,168,251                  // vfmadd213ps   %ymm11,%ymm1,%ymm15
   .byte  196,66,21,168,254                   // vfmadd213ps   %ymm14,%ymm13,%ymm15
   .byte  196,193,116,194,202,1               // vcmpltps      %ymm10,%ymm1,%ymm1
   .byte  196,195,5,74,201,16                 // vblendvps     %ymm1,%ymm9,%ymm15,%ymm1
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
   .byte  197,108,89,202                      // vmulps        %ymm2,%ymm2,%ymm9
-  .byte  196,66,109,168,220                  // vfmadd213ps   %ymm12,%ymm2,%ymm11
-  .byte  196,66,53,168,222                   // vfmadd213ps   %ymm14,%ymm9,%ymm11
+  .byte  196,66,109,168,227                  // vfmadd213ps   %ymm11,%ymm2,%ymm12
+  .byte  196,66,53,168,230                   // vfmadd213ps   %ymm14,%ymm9,%ymm12
   .byte  196,193,108,194,210,1               // vcmpltps      %ymm10,%ymm2,%ymm2
-  .byte  196,195,37,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm11,%ymm2
+  .byte  196,195,29,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm12,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -8196,50 +8148,37 @@
 FUNCTION(_sk_to_srgb_hsw)
 _sk_to_srgb_hsw:
   .byte  197,124,82,192                      // vrsqrtps      %ymm0,%ymm8
-  .byte  196,65,124,83,216                   // vrcpps        %ymm8,%ymm11
-  .byte  196,65,124,82,224                   // vrsqrtps      %ymm8,%ymm12
-  .byte  184,41,92,71,65                     // mov           $0x41475c29,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,232                       // vmulps        %ymm0,%ymm8,%ymm13
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  184,194,135,210,62                  // mov           $0x3ed287c2,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  184,206,111,48,63                   // mov           $0x3f306fce,%eax
-  .byte  197,121,110,240                     // vmovd         %eax,%xmm14
-  .byte  196,66,125,88,246                   // vpbroadcastd  %xmm14,%ymm14
-  .byte  184,168,87,202,61                   // mov           $0x3dca57a8,%eax
-  .byte  53,0,0,0,128                        // xor           $0x80000000,%eax
-  .byte  197,121,110,248                     // vmovd         %eax,%xmm15
-  .byte  196,66,125,88,255                   // vpbroadcastd  %xmm15,%ymm15
-  .byte  196,66,13,168,223                   // vfmadd213ps   %ymm15,%ymm14,%ymm11
-  .byte  196,66,45,184,220                   // vfmadd231ps   %ymm12,%ymm10,%ymm11
-  .byte  196,65,52,93,219                    // vminps        %ymm11,%ymm9,%ymm11
-  .byte  184,4,231,140,59                    // mov           $0x3b8ce704,%eax
-  .byte  197,121,110,224                     // vmovd         %eax,%xmm12
-  .byte  196,66,125,88,228                   // vpbroadcastd  %xmm12,%ymm12
-  .byte  196,193,124,194,196,1               // vcmpltps      %ymm12,%ymm0,%ymm0
-  .byte  196,195,37,74,197,0                 // vblendvps     %ymm0,%ymm13,%ymm11,%ymm0
-  .byte  197,124,82,217                      // vrsqrtps      %ymm1,%ymm11
-  .byte  196,65,124,83,235                   // vrcpps        %ymm11,%ymm13
-  .byte  196,65,124,82,219                   // vrsqrtps      %ymm11,%ymm11
-  .byte  196,66,13,168,239                   // vfmadd213ps   %ymm15,%ymm14,%ymm13
-  .byte  196,66,45,184,235                   // vfmadd231ps   %ymm11,%ymm10,%ymm13
-  .byte  197,60,89,217                       // vmulps        %ymm1,%ymm8,%ymm11
-  .byte  196,65,52,93,237                    // vminps        %ymm13,%ymm9,%ymm13
-  .byte  196,193,116,194,204,1               // vcmpltps      %ymm12,%ymm1,%ymm1
-  .byte  196,195,21,74,203,16                // vblendvps     %ymm1,%ymm11,%ymm13,%ymm1
-  .byte  197,124,82,218                      // vrsqrtps      %ymm2,%ymm11
-  .byte  196,65,124,83,235                   // vrcpps        %ymm11,%ymm13
-  .byte  196,66,13,168,239                   // vfmadd213ps   %ymm15,%ymm14,%ymm13
-  .byte  196,65,124,82,219                   // vrsqrtps      %ymm11,%ymm11
-  .byte  196,66,45,184,235                   // vfmadd231ps   %ymm11,%ymm10,%ymm13
-  .byte  196,65,52,93,205                    // vminps        %ymm13,%ymm9,%ymm9
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
-  .byte  196,193,108,194,212,1               // vcmpltps      %ymm12,%ymm2,%ymm2
+  .byte  196,65,124,83,200                   // vrcpps        %ymm8,%ymm9
+  .byte  196,65,124,82,208                   // vrsqrtps      %ymm8,%ymm10
+  .byte  196,98,125,24,5,30,50,0,0           // vbroadcastss  0x321e(%rip),%ymm8        # 3db4 <_sk_callback_hsw+0x199>
+  .byte  196,65,124,89,216                   // vmulps        %ymm8,%ymm0,%ymm11
+  .byte  196,98,125,24,37,20,50,0,0          // vbroadcastss  0x3214(%rip),%ymm12        # 3db8 <_sk_callback_hsw+0x19d>
+  .byte  196,98,125,24,45,15,50,0,0          // vbroadcastss  0x320f(%rip),%ymm13        # 3dbc <_sk_callback_hsw+0x1a1>
+  .byte  196,66,21,168,204                   // vfmadd213ps   %ymm12,%ymm13,%ymm9
+  .byte  196,98,125,24,53,5,50,0,0           // vbroadcastss  0x3205(%rip),%ymm14        # 3dc0 <_sk_callback_hsw+0x1a5>
+  .byte  196,66,13,184,202                   // vfmadd231ps   %ymm10,%ymm14,%ymm9
+  .byte  196,98,125,24,21,251,49,0,0         // vbroadcastss  0x31fb(%rip),%ymm10        # 3dc4 <_sk_callback_hsw+0x1a9>
+  .byte  196,65,44,93,201                    // vminps        %ymm9,%ymm10,%ymm9
+  .byte  196,98,125,24,61,241,49,0,0         // vbroadcastss  0x31f1(%rip),%ymm15        # 3dc8 <_sk_callback_hsw+0x1ad>
+  .byte  196,193,124,194,199,1               // vcmpltps      %ymm15,%ymm0,%ymm0
+  .byte  196,195,53,74,195,0                 // vblendvps     %ymm0,%ymm11,%ymm9,%ymm0
+  .byte  197,124,82,201                      // vrsqrtps      %ymm1,%ymm9
+  .byte  196,65,124,83,217                   // vrcpps        %ymm9,%ymm11
+  .byte  196,65,124,82,201                   // vrsqrtps      %ymm9,%ymm9
+  .byte  196,66,21,168,220                   // vfmadd213ps   %ymm12,%ymm13,%ymm11
+  .byte  196,66,13,184,217                   // vfmadd231ps   %ymm9,%ymm14,%ymm11
+  .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
+  .byte  196,65,44,93,219                    // vminps        %ymm11,%ymm10,%ymm11
+  .byte  196,193,116,194,207,1               // vcmpltps      %ymm15,%ymm1,%ymm1
+  .byte  196,195,37,74,201,16                // vblendvps     %ymm1,%ymm9,%ymm11,%ymm1
+  .byte  197,124,82,202                      // vrsqrtps      %ymm2,%ymm9
+  .byte  196,65,124,83,217                   // vrcpps        %ymm9,%ymm11
+  .byte  196,66,21,168,220                   // vfmadd213ps   %ymm12,%ymm13,%ymm11
+  .byte  196,65,124,82,201                   // vrsqrtps      %ymm9,%ymm9
+  .byte  196,66,13,184,217                   // vfmadd231ps   %ymm9,%ymm14,%ymm11
+  .byte  196,65,44,93,203                    // vminps        %ymm11,%ymm10,%ymm9
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
+  .byte  196,193,108,194,215,1               // vcmpltps      %ymm15,%ymm2,%ymm2
   .byte  196,195,53,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm9,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -8248,66 +8187,43 @@
 .globl _sk_rgb_to_hsl_hsw
 FUNCTION(_sk_rgb_to_hsl_hsw)
 _sk_rgb_to_hsl_hsw:
-  .byte  197,252,17,124,36,200               // vmovups       %ymm7,-0x38(%rsp)
-  .byte  197,252,40,254                      // vmovaps       %ymm6,%ymm7
-  .byte  197,252,40,245                      // vmovaps       %ymm5,%ymm6
-  .byte  197,252,40,236                      // vmovaps       %ymm4,%ymm5
-  .byte  197,252,40,227                      // vmovaps       %ymm3,%ymm4
-  .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  65,184,171,170,42,62                // mov           $0x3e2aaaab,%r8d
-  .byte  184,0,0,192,64                      // mov           $0x40c00000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  65,185,0,0,0,64                     // mov           $0x40000000,%r9d
-  .byte  184,0,0,128,64                      // mov           $0x40800000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  197,100,95,217                      // vmaxps        %ymm1,%ymm3,%ymm11
-  .byte  197,36,95,218                       // vmaxps        %ymm2,%ymm11,%ymm11
-  .byte  197,100,93,225                      // vminps        %ymm1,%ymm3,%ymm12
-  .byte  197,28,93,226                       // vminps        %ymm2,%ymm12,%ymm12
-  .byte  196,65,36,92,236                    // vsubps        %ymm12,%ymm11,%ymm13
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  196,65,60,94,197                    // vdivps        %ymm13,%ymm8,%ymm8
-  .byte  197,116,194,242,1                   // vcmpltps      %ymm2,%ymm1,%ymm14
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  197,124,95,193                      // vmaxps        %ymm1,%ymm0,%ymm8
+  .byte  197,60,95,194                       // vmaxps        %ymm2,%ymm8,%ymm8
+  .byte  197,124,93,201                      // vminps        %ymm1,%ymm0,%ymm9
+  .byte  197,52,93,202                       // vminps        %ymm2,%ymm9,%ymm9
+  .byte  196,65,60,92,209                    // vsubps        %ymm9,%ymm8,%ymm10
+  .byte  196,98,125,24,29,107,49,0,0         // vbroadcastss  0x316b(%rip),%ymm11        # 3dcc <_sk_callback_hsw+0x1b1>
+  .byte  196,65,36,94,218                    // vdivps        %ymm10,%ymm11,%ymm11
+  .byte  197,116,92,226                      // vsubps        %ymm2,%ymm1,%ymm12
+  .byte  197,116,194,234,1                   // vcmpltps      %ymm2,%ymm1,%ymm13
+  .byte  196,98,125,24,53,88,49,0,0          // vbroadcastss  0x3158(%rip),%ymm14        # 3dd0 <_sk_callback_hsw+0x1b5>
   .byte  196,65,4,87,255                     // vxorps        %ymm15,%ymm15,%ymm15
-  .byte  196,67,5,74,201,224                 // vblendvps     %ymm14,%ymm9,%ymm15,%ymm9
-  .byte  197,116,92,242                      // vsubps        %ymm2,%ymm1,%ymm14
-  .byte  196,66,61,168,241                   // vfmadd213ps   %ymm9,%ymm8,%ymm14
-  .byte  197,236,92,195                      // vsubps        %ymm3,%ymm2,%ymm0
-  .byte  197,100,92,201                      // vsubps        %ymm1,%ymm3,%ymm9
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,66,61,168,202                   // vfmadd213ps   %ymm10,%ymm8,%ymm9
-  .byte  196,193,121,110,209                 // vmovd         %r9d,%xmm2
-  .byte  196,98,125,88,210                   // vpbroadcastd  %xmm2,%ymm10
-  .byte  196,194,61,168,194                  // vfmadd213ps   %ymm10,%ymm8,%ymm0
-  .byte  197,164,194,201,0                   // vcmpeqps      %ymm1,%ymm11,%ymm1
-  .byte  196,227,53,74,192,16                // vblendvps     %ymm1,%ymm0,%ymm9,%ymm0
-  .byte  184,0,0,0,63                        // mov           $0x3f000000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  197,164,194,211,0                   // vcmpeqps      %ymm3,%ymm11,%ymm2
-  .byte  196,195,125,74,198,32               // vblendvps     %ymm2,%ymm14,%ymm0,%ymm0
-  .byte  196,193,36,88,220                   // vaddps        %ymm12,%ymm11,%ymm3
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
-  .byte  197,228,89,209                      // vmulps        %ymm1,%ymm3,%ymm2
-  .byte  197,244,194,202,1                   // vcmpltps      %ymm2,%ymm1,%ymm1
-  .byte  196,65,44,92,195                    // vsubps        %ymm11,%ymm10,%ymm8
-  .byte  196,65,60,92,196                    // vsubps        %ymm12,%ymm8,%ymm8
-  .byte  196,195,101,74,200,16               // vblendvps     %ymm1,%ymm8,%ymm3,%ymm1
-  .byte  196,193,36,194,220,0                // vcmpeqps      %ymm12,%ymm11,%ymm3
-  .byte  197,148,94,201                      // vdivps        %ymm1,%ymm13,%ymm1
-  .byte  196,195,125,74,199,48               // vblendvps     %ymm3,%ymm15,%ymm0,%ymm0
-  .byte  196,195,117,74,207,48               // vblendvps     %ymm3,%ymm15,%ymm1,%ymm1
-  .byte  196,193,121,110,216                 // vmovd         %r8d,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,228,89,192                      // vmulps        %ymm0,%ymm3,%ymm0
+  .byte  196,67,5,74,238,208                 // vblendvps     %ymm13,%ymm14,%ymm15,%ymm13
+  .byte  196,66,37,168,229                   // vfmadd213ps   %ymm13,%ymm11,%ymm12
+  .byte  197,236,92,208                      // vsubps        %ymm0,%ymm2,%ymm2
+  .byte  197,124,92,233                      // vsubps        %ymm1,%ymm0,%ymm13
+  .byte  196,98,125,24,53,63,49,0,0          // vbroadcastss  0x313f(%rip),%ymm14        # 3dd8 <_sk_callback_hsw+0x1bd>
+  .byte  196,66,37,168,238                   // vfmadd213ps   %ymm14,%ymm11,%ymm13
+  .byte  196,98,125,24,53,45,49,0,0          // vbroadcastss  0x312d(%rip),%ymm14        # 3dd4 <_sk_callback_hsw+0x1b9>
+  .byte  196,194,37,168,214                  // vfmadd213ps   %ymm14,%ymm11,%ymm2
+  .byte  197,188,194,201,0                   // vcmpeqps      %ymm1,%ymm8,%ymm1
+  .byte  196,227,21,74,202,16                // vblendvps     %ymm1,%ymm2,%ymm13,%ymm1
+  .byte  197,188,194,192,0                   // vcmpeqps      %ymm0,%ymm8,%ymm0
+  .byte  196,195,117,74,196,0                // vblendvps     %ymm0,%ymm12,%ymm1,%ymm0
+  .byte  196,193,60,88,201                   // vaddps        %ymm9,%ymm8,%ymm1
+  .byte  196,98,125,24,29,16,49,0,0          // vbroadcastss  0x3110(%rip),%ymm11        # 3de0 <_sk_callback_hsw+0x1c5>
+  .byte  196,193,116,89,211                  // vmulps        %ymm11,%ymm1,%ymm2
+  .byte  197,36,194,218,1                    // vcmpltps      %ymm2,%ymm11,%ymm11
+  .byte  196,65,12,92,224                    // vsubps        %ymm8,%ymm14,%ymm12
+  .byte  196,65,28,92,225                    // vsubps        %ymm9,%ymm12,%ymm12
+  .byte  196,195,117,74,204,176              // vblendvps     %ymm11,%ymm12,%ymm1,%ymm1
+  .byte  196,65,60,194,193,0                 // vcmpeqps      %ymm9,%ymm8,%ymm8
+  .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
+  .byte  196,195,125,74,199,128              // vblendvps     %ymm8,%ymm15,%ymm0,%ymm0
+  .byte  196,195,117,74,207,128              // vblendvps     %ymm8,%ymm15,%ymm1,%ymm1
+  .byte  196,98,125,24,5,211,48,0,0          // vbroadcastss  0x30d3(%rip),%ymm8        # 3ddc <_sk_callback_hsw+0x1c1>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  197,252,40,220                      // vmovaps       %ymm4,%ymm3
-  .byte  197,252,40,229                      // vmovaps       %ymm5,%ymm4
-  .byte  197,252,40,238                      // vmovaps       %ymm6,%ymm5
-  .byte  197,252,40,247                      // vmovaps       %ymm7,%ymm6
-  .byte  197,252,16,124,36,200               // vmovups       -0x38(%rsp),%ymm7
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_hsl_to_rgb_hsw
@@ -8437,13 +8353,11 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,56                              // jne           105a <_sk_scale_u8_hsw+0x48>
+  .byte  117,51                              // jne           f70 <_sk_scale_u8_hsw+0x43>
   .byte  197,122,126,0                       // vmovq         (%rax),%xmm8
   .byte  196,66,125,49,192                   // vpmovzxbd     %xmm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  196,98,125,24,13,144,46,0,0         // vbroadcastss  0x2e90(%rip),%ymm9        # 3de4 <_sk_callback_hsw+0x1c9>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -8461,9 +8375,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           1062 <_sk_scale_u8_hsw+0x50>
+  .byte  117,234                             // jne           f78 <_sk_scale_u8_hsw+0x4b>
   .byte  196,65,249,110,193                  // vmovq         %r9,%xmm8
-  .byte  235,167                             // jmp           1026 <_sk_scale_u8_hsw+0x14>
+  .byte  235,172                             // jmp           f41 <_sk_scale_u8_hsw+0x14>
 
 HIDDEN _sk_lerp_1_float_hsw
 .globl _sk_lerp_1_float_hsw
@@ -8491,13 +8405,11 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,76                              // jne           110a <_sk_lerp_u8_hsw+0x5c>
+  .byte  117,71                              // jne           101b <_sk_lerp_u8_hsw+0x57>
   .byte  197,122,126,0                       // vmovq         (%rax),%xmm8
   .byte  196,66,125,49,192                   // vpmovzxbd     %xmm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  196,98,125,24,13,253,45,0,0         // vbroadcastss  0x2dfd(%rip),%ymm9        # 3de8 <_sk_callback_hsw+0x1cd>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
   .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
@@ -8519,9 +8431,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           1112 <_sk_lerp_u8_hsw+0x64>
+  .byte  117,234                             // jne           1023 <_sk_lerp_u8_hsw+0x5f>
   .byte  196,65,249,110,193                  // vmovq         %r9,%xmm8
-  .byte  235,147                             // jmp           10c2 <_sk_lerp_u8_hsw+0x14>
+  .byte  235,152                             // jmp           fd8 <_sk_lerp_u8_hsw+0x14>
 
 HIDDEN _sk_lerp_565_hsw
 .globl _sk_lerp_565_hsw
@@ -8530,49 +8442,41 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,167,0,0,0                    // jne           11e4 <_sk_lerp_565_hsw+0xb5>
+  .byte  15,133,149,0,0,0                    // jne           10e3 <_sk_lerp_565_hsw+0xa3>
   .byte  196,193,122,111,28,122              // vmovdqu       (%r10,%rdi,2),%xmm3
-  .byte  196,98,125,51,203                   // vpmovzxwd     %xmm3,%ymm9
-  .byte  196,98,125,88,5,39,47,0,0           // vpbroadcastd  0x2f27(%rip),%ymm8        # 4078 <_sk_callback_hsw+0x12e>
-  .byte  196,65,53,219,192                   // vpand         %ymm8,%ymm9,%ymm8
+  .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
+  .byte  196,98,125,88,5,138,45,0,0          // vpbroadcastd  0x2d8a(%rip),%ymm8        # 3dec <_sk_callback_hsw+0x1d1>
+  .byte  196,65,101,219,192                  // vpand         %ymm8,%ymm3,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,60,89,211                       // vmulps        %ymm3,%ymm8,%ymm10
-  .byte  196,98,125,88,5,6,47,0,0            // vpbroadcastd  0x2f06(%rip),%ymm8        # 407c <_sk_callback_hsw+0x132>
-  .byte  196,65,53,219,192                   // vpand         %ymm8,%ymm9,%ymm8
-  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,60,89,219                       // vmulps        %ymm3,%ymm8,%ymm11
-  .byte  196,98,125,88,5,229,46,0,0          // vpbroadcastd  0x2ee5(%rip),%ymm8        # 4080 <_sk_callback_hsw+0x136>
-  .byte  196,65,53,219,192                   // vpand         %ymm8,%ymm9,%ymm8
-  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  196,98,125,24,13,123,45,0,0         // vbroadcastss  0x2d7b(%rip),%ymm9        # 3df0 <_sk_callback_hsw+0x1d5>
+  .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
+  .byte  196,98,125,88,13,113,45,0,0         // vpbroadcastd  0x2d71(%rip),%ymm9        # 3df4 <_sk_callback_hsw+0x1d9>
+  .byte  196,65,101,219,201                  // vpand         %ymm9,%ymm3,%ymm9
+  .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
+  .byte  196,98,125,24,21,98,45,0,0          // vbroadcastss  0x2d62(%rip),%ymm10        # 3df8 <_sk_callback_hsw+0x1dd>
+  .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
+  .byte  196,98,125,88,21,88,45,0,0          // vpbroadcastd  0x2d58(%rip),%ymm10        # 3dfc <_sk_callback_hsw+0x1e1>
+  .byte  196,193,101,219,218                 // vpand         %ymm10,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,21,74,45,0,0          // vbroadcastss  0x2d4a(%rip),%ymm10        # 3e00 <_sk_callback_hsw+0x1e5>
+  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
-  .byte  196,226,45,168,196                  // vfmadd213ps   %ymm4,%ymm10,%ymm0
+  .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
   .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
-  .byte  196,226,37,168,205                  // vfmadd213ps   %ymm5,%ymm11,%ymm1
+  .byte  196,226,53,168,205                  // vfmadd213ps   %ymm5,%ymm9,%ymm1
   .byte  197,236,92,214                      // vsubps        %ymm6,%ymm2,%ymm2
   .byte  196,226,101,168,214                 // vfmadd213ps   %ymm6,%ymm3,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,35,45,0,0         // vbroadcastss  0x2d23(%rip),%ymm3        # 3e04 <_sk_callback_hsw+0x1e9>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,71,255,255,255               // ja            1143 <_sk_lerp_565_hsw+0x14>
+  .byte  15,135,89,255,255,255               // ja            1054 <_sk_lerp_565_hsw+0x14>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 1250 <_sk_lerp_565_hsw+0x121>
+  .byte  76,141,13,74,0,0,0                  // lea           0x4a(%rip),%r9        # 1150 <_sk_lerp_565_hsw+0x110>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -8584,27 +8488,27 @@
   .byte  196,193,97,196,92,122,4,2           // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm3,%xmm3
   .byte  196,193,97,196,92,122,2,1           // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm3,%xmm3
   .byte  196,193,97,196,28,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm3,%xmm3
-  .byte  233,243,254,255,255                 // jmpq          1143 <_sk_lerp_565_hsw+0x14>
-  .byte  244                                 // hlt
+  .byte  233,5,255,255,255                   // jmpq          1054 <_sk_lerp_565_hsw+0x14>
+  .byte  144                                 // nop
+  .byte  243,255                             // repz          (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  235,255                             // jmp           1155 <_sk_lerp_565_hsw+0x115>
+  .byte  255                                 // (bad)
+  .byte  255,227                             // jmpq          *%rbx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  236                                 // in            (%dx),%al
+  .byte  219,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,211                             // callq         *%rbx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,228                             // jmpq          *%rsp
+  .byte  255,203                             // dec           %ebx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  220,255                             // fdivr         %st,%st(7)
-  .byte  255                                 // (bad)
-  .byte  255,212                             // callq         *%rsp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,204                             // dec           %esp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,192                             // inc           %eax
+  .byte  191                                 // .byte         0xbf
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -8618,26 +8522,24 @@
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
   .byte  76,3,8                              // add           (%rax),%r9
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,109                             // jne           12ee <_sk_load_tables_hsw+0x82>
+  .byte  117,105                             // jne           11ea <_sk_load_tables_hsw+0x7e>
   .byte  196,193,126,111,25                  // vmovdqu       (%r9),%ymm3
-  .byte  197,229,219,13,242,46,0,0           // vpand         0x2ef2(%rip),%ymm3,%ymm1        # 4180 <_sk_callback_hsw+0x236>
+  .byte  197,229,219,13,18,47,0,0            // vpand         0x2f12(%rip),%ymm3,%ymm1        # 40a0 <_sk_callback_hsw+0x485>
   .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
   .byte  72,139,72,8                         // mov           0x8(%rax),%rcx
   .byte  76,139,72,16                        // mov           0x10(%rax),%r9
   .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
   .byte  196,226,109,146,4,137               // vgatherdps    %ymm2,(%rcx,%ymm1,4),%ymm0
-  .byte  196,226,101,0,21,242,46,0,0         // vpshufb       0x2ef2(%rip),%ymm3,%ymm2        # 41a0 <_sk_callback_hsw+0x256>
+  .byte  196,226,101,0,21,18,47,0,0          // vpshufb       0x2f12(%rip),%ymm3,%ymm2        # 40c0 <_sk_callback_hsw+0x4a5>
   .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
   .byte  196,194,53,146,12,145               // vgatherdps    %ymm9,(%r9,%ymm2,4),%ymm1
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  196,98,101,0,13,250,46,0,0          // vpshufb       0x2efa(%rip),%ymm3,%ymm9        # 41c0 <_sk_callback_hsw+0x276>
+  .byte  196,98,101,0,13,26,47,0,0           // vpshufb       0x2f1a(%rip),%ymm3,%ymm9        # 40e0 <_sk_callback_hsw+0x4c5>
   .byte  196,162,61,146,20,136               // vgatherdps    %ymm8,(%rax,%ymm9,4),%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,42,44,0,0           // vbroadcastss  0x2c2a(%rip),%ymm8        # 3e08 <_sk_callback_hsw+0x1ed>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,137,193                          // mov           %r8,%rcx
   .byte  255,224                             // jmpq          *%rax
@@ -8649,7 +8551,7 @@
   .byte  196,193,249,110,194                 // vmovq         %r10,%xmm0
   .byte  196,226,125,33,192                  // vpmovsxbd     %xmm0,%ymm0
   .byte  196,194,125,140,25                  // vpmaskmovd    (%r9),%ymm0,%ymm3
-  .byte  233,111,255,255,255                 // jmpq          1286 <_sk_load_tables_hsw+0x1a>
+  .byte  233,115,255,255,255                 // jmpq          1186 <_sk_load_tables_hsw+0x1a>
 
 HIDDEN _sk_load_tables_u16_be_hsw
 .globl _sk_load_tables_u16_be_hsw
@@ -8659,7 +8561,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,208,0,0,0                    // jne           13fd <_sk_load_tables_u16_be_hsw+0xe6>
+  .byte  15,133,201,0,0,0                    // jne           12f2 <_sk_load_tables_u16_be_hsw+0xdf>
   .byte  196,1,121,16,4,72                   // vmovupd       (%r8,%r9,2),%xmm8
   .byte  196,129,121,16,84,72,16             // vmovupd       0x10(%r8,%r9,2),%xmm2
   .byte  196,129,121,16,92,72,32             // vmovupd       0x20(%r8,%r9,2),%xmm3
@@ -8671,11 +8573,11 @@
   .byte  197,121,97,194                      // vpunpcklwd    %xmm2,%xmm0,%xmm8
   .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
   .byte  197,241,97,195                      // vpunpcklwd    %xmm3,%xmm1,%xmm0
-  .byte  197,113,105,235                     // vpunpckhwd    %xmm3,%xmm1,%xmm13
+  .byte  197,241,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm3
   .byte  197,185,108,200                     // vpunpcklqdq   %xmm0,%xmm8,%xmm1
   .byte  197,185,109,208                     // vpunpckhqdq   %xmm0,%xmm8,%xmm2
-  .byte  196,65,49,108,197                   // vpunpcklqdq   %xmm13,%xmm9,%xmm8
-  .byte  197,121,111,21,129,47,0,0           // vmovdqa       0x2f81(%rip),%xmm10        # 4300 <_sk_callback_hsw+0x3b6>
+  .byte  197,49,108,195                      // vpunpcklqdq   %xmm3,%xmm9,%xmm8
+  .byte  197,121,111,21,166,47,0,0           // vmovdqa       0x2fa6(%rip),%xmm10        # 4220 <_sk_callback_hsw+0x605>
   .byte  196,193,113,219,194                 // vpand         %xmm10,%xmm1,%xmm0
   .byte  196,226,125,51,200                  // vpmovzxwd     %xmm0,%ymm1
   .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
@@ -8691,44 +8593,42 @@
   .byte  196,193,57,219,210                  // vpand         %xmm10,%xmm8,%xmm2
   .byte  196,98,125,51,194                   // vpmovzxwd     %xmm2,%ymm8
   .byte  196,162,37,146,20,128               // vgatherdps    %ymm11,(%rax,%ymm8,4),%ymm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,98,125,88,195                   // vpbroadcastd  %xmm3,%ymm8
-  .byte  196,193,49,109,221                  // vpunpckhqdq   %xmm13,%xmm9,%xmm3
-  .byte  197,177,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm9
+  .byte  197,177,109,219                     // vpunpckhqdq   %xmm3,%xmm9,%xmm3
+  .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
   .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
-  .byte  197,177,235,219                     // vpor          %xmm3,%xmm9,%xmm3
+  .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
   .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,35,43,0,0           // vbroadcastss  0x2b23(%rip),%ymm8        # 3e0c <_sk_callback_hsw+0x1f1>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,123,16,4,72                   // vmovsd        (%r8,%r9,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,85                              // je            1463 <_sk_load_tables_u16_be_hsw+0x14c>
+  .byte  116,85                              // je            1358 <_sk_load_tables_u16_be_hsw+0x145>
   .byte  196,1,57,22,68,72,8                 // vmovhpd       0x8(%r8,%r9,2),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,72                              // jb            1463 <_sk_load_tables_u16_be_hsw+0x14c>
+  .byte  114,72                              // jb            1358 <_sk_load_tables_u16_be_hsw+0x145>
   .byte  196,129,123,16,84,72,16             // vmovsd        0x10(%r8,%r9,2),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,72                              // je            1470 <_sk_load_tables_u16_be_hsw+0x159>
+  .byte  116,72                              // je            1365 <_sk_load_tables_u16_be_hsw+0x152>
   .byte  196,129,105,22,84,72,24             // vmovhpd       0x18(%r8,%r9,2),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,59                              // jb            1470 <_sk_load_tables_u16_be_hsw+0x159>
+  .byte  114,59                              // jb            1365 <_sk_load_tables_u16_be_hsw+0x152>
   .byte  196,129,123,16,92,72,32             // vmovsd        0x20(%r8,%r9,2),%xmm3
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,2,255,255,255                // je            1348 <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  15,132,9,255,255,255                // je            1244 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  196,129,97,22,92,72,40              // vmovhpd       0x28(%r8,%r9,2),%xmm3,%xmm3
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,241,254,255,255              // jb            1348 <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  15,130,248,254,255,255              // jb            1244 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  196,1,122,126,76,72,48              // vmovq         0x30(%r8,%r9,2),%xmm9
-  .byte  233,229,254,255,255                 // jmpq          1348 <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,236,254,255,255                 // jmpq          1244 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,216,254,255,255                 // jmpq          1348 <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,223,254,255,255                 // jmpq          1244 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,207,254,255,255                 // jmpq          1348 <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,214,254,255,255                 // jmpq          1244 <_sk_load_tables_u16_be_hsw+0x31>
 
 HIDDEN _sk_load_tables_rgb_u16_be_hsw
 .globl _sk_load_tables_rgb_u16_be_hsw
@@ -8738,7 +8638,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,127                       // lea           (%rdi,%rdi,2),%r9
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,198,0,0,0                    // jne           1551 <_sk_load_tables_rgb_u16_be_hsw+0xd8>
+  .byte  15,133,193,0,0,0                    // jne           1441 <_sk_load_tables_rgb_u16_be_hsw+0xd3>
   .byte  196,129,122,111,4,72                // vmovdqu       (%r8,%r9,2),%xmm0
   .byte  196,129,122,111,84,72,12            // vmovdqu       0xc(%r8,%r9,2),%xmm2
   .byte  196,129,122,111,76,72,24            // vmovdqu       0x18(%r8,%r9,2),%xmm1
@@ -8759,7 +8659,7 @@
   .byte  197,185,108,218                     // vpunpcklqdq   %xmm2,%xmm8,%xmm3
   .byte  197,185,109,210                     // vpunpckhqdq   %xmm2,%xmm8,%xmm2
   .byte  197,121,108,193                     // vpunpcklqdq   %xmm1,%xmm0,%xmm8
-  .byte  197,121,111,13,27,46,0,0            // vmovdqa       0x2e1b(%rip),%xmm9        # 4310 <_sk_callback_hsw+0x3c6>
+  .byte  197,121,111,13,70,46,0,0            // vmovdqa       0x2e46(%rip),%xmm9        # 4230 <_sk_callback_hsw+0x615>
   .byte  196,193,97,219,193                  // vpand         %xmm9,%xmm3,%xmm0
   .byte  196,226,125,51,200                  // vpmovzxwd     %xmm0,%ymm1
   .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
@@ -8775,44 +8675,42 @@
   .byte  196,193,57,219,209                  // vpand         %xmm9,%xmm8,%xmm2
   .byte  196,98,125,51,194                   // vpmovzxwd     %xmm2,%ymm8
   .byte  196,162,101,146,20,128              // vgatherdps    %ymm3,(%rax,%ymm8,4),%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,209,41,0,0        // vbroadcastss  0x29d1(%rip),%ymm3        # 3e10 <_sk_callback_hsw+0x1f5>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,4,72                // vmovd         (%r8,%r9,2),%xmm0
   .byte  196,129,121,196,68,72,4,2           // vpinsrw       $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  117,5                               // jne           156a <_sk_load_tables_rgb_u16_be_hsw+0xf1>
-  .byte  233,85,255,255,255                  // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  117,5                               // jne           145a <_sk_load_tables_rgb_u16_be_hsw+0xec>
+  .byte  233,90,255,255,255                  // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
   .byte  196,129,121,110,76,72,6             // vmovd         0x6(%r8,%r9,2),%xmm1
   .byte  196,1,113,196,68,72,10,2            // vpinsrw       $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,26                              // jb            1599 <_sk_load_tables_rgb_u16_be_hsw+0x120>
+  .byte  114,26                              // jb            1489 <_sk_load_tables_rgb_u16_be_hsw+0x11b>
   .byte  196,129,121,110,76,72,12            // vmovd         0xc(%r8,%r9,2),%xmm1
   .byte  196,129,113,196,84,72,16,2          // vpinsrw       $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  117,10                              // jne           159e <_sk_load_tables_rgb_u16_be_hsw+0x125>
-  .byte  233,38,255,255,255                  // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
-  .byte  233,33,255,255,255                  // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  117,10                              // jne           148e <_sk_load_tables_rgb_u16_be_hsw+0x120>
+  .byte  233,43,255,255,255                  // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  233,38,255,255,255                  // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
   .byte  196,129,121,110,76,72,18            // vmovd         0x12(%r8,%r9,2),%xmm1
   .byte  196,1,113,196,76,72,22,2            // vpinsrw       $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,26                              // jb            15cd <_sk_load_tables_rgb_u16_be_hsw+0x154>
+  .byte  114,26                              // jb            14bd <_sk_load_tables_rgb_u16_be_hsw+0x14f>
   .byte  196,129,121,110,76,72,24            // vmovd         0x18(%r8,%r9,2),%xmm1
   .byte  196,129,113,196,76,72,28,2          // vpinsrw       $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  117,10                              // jne           15d2 <_sk_load_tables_rgb_u16_be_hsw+0x159>
-  .byte  233,242,254,255,255                 // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
-  .byte  233,237,254,255,255                 // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  117,10                              // jne           14c2 <_sk_load_tables_rgb_u16_be_hsw+0x154>
+  .byte  233,247,254,255,255                 // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  233,242,254,255,255                 // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
   .byte  196,129,121,110,92,72,30            // vmovd         0x1e(%r8,%r9,2),%xmm3
   .byte  196,1,97,196,92,72,34,2             // vpinsrw       $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,20                              // jb            15fb <_sk_load_tables_rgb_u16_be_hsw+0x182>
+  .byte  114,20                              // jb            14eb <_sk_load_tables_rgb_u16_be_hsw+0x17d>
   .byte  196,129,121,110,92,72,36            // vmovd         0x24(%r8,%r9,2),%xmm3
   .byte  196,129,97,196,92,72,40,2           // vpinsrw       $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
-  .byte  233,196,254,255,255                 // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
-  .byte  233,191,254,255,255                 // jmpq          14bf <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  233,201,254,255,255                 // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
+  .byte  233,196,254,255,255                 // jmpq          13b4 <_sk_load_tables_rgb_u16_be_hsw+0x46>
 
 HIDDEN _sk_byte_tables_hsw
 .globl _sk_byte_tables_hsw
@@ -8825,10 +8723,8 @@
   .byte  65,84                               // push          %r12
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,127,67                   // mov           $0x437f0000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,98,125,24,5,15,41,0,0           // vbroadcastss  0x290f(%rip),%ymm8        # 3e14 <_sk_callback_hsw+0x1f9>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,195,249,22,192,1                // vpextrq       $0x1,%xmm0,%r8
   .byte  68,137,197                          // mov           %r8d,%ebp
@@ -8863,12 +8759,10 @@
   .byte  67,15,182,44,33                     // movzbl        (%r9,%r12,1),%ebp
   .byte  196,227,121,32,197,7                // vpinsrb       $0x7,%ebp,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
-  .byte  197,124,91,208                      // vcvtdq2ps     %ymm0,%ymm10
-  .byte  189,129,128,128,59                  // mov           $0x3b808081,%ebp
-  .byte  197,249,110,197                     // vmovd         %ebp,%xmm0
-  .byte  196,98,125,88,200                   // vpbroadcastd  %xmm0,%ymm9
-  .byte  196,193,44,89,193                   // vmulps        %ymm9,%ymm10,%ymm0
-  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,13,96,40,0,0          // vbroadcastss  0x2860(%rip),%ymm9        # 3e18 <_sk_callback_hsw+0x1fd>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,227,249,22,205,1                // vpextrq       $0x1,%xmm1,%rbp
   .byte  65,137,233                          // mov           %ebp,%r9d
@@ -8899,9 +8793,9 @@
   .byte  196,227,113,32,205,7                // vpinsrb       $0x7,%ebp,%xmm1,%xmm1
   .byte  196,226,125,49,201                  // vpmovzxbd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
   .byte  76,139,64,16                        // mov           0x10(%rax),%r8
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,227,249,22,213,1                // vpextrq       $0x1,%xmm2,%rbp
   .byte  65,137,233                          // mov           %ebp,%r9d
@@ -8932,9 +8826,9 @@
   .byte  196,227,105,32,213,7                // vpinsrb       $0x7,%ebp,%xmm2,%xmm2
   .byte  196,226,125,49,210                  // vpmovzxbd     %xmm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,227,249,22,221,1                // vpextrq       $0x1,%xmm3,%rbp
   .byte  65,137,232                          // mov           %ebp,%r8d
@@ -8965,7 +8859,7 @@
   .byte  196,227,97,32,216,7                 // vpinsrb       $0x7,%eax,%xmm3,%xmm3
   .byte  196,226,125,49,219                  // vpmovzxbd     %xmm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  197,180,89,219                      // vmulps        %ymm3,%ymm9,%ymm3
+  .byte  196,193,100,89,217                  // vmulps        %ymm9,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -9026,11 +8920,9 @@
   .byte  67,15,182,44,33                     // movzbl        (%r9,%r12,1),%ebp
   .byte  196,227,121,32,197,7                // vpinsrb       $0x7,%ebp,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
-  .byte  197,124,91,208                      // vcvtdq2ps     %ymm0,%ymm10
-  .byte  189,129,128,128,59                  // mov           $0x3b808081,%ebp
-  .byte  197,249,110,197                     // vmovd         %ebp,%xmm0
-  .byte  196,98,125,88,200                   // vpbroadcastd  %xmm0,%ymm9
-  .byte  196,193,44,89,193                   // vmulps        %ymm9,%ymm10,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,13,153,37,0,0         // vbroadcastss  0x2599(%rip),%ymm9        # 3e1c <_sk_callback_hsw+0x201>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,227,249,22,205,1                // vpextrq       $0x1,%xmm1,%rbp
@@ -9062,7 +8954,7 @@
   .byte  196,227,113,32,205,7                // vpinsrb       $0x7,%ebp,%xmm1,%xmm1
   .byte  196,226,125,49,201                  // vpmovzxbd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
   .byte  72,139,64,16                        // mov           0x10(%rax),%rax
   .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
@@ -9095,7 +8987,7 @@
   .byte  196,227,105,32,208,7                // vpinsrb       $0x7,%eax,%xmm2,%xmm2
   .byte  196,226,125,49,210                  // vpmovzxbd     %xmm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -9192,44 +9084,42 @@
   .byte  196,66,125,168,211                  // vfmadd213ps   %ymm11,%ymm0,%ymm10
   .byte  196,226,125,24,0                    // vbroadcastss  (%rax),%ymm0
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,152,36,0,0         // vbroadcastss  0x2498(%rip),%ymm12        # 4084 <_sk_callback_hsw+0x13a>
-  .byte  196,98,125,24,45,147,36,0,0         // vbroadcastss  0x2493(%rip),%ymm13        # 4088 <_sk_callback_hsw+0x13e>
+  .byte  196,98,125,24,37,76,35,0,0          // vbroadcastss  0x234c(%rip),%ymm12        # 3e20 <_sk_callback_hsw+0x205>
+  .byte  196,98,125,24,45,71,35,0,0          // vbroadcastss  0x2347(%rip),%ymm13        # 3e24 <_sk_callback_hsw+0x209>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,137,36,0,0         // vbroadcastss  0x2489(%rip),%ymm13        # 408c <_sk_callback_hsw+0x142>
+  .byte  196,98,125,24,45,61,35,0,0          // vbroadcastss  0x233d(%rip),%ymm13        # 3e28 <_sk_callback_hsw+0x20d>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,127,36,0,0         // vbroadcastss  0x247f(%rip),%ymm13        # 4090 <_sk_callback_hsw+0x146>
+  .byte  196,98,125,24,45,51,35,0,0          // vbroadcastss  0x2333(%rip),%ymm13        # 3e2c <_sk_callback_hsw+0x211>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,117,36,0,0         // vbroadcastss  0x2475(%rip),%ymm11        # 4094 <_sk_callback_hsw+0x14a>
+  .byte  196,98,125,24,29,41,35,0,0          // vbroadcastss  0x2329(%rip),%ymm11        # 3e30 <_sk_callback_hsw+0x215>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,107,36,0,0         // vbroadcastss  0x246b(%rip),%ymm12        # 4098 <_sk_callback_hsw+0x14e>
+  .byte  196,98,125,24,37,31,35,0,0          // vbroadcastss  0x231f(%rip),%ymm12        # 3e34 <_sk_callback_hsw+0x219>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,97,36,0,0          // vbroadcastss  0x2461(%rip),%ymm12        # 409c <_sk_callback_hsw+0x152>
+  .byte  196,98,125,24,37,21,35,0,0          // vbroadcastss  0x2315(%rip),%ymm12        # 3e38 <_sk_callback_hsw+0x21d>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  196,99,125,8,208,1                  // vroundps      $0x1,%ymm0,%ymm10
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,66,36,0,0          // vbroadcastss  0x2442(%rip),%ymm11        # 40a0 <_sk_callback_hsw+0x156>
+  .byte  196,98,125,24,29,246,34,0,0         // vbroadcastss  0x22f6(%rip),%ymm11        # 3e3c <_sk_callback_hsw+0x221>
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,56,36,0,0          // vbroadcastss  0x2438(%rip),%ymm11        # 40a4 <_sk_callback_hsw+0x15a>
+  .byte  196,98,125,24,29,236,34,0,0         // vbroadcastss  0x22ec(%rip),%ymm11        # 3e40 <_sk_callback_hsw+0x225>
   .byte  196,98,45,172,216                   // vfnmadd213ps  %ymm0,%ymm10,%ymm11
-  .byte  196,226,125,24,5,46,36,0,0          // vbroadcastss  0x242e(%rip),%ymm0        # 40a8 <_sk_callback_hsw+0x15e>
+  .byte  196,226,125,24,5,226,34,0,0         // vbroadcastss  0x22e2(%rip),%ymm0        # 3e44 <_sk_callback_hsw+0x229>
   .byte  196,193,124,92,194                  // vsubps        %ymm10,%ymm0,%ymm0
-  .byte  196,98,125,24,21,36,36,0,0          // vbroadcastss  0x2424(%rip),%ymm10        # 40ac <_sk_callback_hsw+0x162>
+  .byte  196,98,125,24,21,216,34,0,0         // vbroadcastss  0x22d8(%rip),%ymm10        # 3e48 <_sk_callback_hsw+0x22d>
   .byte  197,172,94,192                      // vdivps        %ymm0,%ymm10,%ymm0
   .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,21,23,36,0,0          // vbroadcastss  0x2417(%rip),%ymm10        # 40b0 <_sk_callback_hsw+0x166>
+  .byte  196,98,125,24,21,203,34,0,0         // vbroadcastss  0x22cb(%rip),%ymm10        # 3e4c <_sk_callback_hsw+0x231>
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
   .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,124,95,192                   // vmaxps        %ymm8,%ymm0,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
-  .byte  197,188,93,192                      // vminps        %ymm0,%ymm8,%ymm0
+  .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
+  .byte  196,98,125,24,5,162,34,0,0          // vbroadcastss  0x22a2(%rip),%ymm8        # 3e50 <_sk_callback_hsw+0x235>
+  .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -9248,44 +9138,42 @@
   .byte  196,66,117,168,211                  // vfmadd213ps   %ymm11,%ymm1,%ymm10
   .byte  196,226,125,24,8                    // vbroadcastss  (%rax),%ymm1
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,158,35,0,0         // vbroadcastss  0x239e(%rip),%ymm12        # 40b4 <_sk_callback_hsw+0x16a>
-  .byte  196,98,125,24,45,153,35,0,0         // vbroadcastss  0x2399(%rip),%ymm13        # 40b8 <_sk_callback_hsw+0x16e>
+  .byte  196,98,125,24,37,90,34,0,0          // vbroadcastss  0x225a(%rip),%ymm12        # 3e54 <_sk_callback_hsw+0x239>
+  .byte  196,98,125,24,45,85,34,0,0          // vbroadcastss  0x2255(%rip),%ymm13        # 3e58 <_sk_callback_hsw+0x23d>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,143,35,0,0         // vbroadcastss  0x238f(%rip),%ymm13        # 40bc <_sk_callback_hsw+0x172>
+  .byte  196,98,125,24,45,75,34,0,0          // vbroadcastss  0x224b(%rip),%ymm13        # 3e5c <_sk_callback_hsw+0x241>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,133,35,0,0         // vbroadcastss  0x2385(%rip),%ymm13        # 40c0 <_sk_callback_hsw+0x176>
+  .byte  196,98,125,24,45,65,34,0,0          // vbroadcastss  0x2241(%rip),%ymm13        # 3e60 <_sk_callback_hsw+0x245>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,123,35,0,0         // vbroadcastss  0x237b(%rip),%ymm11        # 40c4 <_sk_callback_hsw+0x17a>
+  .byte  196,98,125,24,29,55,34,0,0          // vbroadcastss  0x2237(%rip),%ymm11        # 3e64 <_sk_callback_hsw+0x249>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,113,35,0,0         // vbroadcastss  0x2371(%rip),%ymm12        # 40c8 <_sk_callback_hsw+0x17e>
+  .byte  196,98,125,24,37,45,34,0,0          // vbroadcastss  0x222d(%rip),%ymm12        # 3e68 <_sk_callback_hsw+0x24d>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,103,35,0,0         // vbroadcastss  0x2367(%rip),%ymm12        # 40cc <_sk_callback_hsw+0x182>
+  .byte  196,98,125,24,37,35,34,0,0          // vbroadcastss  0x2223(%rip),%ymm12        # 3e6c <_sk_callback_hsw+0x251>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  196,99,125,8,209,1                  // vroundps      $0x1,%ymm1,%ymm10
   .byte  196,65,116,92,210                   // vsubps        %ymm10,%ymm1,%ymm10
-  .byte  196,98,125,24,29,72,35,0,0          // vbroadcastss  0x2348(%rip),%ymm11        # 40d0 <_sk_callback_hsw+0x186>
+  .byte  196,98,125,24,29,4,34,0,0           // vbroadcastss  0x2204(%rip),%ymm11        # 3e70 <_sk_callback_hsw+0x255>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,62,35,0,0          // vbroadcastss  0x233e(%rip),%ymm11        # 40d4 <_sk_callback_hsw+0x18a>
+  .byte  196,98,125,24,29,250,33,0,0         // vbroadcastss  0x21fa(%rip),%ymm11        # 3e74 <_sk_callback_hsw+0x259>
   .byte  196,98,45,172,217                   // vfnmadd213ps  %ymm1,%ymm10,%ymm11
-  .byte  196,226,125,24,13,52,35,0,0         // vbroadcastss  0x2334(%rip),%ymm1        # 40d8 <_sk_callback_hsw+0x18e>
+  .byte  196,226,125,24,13,240,33,0,0        // vbroadcastss  0x21f0(%rip),%ymm1        # 3e78 <_sk_callback_hsw+0x25d>
   .byte  196,193,116,92,202                  // vsubps        %ymm10,%ymm1,%ymm1
-  .byte  196,98,125,24,21,42,35,0,0          // vbroadcastss  0x232a(%rip),%ymm10        # 40dc <_sk_callback_hsw+0x192>
+  .byte  196,98,125,24,21,230,33,0,0         // vbroadcastss  0x21e6(%rip),%ymm10        # 3e7c <_sk_callback_hsw+0x261>
   .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
   .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
-  .byte  196,98,125,24,21,29,35,0,0          // vbroadcastss  0x231d(%rip),%ymm10        # 40e0 <_sk_callback_hsw+0x196>
+  .byte  196,98,125,24,21,217,33,0,0         // vbroadcastss  0x21d9(%rip),%ymm10        # 3e80 <_sk_callback_hsw+0x265>
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
   .byte  196,195,117,74,201,128              // vblendvps     %ymm8,%ymm9,%ymm1,%ymm1
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,116,95,192                   // vmaxps        %ymm8,%ymm1,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
-  .byte  197,188,93,201                      // vminps        %ymm1,%ymm8,%ymm1
+  .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
+  .byte  196,98,125,24,5,176,33,0,0          // vbroadcastss  0x21b0(%rip),%ymm8        # 3e84 <_sk_callback_hsw+0x269>
+  .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -9304,44 +9192,42 @@
   .byte  196,66,109,168,211                  // vfmadd213ps   %ymm11,%ymm2,%ymm10
   .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,164,34,0,0         // vbroadcastss  0x22a4(%rip),%ymm12        # 40e4 <_sk_callback_hsw+0x19a>
-  .byte  196,98,125,24,45,159,34,0,0         // vbroadcastss  0x229f(%rip),%ymm13        # 40e8 <_sk_callback_hsw+0x19e>
+  .byte  196,98,125,24,37,104,33,0,0         // vbroadcastss  0x2168(%rip),%ymm12        # 3e88 <_sk_callback_hsw+0x26d>
+  .byte  196,98,125,24,45,99,33,0,0          // vbroadcastss  0x2163(%rip),%ymm13        # 3e8c <_sk_callback_hsw+0x271>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,149,34,0,0         // vbroadcastss  0x2295(%rip),%ymm13        # 40ec <_sk_callback_hsw+0x1a2>
+  .byte  196,98,125,24,45,89,33,0,0          // vbroadcastss  0x2159(%rip),%ymm13        # 3e90 <_sk_callback_hsw+0x275>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,139,34,0,0         // vbroadcastss  0x228b(%rip),%ymm13        # 40f0 <_sk_callback_hsw+0x1a6>
+  .byte  196,98,125,24,45,79,33,0,0          // vbroadcastss  0x214f(%rip),%ymm13        # 3e94 <_sk_callback_hsw+0x279>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,129,34,0,0         // vbroadcastss  0x2281(%rip),%ymm11        # 40f4 <_sk_callback_hsw+0x1aa>
+  .byte  196,98,125,24,29,69,33,0,0          // vbroadcastss  0x2145(%rip),%ymm11        # 3e98 <_sk_callback_hsw+0x27d>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,119,34,0,0         // vbroadcastss  0x2277(%rip),%ymm12        # 40f8 <_sk_callback_hsw+0x1ae>
+  .byte  196,98,125,24,37,59,33,0,0          // vbroadcastss  0x213b(%rip),%ymm12        # 3e9c <_sk_callback_hsw+0x281>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,109,34,0,0         // vbroadcastss  0x226d(%rip),%ymm12        # 40fc <_sk_callback_hsw+0x1b2>
+  .byte  196,98,125,24,37,49,33,0,0          // vbroadcastss  0x2131(%rip),%ymm12        # 3ea0 <_sk_callback_hsw+0x285>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  196,99,125,8,210,1                  // vroundps      $0x1,%ymm2,%ymm10
   .byte  196,65,108,92,210                   // vsubps        %ymm10,%ymm2,%ymm10
-  .byte  196,98,125,24,29,78,34,0,0          // vbroadcastss  0x224e(%rip),%ymm11        # 4100 <_sk_callback_hsw+0x1b6>
+  .byte  196,98,125,24,29,18,33,0,0          // vbroadcastss  0x2112(%rip),%ymm11        # 3ea4 <_sk_callback_hsw+0x289>
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,68,34,0,0          // vbroadcastss  0x2244(%rip),%ymm11        # 4104 <_sk_callback_hsw+0x1ba>
+  .byte  196,98,125,24,29,8,33,0,0           // vbroadcastss  0x2108(%rip),%ymm11        # 3ea8 <_sk_callback_hsw+0x28d>
   .byte  196,98,45,172,218                   // vfnmadd213ps  %ymm2,%ymm10,%ymm11
-  .byte  196,226,125,24,21,58,34,0,0         // vbroadcastss  0x223a(%rip),%ymm2        # 4108 <_sk_callback_hsw+0x1be>
+  .byte  196,226,125,24,21,254,32,0,0        // vbroadcastss  0x20fe(%rip),%ymm2        # 3eac <_sk_callback_hsw+0x291>
   .byte  196,193,108,92,210                  // vsubps        %ymm10,%ymm2,%ymm2
-  .byte  196,98,125,24,21,48,34,0,0          // vbroadcastss  0x2230(%rip),%ymm10        # 410c <_sk_callback_hsw+0x1c2>
+  .byte  196,98,125,24,21,244,32,0,0         // vbroadcastss  0x20f4(%rip),%ymm10        # 3eb0 <_sk_callback_hsw+0x295>
   .byte  197,172,94,210                      // vdivps        %ymm2,%ymm10,%ymm2
   .byte  197,164,88,210                      // vaddps        %ymm2,%ymm11,%ymm2
-  .byte  196,98,125,24,21,35,34,0,0          // vbroadcastss  0x2223(%rip),%ymm10        # 4110 <_sk_callback_hsw+0x1c6>
+  .byte  196,98,125,24,21,231,32,0,0         // vbroadcastss  0x20e7(%rip),%ymm10        # 3eb4 <_sk_callback_hsw+0x299>
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
   .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,108,95,192                   // vmaxps        %ymm8,%ymm2,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  197,188,93,210                      // vminps        %ymm2,%ymm8,%ymm2
+  .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,24,5,190,32,0,0          // vbroadcastss  0x20be(%rip),%ymm8        # 3eb8 <_sk_callback_hsw+0x29d>
+  .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -9360,44 +9246,42 @@
   .byte  196,66,101,168,211                  // vfmadd213ps   %ymm11,%ymm3,%ymm10
   .byte  196,226,125,24,24                   // vbroadcastss  (%rax),%ymm3
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,170,33,0,0         // vbroadcastss  0x21aa(%rip),%ymm12        # 4114 <_sk_callback_hsw+0x1ca>
-  .byte  196,98,125,24,45,165,33,0,0         // vbroadcastss  0x21a5(%rip),%ymm13        # 4118 <_sk_callback_hsw+0x1ce>
+  .byte  196,98,125,24,37,118,32,0,0         // vbroadcastss  0x2076(%rip),%ymm12        # 3ebc <_sk_callback_hsw+0x2a1>
+  .byte  196,98,125,24,45,113,32,0,0         // vbroadcastss  0x2071(%rip),%ymm13        # 3ec0 <_sk_callback_hsw+0x2a5>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,155,33,0,0         // vbroadcastss  0x219b(%rip),%ymm13        # 411c <_sk_callback_hsw+0x1d2>
+  .byte  196,98,125,24,45,103,32,0,0         // vbroadcastss  0x2067(%rip),%ymm13        # 3ec4 <_sk_callback_hsw+0x2a9>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,145,33,0,0         // vbroadcastss  0x2191(%rip),%ymm13        # 4120 <_sk_callback_hsw+0x1d6>
+  .byte  196,98,125,24,45,93,32,0,0          // vbroadcastss  0x205d(%rip),%ymm13        # 3ec8 <_sk_callback_hsw+0x2ad>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,135,33,0,0         // vbroadcastss  0x2187(%rip),%ymm11        # 4124 <_sk_callback_hsw+0x1da>
+  .byte  196,98,125,24,29,83,32,0,0          // vbroadcastss  0x2053(%rip),%ymm11        # 3ecc <_sk_callback_hsw+0x2b1>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,125,33,0,0         // vbroadcastss  0x217d(%rip),%ymm12        # 4128 <_sk_callback_hsw+0x1de>
+  .byte  196,98,125,24,37,73,32,0,0          // vbroadcastss  0x2049(%rip),%ymm12        # 3ed0 <_sk_callback_hsw+0x2b5>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,115,33,0,0         // vbroadcastss  0x2173(%rip),%ymm12        # 412c <_sk_callback_hsw+0x1e2>
+  .byte  196,98,125,24,37,63,32,0,0          // vbroadcastss  0x203f(%rip),%ymm12        # 3ed4 <_sk_callback_hsw+0x2b9>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  196,99,125,8,211,1                  // vroundps      $0x1,%ymm3,%ymm10
   .byte  196,65,100,92,210                   // vsubps        %ymm10,%ymm3,%ymm10
-  .byte  196,98,125,24,29,84,33,0,0          // vbroadcastss  0x2154(%rip),%ymm11        # 4130 <_sk_callback_hsw+0x1e6>
+  .byte  196,98,125,24,29,32,32,0,0          // vbroadcastss  0x2020(%rip),%ymm11        # 3ed8 <_sk_callback_hsw+0x2bd>
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,74,33,0,0          // vbroadcastss  0x214a(%rip),%ymm11        # 4134 <_sk_callback_hsw+0x1ea>
+  .byte  196,98,125,24,29,22,32,0,0          // vbroadcastss  0x2016(%rip),%ymm11        # 3edc <_sk_callback_hsw+0x2c1>
   .byte  196,98,45,172,219                   // vfnmadd213ps  %ymm3,%ymm10,%ymm11
-  .byte  196,226,125,24,29,64,33,0,0         // vbroadcastss  0x2140(%rip),%ymm3        # 4138 <_sk_callback_hsw+0x1ee>
+  .byte  196,226,125,24,29,12,32,0,0         // vbroadcastss  0x200c(%rip),%ymm3        # 3ee0 <_sk_callback_hsw+0x2c5>
   .byte  196,193,100,92,218                  // vsubps        %ymm10,%ymm3,%ymm3
-  .byte  196,98,125,24,21,54,33,0,0          // vbroadcastss  0x2136(%rip),%ymm10        # 413c <_sk_callback_hsw+0x1f2>
+  .byte  196,98,125,24,21,2,32,0,0           // vbroadcastss  0x2002(%rip),%ymm10        # 3ee4 <_sk_callback_hsw+0x2c9>
   .byte  197,172,94,219                      // vdivps        %ymm3,%ymm10,%ymm3
   .byte  197,164,88,219                      // vaddps        %ymm3,%ymm11,%ymm3
-  .byte  196,98,125,24,21,41,33,0,0          // vbroadcastss  0x2129(%rip),%ymm10        # 4140 <_sk_callback_hsw+0x1f6>
+  .byte  196,98,125,24,21,245,31,0,0         // vbroadcastss  0x1ff5(%rip),%ymm10        # 3ee8 <_sk_callback_hsw+0x2cd>
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,100,88,218                  // vaddps        %ymm10,%ymm3,%ymm3
   .byte  196,195,101,74,217,128              // vblendvps     %ymm8,%ymm9,%ymm3,%ymm3
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,100,95,192                   // vmaxps        %ymm8,%ymm3,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,188,93,219                      // vminps        %ymm3,%ymm8,%ymm3
+  .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
+  .byte  196,98,125,24,5,204,31,0,0          // vbroadcastss  0x1fcc(%rip),%ymm8        # 3eec <_sk_callback_hsw+0x2d1>
+  .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -9405,68 +9289,44 @@
 .globl _sk_lab_to_xyz_hsw
 FUNCTION(_sk_lab_to_xyz_hsw)
 _sk_lab_to_xyz_hsw:
-  .byte  184,0,0,200,66                      // mov           $0x42c80000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  184,0,0,0,67                        // mov           $0x43000000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,194,53,170,202                  // vfmsub213ps   %ymm10,%ymm9,%ymm1
-  .byte  196,194,53,170,210                  // vfmsub213ps   %ymm10,%ymm9,%ymm2
-  .byte  184,0,0,128,65                      // mov           $0x41800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  196,66,125,168,193                  // vfmadd213ps   %ymm9,%ymm0,%ymm8
-  .byte  184,203,61,13,60                    // mov           $0x3c0d3dcb,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
-  .byte  197,60,89,192                       // vmulps        %ymm0,%ymm8,%ymm8
-  .byte  184,111,18,3,59                     // mov           $0x3b03126f,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
-  .byte  196,194,117,168,192                 // vfmadd213ps   %ymm8,%ymm1,%ymm0
-  .byte  184,10,215,163,59                   // mov           $0x3ba3d70a,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,201                   // vpbroadcastd  %xmm1,%ymm9
-  .byte  196,66,109,172,200                  // vfnmadd213ps  %ymm8,%ymm2,%ymm9
-  .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
-  .byte  197,124,89,217                      // vmulps        %ymm1,%ymm0,%ymm11
-  .byte  184,194,24,17,60                    // mov           $0x3c1118c2,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  196,65,108,194,211,1                // vcmpltps      %ymm11,%ymm2,%ymm10
-  .byte  184,203,61,13,62                    // mov           $0x3e0d3dcb,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,225                   // vpbroadcastd  %xmm1,%ymm12
-  .byte  196,193,124,92,196                  // vsubps        %ymm12,%ymm0,%ymm0
-  .byte  184,80,128,3,62                     // mov           $0x3e038050,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,233                   // vpbroadcastd  %xmm1,%ymm13
-  .byte  196,193,124,89,197                  // vmulps        %ymm13,%ymm0,%ymm0
-  .byte  196,67,125,74,219,160               // vblendvps     %ymm10,%ymm11,%ymm0,%ymm11
+  .byte  196,98,125,24,5,190,31,0,0          // vbroadcastss  0x1fbe(%rip),%ymm8        # 3ef0 <_sk_callback_hsw+0x2d5>
+  .byte  196,98,125,24,13,185,31,0,0         // vbroadcastss  0x1fb9(%rip),%ymm9        # 3ef4 <_sk_callback_hsw+0x2d9>
+  .byte  196,98,125,24,21,180,31,0,0         // vbroadcastss  0x1fb4(%rip),%ymm10        # 3ef8 <_sk_callback_hsw+0x2dd>
+  .byte  196,194,53,168,202                  // vfmadd213ps   %ymm10,%ymm9,%ymm1
+  .byte  196,194,53,168,210                  // vfmadd213ps   %ymm10,%ymm9,%ymm2
+  .byte  196,98,125,24,13,165,31,0,0         // vbroadcastss  0x1fa5(%rip),%ymm9        # 3efc <_sk_callback_hsw+0x2e1>
+  .byte  196,66,125,184,200                  // vfmadd231ps   %ymm8,%ymm0,%ymm9
+  .byte  196,226,125,24,5,155,31,0,0         // vbroadcastss  0x1f9b(%rip),%ymm0        # 3f00 <_sk_callback_hsw+0x2e5>
+  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
+  .byte  196,98,125,24,5,146,31,0,0          // vbroadcastss  0x1f92(%rip),%ymm8        # 3f04 <_sk_callback_hsw+0x2e9>
+  .byte  196,98,117,168,192                  // vfmadd213ps   %ymm0,%ymm1,%ymm8
+  .byte  196,98,125,24,13,136,31,0,0         // vbroadcastss  0x1f88(%rip),%ymm9        # 3f08 <_sk_callback_hsw+0x2ed>
+  .byte  196,98,109,172,200                  // vfnmadd213ps  %ymm0,%ymm2,%ymm9
   .byte  196,193,60,89,200                   // vmulps        %ymm8,%ymm8,%ymm1
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  196,226,125,24,21,117,31,0,0        // vbroadcastss  0x1f75(%rip),%ymm2        # 3f0c <_sk_callback_hsw+0x2f1>
   .byte  197,108,194,209,1                   // vcmpltps      %ymm1,%ymm2,%ymm10
-  .byte  196,65,60,92,196                    // vsubps        %ymm12,%ymm8,%ymm8
-  .byte  196,65,60,89,197                    // vmulps        %ymm13,%ymm8,%ymm8
-  .byte  196,227,61,74,201,160               // vblendvps     %ymm10,%ymm1,%ymm8,%ymm1
-  .byte  196,65,52,89,193                    // vmulps        %ymm9,%ymm9,%ymm8
-  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
-  .byte  196,193,108,194,208,1               // vcmpltps      %ymm8,%ymm2,%ymm2
-  .byte  196,65,52,92,204                    // vsubps        %ymm12,%ymm9,%ymm9
-  .byte  196,65,52,89,205                    // vmulps        %ymm13,%ymm9,%ymm9
-  .byte  196,67,53,74,192,32                 // vblendvps     %ymm2,%ymm8,%ymm9,%ymm8
-  .byte  184,31,215,118,63                   // mov           $0x3f76d71f,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
-  .byte  197,164,89,192                      // vmulps        %ymm0,%ymm11,%ymm0
-  .byte  184,246,64,83,63                    // mov           $0x3f5340f6,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,29,107,31,0,0         // vbroadcastss  0x1f6b(%rip),%ymm11        # 3f10 <_sk_callback_hsw+0x2f5>
+  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,37,97,31,0,0          // vbroadcastss  0x1f61(%rip),%ymm12        # 3f14 <_sk_callback_hsw+0x2f9>
+  .byte  196,65,60,89,196                    // vmulps        %ymm12,%ymm8,%ymm8
+  .byte  196,99,61,74,193,160                // vblendvps     %ymm10,%ymm1,%ymm8,%ymm8
+  .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
+  .byte  197,252,89,201                      // vmulps        %ymm1,%ymm0,%ymm1
+  .byte  197,108,194,209,1                   // vcmpltps      %ymm1,%ymm2,%ymm10
+  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  196,193,124,89,196                  // vmulps        %ymm12,%ymm0,%ymm0
+  .byte  196,227,125,74,201,160              // vblendvps     %ymm10,%ymm1,%ymm0,%ymm1
+  .byte  196,193,52,89,193                   // vmulps        %ymm9,%ymm9,%ymm0
+  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
+  .byte  197,236,194,208,1                   // vcmpltps      %ymm0,%ymm2,%ymm2
+  .byte  196,65,52,88,203                    // vaddps        %ymm11,%ymm9,%ymm9
+  .byte  196,65,52,89,204                    // vmulps        %ymm12,%ymm9,%ymm9
+  .byte  196,227,53,74,208,32                // vblendvps     %ymm2,%ymm0,%ymm9,%ymm2
+  .byte  196,226,125,24,5,22,31,0,0          // vbroadcastss  0x1f16(%rip),%ymm0        # 3f18 <_sk_callback_hsw+0x2fd>
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,98,125,24,5,13,31,0,0           // vbroadcastss  0x1f0d(%rip),%ymm8        # 3f1c <_sk_callback_hsw+0x301>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -9479,13 +9339,11 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,50                              // jne           21c0 <_sk_load_a8_hsw+0x42>
+  .byte  117,45                              // jne           2055 <_sk_load_a8_hsw+0x3d>
   .byte  197,250,126,0                       // vmovq         (%rax),%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,226,30,0,0        // vbroadcastss  0x1ee2(%rip),%ymm1        # 3f20 <_sk_callback_hsw+0x305>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -9502,9 +9360,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           21c8 <_sk_load_a8_hsw+0x4a>
+  .byte  117,234                             // jne           205d <_sk_load_a8_hsw+0x45>
   .byte  196,193,249,110,193                 // vmovq         %r9,%xmm0
-  .byte  235,173                             // jmp           2192 <_sk_load_a8_hsw+0x14>
+  .byte  235,178                             // jmp           202c <_sk_load_a8_hsw+0x14>
 
 HIDDEN _sk_gather_a8_hsw
 .globl _sk_gather_a8_hsw
@@ -9550,9 +9408,7 @@
   .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,237,29,0,0        // vbroadcastss  0x1ded(%rip),%ymm1        # 3f24 <_sk_callback_hsw+0x309>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -9569,39 +9425,37 @@
 FUNCTION(_sk_store_a8_hsw)
 _sk_store_a8_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,200,29,0,0          // vbroadcastss  0x1dc8(%rip),%ymm8        # 3f28 <_sk_callback_hsw+0x30d>
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  196,65,57,103,192                   // vpackuswb     %xmm8,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           22fd <_sk_store_a8_hsw+0x3b>
-  .byte  196,65,123,17,4,57                  // vmovsd        %xmm8,(%r9,%rdi,1)
+  .byte  117,10                              // jne           2189 <_sk_store_a8_hsw+0x37>
+  .byte  196,65,123,17,4,58                  // vmovsd        %xmm8,(%r10,%rdi,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            22f9 <_sk_store_a8_hsw+0x37>
+  .byte  119,236                             // ja            2185 <_sk_store_a8_hsw+0x33>
   .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,67,0,0,0                   // lea           0x43(%rip),%r8        # 2360 <_sk_store_a8_hsw+0x9e>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,67,0,0,0                  // lea           0x43(%rip),%r9        # 21ec <_sk_store_a8_hsw+0x9a>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,20,68,57,6,12            // vpextrb       $0xc,%xmm8,0x6(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,5,10            // vpextrb       $0xa,%xmm8,0x5(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,4,8             // vpextrb       $0x8,%xmm8,0x4(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,3,6             // vpextrb       $0x6,%xmm8,0x3(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,2,4             // vpextrb       $0x4,%xmm8,0x2(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,1,2             // vpextrb       $0x2,%xmm8,0x1(%r9,%rdi,1)
-  .byte  196,67,121,20,4,57,0                // vpextrb       $0x0,%xmm8,(%r9,%rdi,1)
-  .byte  235,154                             // jmp           22f9 <_sk_store_a8_hsw+0x37>
+  .byte  196,67,121,20,68,58,6,12            // vpextrb       $0xc,%xmm8,0x6(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,5,10            // vpextrb       $0xa,%xmm8,0x5(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,4,8             // vpextrb       $0x8,%xmm8,0x4(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,3,6             // vpextrb       $0x6,%xmm8,0x3(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,2,4             // vpextrb       $0x4,%xmm8,0x2(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,1,2             // vpextrb       $0x2,%xmm8,0x1(%r10,%rdi,1)
+  .byte  196,67,121,20,4,58,0                // vpextrb       $0x0,%xmm8,(%r10,%rdi,1)
+  .byte  235,154                             // jmp           2185 <_sk_store_a8_hsw+0x33>
   .byte  144                                 // nop
   .byte  246,255                             // idiv          %bh
   .byte  255                                 // (bad)
@@ -9635,18 +9489,14 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,60                              // jne           23c8 <_sk_load_g8_hsw+0x4c>
+  .byte  117,50                              // jne           224a <_sk_load_g8_hsw+0x42>
   .byte  197,250,126,0                       // vmovq         (%rax),%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,254,28,0,0        // vbroadcastss  0x1cfe(%rip),%ymm1        # 3f2c <_sk_callback_hsw+0x311>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,217                  // vpbroadcastd  %xmm1,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,243,28,0,0        // vbroadcastss  0x1cf3(%rip),%ymm3        # 3f30 <_sk_callback_hsw+0x315>
   .byte  76,137,193                          // mov           %r8,%rcx
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
@@ -9660,9 +9510,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           23d0 <_sk_load_g8_hsw+0x54>
+  .byte  117,234                             // jne           2252 <_sk_load_g8_hsw+0x4a>
   .byte  196,193,249,110,193                 // vmovq         %r9,%xmm0
-  .byte  235,163                             // jmp           2390 <_sk_load_g8_hsw+0x14>
+  .byte  235,173                             // jmp           221c <_sk_load_g8_hsw+0x14>
 
 HIDDEN _sk_gather_g8_hsw
 .globl _sk_gather_g8_hsw
@@ -9708,14 +9558,10 @@
   .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,8,28,0,0          // vbroadcastss  0x1c08(%rip),%ymm1        # 3f34 <_sk_callback_hsw+0x319>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,217                  // vpbroadcastd  %xmm1,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,253,27,0,0        // vbroadcastss  0x1bfd(%rip),%ymm3        # 3f38 <_sk_callback_hsw+0x31d>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  91                                  // pop           %rbx
@@ -9731,9 +9577,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  73,137,192                          // mov           %rax,%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  116,5                               // je            24e3 <_sk_gather_i8_hsw+0xf>
+  .byte  116,5                               // je            235b <_sk_gather_i8_hsw+0xf>
   .byte  76,137,192                          // mov           %r8,%rax
-  .byte  235,2                               // jmp           24e5 <_sk_gather_i8_hsw+0x11>
+  .byte  235,2                               // jmp           235d <_sk_gather_i8_hsw+0x11>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,87                               // push          %r15
   .byte  65,86                               // push          %r14
@@ -9771,16 +9617,14 @@
   .byte  73,139,64,8                         // mov           0x8(%r8),%rax
   .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
   .byte  196,226,117,144,28,128              // vpgatherdd    %ymm1,(%rax,%ymm0,4),%ymm3
-  .byte  197,229,219,5,77,28,0,0             // vpand         0x1c4d(%rip),%ymm3,%ymm0        # 41e0 <_sk_callback_hsw+0x296>
+  .byte  197,229,219,5,245,28,0,0            // vpand         0x1cf5(%rip),%ymm3,%ymm0        # 4100 <_sk_callback_hsw+0x4e5>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,193                   // vpbroadcastd  %xmm1,%ymm8
+  .byte  196,98,125,24,5,36,27,0,0           // vbroadcastss  0x1b24(%rip),%ymm8        # 3f3c <_sk_callback_hsw+0x321>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,226,101,0,13,77,28,0,0          // vpshufb       0x1c4d(%rip),%ymm3,%ymm1        # 4200 <_sk_callback_hsw+0x2b6>
+  .byte  196,226,101,0,13,250,28,0,0         // vpshufb       0x1cfa(%rip),%ymm3,%ymm1        # 4120 <_sk_callback_hsw+0x505>
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,226,101,0,21,91,28,0,0          // vpshufb       0x1c5b(%rip),%ymm3,%ymm2        # 4220 <_sk_callback_hsw+0x2d6>
+  .byte  196,226,101,0,21,8,29,0,0           // vpshufb       0x1d08(%rip),%ymm3,%ymm2        # 4140 <_sk_callback_hsw+0x525>
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
@@ -9801,43 +9645,35 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,134,0,0,0                    // jne           267d <_sk_load_565_hsw+0x94>
+  .byte  117,114                             // jne           24d8 <_sk_load_565_hsw+0x7c>
   .byte  196,193,122,111,4,122               // vmovdqu       (%r10,%rdi,2),%xmm0
   .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
-  .byte  196,226,125,88,5,57,27,0,0          // vpbroadcastd  0x1b39(%rip),%ymm0        # 4144 <_sk_callback_hsw+0x1fa>
+  .byte  196,226,125,88,5,198,26,0,0         // vpbroadcastd  0x1ac6(%rip),%ymm0        # 3f40 <_sk_callback_hsw+0x325>
   .byte  197,237,219,192                     // vpand         %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,185,26,0,0        // vbroadcastss  0x1ab9(%rip),%ymm1        # 3f44 <_sk_callback_hsw+0x329>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,26,27,0,0         // vpbroadcastd  0x1b1a(%rip),%ymm1        # 4148 <_sk_callback_hsw+0x1fe>
+  .byte  196,226,125,88,13,176,26,0,0        // vpbroadcastd  0x1ab0(%rip),%ymm1        # 3f48 <_sk_callback_hsw+0x32d>
   .byte  197,237,219,201                     // vpand         %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
+  .byte  196,226,125,24,29,163,26,0,0        // vbroadcastss  0x1aa3(%rip),%ymm3        # 3f4c <_sk_callback_hsw+0x331>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,88,29,251,26,0,0        // vpbroadcastd  0x1afb(%rip),%ymm3        # 414c <_sk_callback_hsw+0x202>
+  .byte  196,226,125,88,29,154,26,0,0        // vpbroadcastd  0x1a9a(%rip),%ymm3        # 3f50 <_sk_callback_hsw+0x335>
   .byte  197,237,219,211                     // vpand         %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
+  .byte  196,226,125,24,29,141,26,0,0        // vbroadcastss  0x1a8d(%rip),%ymm3        # 3f54 <_sk_callback_hsw+0x339>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,130,26,0,0        // vbroadcastss  0x1a82(%rip),%ymm3        # 3f58 <_sk_callback_hsw+0x33d>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,104,255,255,255              // ja            25fd <_sk_load_565_hsw+0x14>
+  .byte  119,128                             // ja            246c <_sk_load_565_hsw+0x10>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,76,0,0,0                  // lea           0x4c(%rip),%r9        # 26ec <_sk_load_565_hsw+0x103>
+  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 2540 <_sk_load_565_hsw+0xe4>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -9849,26 +9685,27 @@
   .byte  196,193,121,196,68,122,4,2          // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,68,122,2,1          // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,4,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  233,20,255,255,255                  // jmpq          25fd <_sk_load_565_hsw+0x14>
-  .byte  15,31,0                             // nopl          (%rax)
-  .byte  241                                 // icebp
+  .byte  233,44,255,255,255                  // jmpq          246c <_sk_load_565_hsw+0x10>
+  .byte  244                                 // hlt
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,225                 // jmpq          ffffffffe20026f4 <_sk_callback_hsw+0xffffffffe1ffe7aa>
+  .byte  236                                 // in            (%dx),%al
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,228                             // jmpq          *%rsp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  217,255                             // fcos
+  .byte  220,255                             // fdivr         %st,%st(7)
   .byte  255                                 // (bad)
-  .byte  255,209                             // callq         *%rcx
+  .byte  255,212                             // callq         *%rsp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,201                             // dec           %ecx
+  .byte  255,204                             // dec           %esp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  189                                 // .byte         0xbd
+  .byte  255,192                             // inc           %eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -9918,31 +9755,23 @@
   .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
   .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
-  .byte  196,226,125,88,5,141,25,0,0         // vpbroadcastd  0x198d(%rip),%ymm0        # 4150 <_sk_callback_hsw+0x206>
+  .byte  196,226,125,88,5,69,25,0,0          // vpbroadcastd  0x1945(%rip),%ymm0        # 3f5c <_sk_callback_hsw+0x341>
   .byte  197,237,219,192                     // vpand         %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,56,25,0,0         // vbroadcastss  0x1938(%rip),%ymm1        # 3f60 <_sk_callback_hsw+0x345>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,110,25,0,0        // vpbroadcastd  0x196e(%rip),%ymm1        # 4154 <_sk_callback_hsw+0x20a>
+  .byte  196,226,125,88,13,47,25,0,0         // vpbroadcastd  0x192f(%rip),%ymm1        # 3f64 <_sk_callback_hsw+0x349>
   .byte  197,237,219,201                     // vpand         %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
+  .byte  196,226,125,24,29,34,25,0,0         // vbroadcastss  0x1922(%rip),%ymm3        # 3f68 <_sk_callback_hsw+0x34d>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,88,29,79,25,0,0         // vpbroadcastd  0x194f(%rip),%ymm3        # 4158 <_sk_callback_hsw+0x20e>
+  .byte  196,226,125,88,29,25,25,0,0         // vpbroadcastd  0x1919(%rip),%ymm3        # 3f6c <_sk_callback_hsw+0x351>
   .byte  197,237,219,211                     // vpand         %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
+  .byte  196,226,125,24,29,12,25,0,0         // vbroadcastss  0x190c(%rip),%ymm3        # 3f70 <_sk_callback_hsw+0x355>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,1,25,0,0          // vbroadcastss  0x1901(%rip),%ymm3        # 3f74 <_sk_callback_hsw+0x359>
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
   .byte  65,94                               // pop           %r14
@@ -9954,49 +9783,121 @@
 FUNCTION(_sk_store_565_hsw)
 _sk_store_565_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,248,65                      // mov           $0x41f80000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,238,24,0,0          // vbroadcastss  0x18ee(%rip),%ymm8        # 3f78 <_sk_callback_hsw+0x35d>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,53,114,241,11               // vpslld        $0xb,%ymm9,%ymm9
-  .byte  184,0,0,124,66                      // mov           $0x427c0000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  197,44,89,209                       // vmulps        %ymm1,%ymm10,%ymm10
+  .byte  196,98,125,24,21,217,24,0,0         // vbroadcastss  0x18d9(%rip),%ymm10        # 3f7c <_sk_callback_hsw+0x361>
+  .byte  196,65,116,89,210                   // vmulps        %ymm10,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,5                // vpslld        $0x5,%ymm10,%ymm10
   .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           28a8 <_sk_store_565_hsw+0x6c>
-  .byte  196,65,122,127,4,121                // vmovdqu       %xmm8,(%r9,%rdi,2)
+  .byte  117,10                              // jne           26e1 <_sk_store_565_hsw+0x65>
+  .byte  196,65,122,127,4,122                // vmovdqu       %xmm8,(%r10,%rdi,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            28a4 <_sk_store_565_hsw+0x68>
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,69,0,0,0                   // lea           0x45(%rip),%r8        # 2908 <_sk_store_565_hsw+0xcc>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  119,236                             // ja            26dd <_sk_store_565_hsw+0x61>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,68,0,0,0                  // lea           0x44(%rip),%r9        # 2740 <_sk_store_565_hsw+0xc4>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,21,68,121,12,6           // vpextrw       $0x6,%xmm8,0xc(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,10,5           // vpextrw       $0x5,%xmm8,0xa(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,8,4            // vpextrw       $0x4,%xmm8,0x8(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,6,3            // vpextrw       $0x3,%xmm8,0x6(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,4,2            // vpextrw       $0x2,%xmm8,0x4(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,2,1            // vpextrw       $0x1,%xmm8,0x2(%r9,%rdi,2)
-  .byte  196,67,121,21,4,121,0               // vpextrw       $0x0,%xmm8,(%r9,%rdi,2)
-  .byte  235,159                             // jmp           28a4 <_sk_store_565_hsw+0x68>
-  .byte  15,31,0                             // nopl          (%rax)
+  .byte  196,67,121,21,68,122,12,6           // vpextrw       $0x6,%xmm8,0xc(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,10,5           // vpextrw       $0x5,%xmm8,0xa(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,8,4            // vpextrw       $0x4,%xmm8,0x8(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,6,3            // vpextrw       $0x3,%xmm8,0x6(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,4,2            // vpextrw       $0x2,%xmm8,0x4(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,2,1            // vpextrw       $0x1,%xmm8,0x2(%r10,%rdi,2)
+  .byte  196,67,121,21,4,122,0               // vpextrw       $0x0,%xmm8,(%r10,%rdi,2)
+  .byte  235,159                             // jmp           26dd <_sk_store_565_hsw+0x61>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  245                                 // cmc
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  237                                 // in            (%dx),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,229                             // jmpq          *%rbp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,213                             // callq         *%rbp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,205                             // dec           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_4444_hsw
+.globl _sk_load_4444_hsw
+FUNCTION(_sk_load_4444_hsw)
+_sk_load_4444_hsw:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  72,133,201                          // test          %rcx,%rcx
+  .byte  15,133,138,0,0,0                    // jne           27f4 <_sk_load_4444_hsw+0x98>
+  .byte  196,193,122,111,4,122               // vmovdqu       (%r10,%rdi,2),%xmm0
+  .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
+  .byte  196,226,125,88,5,2,24,0,0           // vpbroadcastd  0x1802(%rip),%ymm0        # 3f80 <_sk_callback_hsw+0x365>
+  .byte  197,229,219,192                     // vpand         %ymm0,%ymm3,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,226,125,24,13,245,23,0,0        // vbroadcastss  0x17f5(%rip),%ymm1        # 3f84 <_sk_callback_hsw+0x369>
+  .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
+  .byte  196,226,125,88,13,236,23,0,0        // vpbroadcastd  0x17ec(%rip),%ymm1        # 3f88 <_sk_callback_hsw+0x36d>
+  .byte  197,229,219,201                     // vpand         %ymm1,%ymm3,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,226,125,24,21,223,23,0,0        // vbroadcastss  0x17df(%rip),%ymm2        # 3f8c <_sk_callback_hsw+0x371>
+  .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
+  .byte  196,226,125,88,21,214,23,0,0        // vpbroadcastd  0x17d6(%rip),%ymm2        # 3f90 <_sk_callback_hsw+0x375>
+  .byte  197,229,219,210                     // vpand         %ymm2,%ymm3,%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,98,125,24,5,201,23,0,0          // vbroadcastss  0x17c9(%rip),%ymm8        # 3f94 <_sk_callback_hsw+0x379>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,88,5,191,23,0,0          // vpbroadcastd  0x17bf(%rip),%ymm8        # 3f98 <_sk_callback_hsw+0x37d>
+  .byte  196,193,101,219,216                 // vpand         %ymm8,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,177,23,0,0          // vbroadcastss  0x17b1(%rip),%ymm8        # 3f9c <_sk_callback_hsw+0x381>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,200                          // mov           %ecx,%r8d
+  .byte  65,128,224,7                        // and           $0x7,%r8b
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  65,254,200                          // dec           %r8b
+  .byte  65,128,248,6                        // cmp           $0x6,%r8b
+  .byte  15,135,100,255,255,255              // ja            2770 <_sk_load_4444_hsw+0x14>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 2860 <_sk_load_4444_hsw+0x104>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,12,6         // vpinsrw       $0x6,0xc(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,10,5         // vpinsrw       $0x5,0xa(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,8,4          // vpinsrw       $0x4,0x8(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,6,3          // vpinsrw       $0x3,0x6(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,4,2          // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,68,122,2,1          // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  196,193,121,196,4,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm0,%xmm0
+  .byte  233,16,255,255,255                  // jmpq          2770 <_sk_load_4444_hsw+0x14>
   .byte  244                                 // hlt
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -10016,92 +9917,7 @@
   .byte  255,204                             // dec           %esp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,196                             // inc           %esp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255                                 // .byte         0xff
-
-HIDDEN _sk_load_4444_hsw
-.globl _sk_load_4444_hsw
-FUNCTION(_sk_load_4444_hsw)
-_sk_load_4444_hsw:
-  .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,16                           // mov           (%rax),%r10
-  .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,156,0,0,0                    // jne           29ce <_sk_load_4444_hsw+0xaa>
-  .byte  196,193,122,111,4,122               // vmovdqu       (%r10,%rdi,2),%xmm0
-  .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
-  .byte  196,226,125,88,5,22,24,0,0          // vpbroadcastd  0x1816(%rip),%ymm0        # 415c <_sk_callback_hsw+0x212>
-  .byte  197,229,219,192                     // vpand         %ymm0,%ymm3,%ymm0
-  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
-  .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,247,23,0,0        // vpbroadcastd  0x17f7(%rip),%ymm1        # 4160 <_sk_callback_hsw+0x216>
-  .byte  197,229,219,201                     // vpand         %ymm1,%ymm3,%ymm1
-  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,88,21,216,23,0,0        // vpbroadcastd  0x17d8(%rip),%ymm2        # 4164 <_sk_callback_hsw+0x21a>
-  .byte  197,229,219,210                     // vpand         %ymm2,%ymm3,%ymm2
-  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,88,5,185,23,0,0          // vpbroadcastd  0x17b9(%rip),%ymm8        # 4168 <_sk_callback_hsw+0x21e>
-  .byte  196,193,101,219,216                 // vpand         %ymm8,%ymm3,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
-  .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  255,224                             // jmpq          *%rax
-  .byte  65,137,200                          // mov           %ecx,%r8d
-  .byte  65,128,224,7                        // and           $0x7,%r8b
-  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  65,254,200                          // dec           %r8b
-  .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,82,255,255,255               // ja            2938 <_sk_load_4444_hsw+0x14>
-  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,75,0,0,0                  // lea           0x4b(%rip),%r9        # 2a3c <_sk_load_4444_hsw+0x118>
-  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
-  .byte  76,1,200                            // add           %r9,%rax
-  .byte  255,224                             // jmpq          *%rax
-  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,12,6         // vpinsrw       $0x6,0xc(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,10,5         // vpinsrw       $0x5,0xa(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,8,4          // vpinsrw       $0x4,0x8(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,6,3          // vpinsrw       $0x3,0x6(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,4,2          // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,68,122,2,1          // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  196,193,121,196,4,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  233,254,254,255,255                 // jmpq          2938 <_sk_load_4444_hsw+0x14>
-  .byte  102,144                             // xchg          %ax,%ax
-  .byte  242,255                             // repnz         (bad)
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  234                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,226                             // jmpq          *%rdx
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  218,255                             // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,210                             // callq         *%rdx
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,202                             // dec           %edx
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  190                                 // .byte         0xbe
+  .byte  255,192                             // inc           %eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -10151,34 +9967,26 @@
   .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
   .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
-  .byte  196,226,125,88,5,89,22,0,0          // vpbroadcastd  0x1659(%rip),%ymm0        # 416c <_sk_callback_hsw+0x222>
+  .byte  196,226,125,88,5,105,22,0,0         // vpbroadcastd  0x1669(%rip),%ymm0        # 3fa0 <_sk_callback_hsw+0x385>
   .byte  197,229,219,192                     // vpand         %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,92,22,0,0         // vbroadcastss  0x165c(%rip),%ymm1        # 3fa4 <_sk_callback_hsw+0x389>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,58,22,0,0         // vpbroadcastd  0x163a(%rip),%ymm1        # 4170 <_sk_callback_hsw+0x226>
+  .byte  196,226,125,88,13,83,22,0,0         // vpbroadcastd  0x1653(%rip),%ymm1        # 3fa8 <_sk_callback_hsw+0x38d>
   .byte  197,229,219,201                     // vpand         %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
+  .byte  196,226,125,24,21,70,22,0,0         // vbroadcastss  0x1646(%rip),%ymm2        # 3fac <_sk_callback_hsw+0x391>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,88,21,27,22,0,0         // vpbroadcastd  0x161b(%rip),%ymm2        # 4174 <_sk_callback_hsw+0x22a>
+  .byte  196,226,125,88,21,61,22,0,0         // vpbroadcastd  0x163d(%rip),%ymm2        # 3fb0 <_sk_callback_hsw+0x395>
   .byte  197,229,219,210                     // vpand         %ymm2,%ymm3,%ymm2
-  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,226,125,88,210                  // vpbroadcastd  %xmm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,88,5,252,21,0,0          // vpbroadcastd  0x15fc(%rip),%ymm8        # 4178 <_sk_callback_hsw+0x22e>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,98,125,24,5,48,22,0,0           // vbroadcastss  0x1630(%rip),%ymm8        # 3fb4 <_sk_callback_hsw+0x399>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,88,5,38,22,0,0           // vpbroadcastd  0x1626(%rip),%ymm8        # 3fb8 <_sk_callback_hsw+0x39d>
   .byte  196,193,101,219,216                 // vpand         %ymm8,%ymm3,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,24,22,0,0           // vbroadcastss  0x1618(%rip),%ymm8        # 3fbc <_sk_callback_hsw+0x3a1>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -10191,70 +9999,68 @@
 FUNCTION(_sk_store_4444_hsw)
 _sk_store_4444_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,112,65                      // mov           $0x41700000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,254,21,0,0          // vbroadcastss  0x15fe(%rip),%ymm8        # 3fc0 <_sk_callback_hsw+0x3a5>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,53,114,241,12               // vpslld        $0xc,%ymm9,%ymm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,8                // vpslld        $0x8,%ymm10,%ymm10
   .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,210                       // vmulps        %ymm2,%ymm8,%ymm10
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,4                // vpslld        $0x4,%ymm10,%ymm10
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           2c14 <_sk_store_4444_hsw+0x72>
-  .byte  196,65,122,127,4,121                // vmovdqu       %xmm8,(%r9,%rdi,2)
+  .byte  117,10                              // jne           2a25 <_sk_store_4444_hsw+0x71>
+  .byte  196,65,122,127,4,122                // vmovdqu       %xmm8,(%r10,%rdi,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            2c10 <_sk_store_4444_hsw+0x6e>
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,69,0,0,0                   // lea           0x45(%rip),%r8        # 2c74 <_sk_store_4444_hsw+0xd2>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  119,236                             // ja            2a21 <_sk_store_4444_hsw+0x6d>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,68,0,0,0                  // lea           0x44(%rip),%r9        # 2a84 <_sk_store_4444_hsw+0xd0>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,21,68,121,12,6           // vpextrw       $0x6,%xmm8,0xc(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,10,5           // vpextrw       $0x5,%xmm8,0xa(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,8,4            // vpextrw       $0x4,%xmm8,0x8(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,6,3            // vpextrw       $0x3,%xmm8,0x6(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,4,2            // vpextrw       $0x2,%xmm8,0x4(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,2,1            // vpextrw       $0x1,%xmm8,0x2(%r9,%rdi,2)
-  .byte  196,67,121,21,4,121,0               // vpextrw       $0x0,%xmm8,(%r9,%rdi,2)
-  .byte  235,159                             // jmp           2c10 <_sk_store_4444_hsw+0x6e>
-  .byte  15,31,0                             // nopl          (%rax)
-  .byte  244                                 // hlt
+  .byte  196,67,121,21,68,122,12,6           // vpextrw       $0x6,%xmm8,0xc(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,10,5           // vpextrw       $0x5,%xmm8,0xa(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,8,4            // vpextrw       $0x4,%xmm8,0x8(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,6,3            // vpextrw       $0x3,%xmm8,0x6(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,4,2            // vpextrw       $0x2,%xmm8,0x4(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,2,1            // vpextrw       $0x1,%xmm8,0x2(%r10,%rdi,2)
+  .byte  196,67,121,21,4,122,0               // vpextrw       $0x0,%xmm8,(%r10,%rdi,2)
+  .byte  235,159                             // jmp           2a21 <_sk_store_4444_hsw+0x6d>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  245                                 // cmc
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  236                                 // in            (%dx),%al
+  .byte  237                                 // in            (%dx),%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,228                             // jmpq          *%rsp
+  .byte  255,229                             // jmpq          *%rbp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  220,255                             // fdivr         %st,%st(7)
+  .byte  221,255                             // (bad)
   .byte  255                                 // (bad)
-  .byte  255,212                             // callq         *%rsp
+  .byte  255,213                             // callq         *%rbp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,204                             // dec           %esp
+  .byte  255,205                             // dec           %ebp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,196                             // inc           %esp
+  .byte  255,197                             // inc           %ebp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -10268,18 +10074,16 @@
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
   .byte  76,3,8                              // add           (%rax),%r9
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,93                              // jne           2d02 <_sk_load_8888_hsw+0x72>
+  .byte  117,88                              // jne           2b0d <_sk_load_8888_hsw+0x6d>
   .byte  196,193,126,111,25                  // vmovdqu       (%r9),%ymm3
-  .byte  197,229,219,5,142,21,0,0            // vpand         0x158e(%rip),%ymm3,%ymm0        # 4240 <_sk_callback_hsw+0x2f6>
+  .byte  197,229,219,5,158,22,0,0            // vpand         0x169e(%rip),%ymm3,%ymm0        # 4160 <_sk_callback_hsw+0x545>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,193                   // vpbroadcastd  %xmm1,%ymm8
+  .byte  196,98,125,24,5,245,20,0,0          // vbroadcastss  0x14f5(%rip),%ymm8        # 3fc4 <_sk_callback_hsw+0x3a9>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,226,101,0,13,142,21,0,0         // vpshufb       0x158e(%rip),%ymm3,%ymm1        # 4260 <_sk_callback_hsw+0x316>
+  .byte  196,226,101,0,13,163,22,0,0         // vpshufb       0x16a3(%rip),%ymm3,%ymm1        # 4180 <_sk_callback_hsw+0x565>
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,226,101,0,21,156,21,0,0         // vpshufb       0x159c(%rip),%ymm3,%ymm2        # 4280 <_sk_callback_hsw+0x336>
+  .byte  196,226,101,0,21,177,22,0,0         // vpshufb       0x16b1(%rip),%ymm3,%ymm2        # 41a0 <_sk_callback_hsw+0x585>
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
@@ -10296,7 +10100,7 @@
   .byte  196,225,249,110,192                 // vmovq         %rax,%xmm0
   .byte  196,226,125,33,192                  // vpmovsxbd     %xmm0,%ymm0
   .byte  196,194,125,140,25                  // vpmaskmovd    (%r9),%ymm0,%ymm3
-  .byte  235,130                             // jmp           2caa <_sk_load_8888_hsw+0x1a>
+  .byte  235,135                             // jmp           2aba <_sk_load_8888_hsw+0x1a>
 
 HIDDEN _sk_gather_8888_hsw
 .globl _sk_gather_8888_hsw
@@ -10311,16 +10115,14 @@
   .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
   .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
   .byte  196,194,117,144,28,128              // vpgatherdd    %ymm1,(%r8,%ymm0,4),%ymm3
-  .byte  197,229,219,5,74,21,0,0             // vpand         0x154a(%rip),%ymm3,%ymm0        # 42a0 <_sk_callback_hsw+0x356>
+  .byte  197,229,219,5,95,22,0,0             // vpand         0x165f(%rip),%ymm3,%ymm0        # 41c0 <_sk_callback_hsw+0x5a5>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,98,125,88,193                   // vpbroadcastd  %xmm1,%ymm8
+  .byte  196,98,125,24,5,90,20,0,0           // vbroadcastss  0x145a(%rip),%ymm8        # 3fc8 <_sk_callback_hsw+0x3ad>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,226,101,0,13,74,21,0,0          // vpshufb       0x154a(%rip),%ymm3,%ymm1        # 42c0 <_sk_callback_hsw+0x376>
+  .byte  196,226,101,0,13,100,22,0,0         // vpshufb       0x1664(%rip),%ymm3,%ymm1        # 41e0 <_sk_callback_hsw+0x5c5>
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,226,101,0,21,88,21,0,0          // vpshufb       0x1558(%rip),%ymm3,%ymm2        # 42e0 <_sk_callback_hsw+0x396>
+  .byte  196,226,101,0,21,114,22,0,0         // vpshufb       0x1672(%rip),%ymm3,%ymm2        # 4200 <_sk_callback_hsw+0x5e5>
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
@@ -10337,25 +10139,23 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
   .byte  76,3,8                              // add           (%rax),%r9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  196,98,125,24,5,10,20,0,0           // vbroadcastss  0x140a(%rip),%ymm8        # 3fcc <_sk_callback_hsw+0x3b1>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,8                // vpslld        $0x8,%ymm10,%ymm10
   .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,210                       // vmulps        %ymm2,%ymm8,%ymm10
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,16               // vpslld        $0x10,%ymm10,%ymm10
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,193,61,114,240,24               // vpslld        $0x18,%ymm8,%ymm8
   .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,12                              // jne           2e17 <_sk_store_8888_hsw+0x74>
+  .byte  117,12                              // jne           2c1c <_sk_store_8888_hsw+0x73>
   .byte  196,65,126,127,1                    // vmovdqu       %ymm8,(%r9)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,137,193                          // mov           %r8,%rcx
@@ -10368,7 +10168,7 @@
   .byte  196,97,249,110,200                  // vmovq         %rax,%xmm9
   .byte  196,66,125,33,201                   // vpmovsxbd     %xmm9,%ymm9
   .byte  196,66,53,142,1                     // vpmaskmovd    %ymm8,%ymm9,(%r9)
-  .byte  235,211                             // jmp           2e10 <_sk_store_8888_hsw+0x6d>
+  .byte  235,211                             // jmp           2c15 <_sk_store_8888_hsw+0x6c>
 
 HIDDEN _sk_load_f16_hsw
 .globl _sk_load_f16_hsw
@@ -10377,7 +10177,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,97                              // jne           2ea8 <_sk_load_f16_hsw+0x6b>
+  .byte  117,97                              // jne           2cad <_sk_load_f16_hsw+0x6b>
   .byte  197,121,16,4,248                    // vmovupd       (%rax,%rdi,8),%xmm8
   .byte  197,249,16,84,248,16                // vmovupd       0x10(%rax,%rdi,8),%xmm2
   .byte  197,249,16,92,248,32                // vmovupd       0x20(%rax,%rdi,8),%xmm3
@@ -10403,29 +10203,29 @@
   .byte  197,123,16,4,248                    // vmovsd        (%rax,%rdi,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,79                              // je            2f07 <_sk_load_f16_hsw+0xca>
+  .byte  116,79                              // je            2d0c <_sk_load_f16_hsw+0xca>
   .byte  197,57,22,68,248,8                  // vmovhpd       0x8(%rax,%rdi,8),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,67                              // jb            2f07 <_sk_load_f16_hsw+0xca>
+  .byte  114,67                              // jb            2d0c <_sk_load_f16_hsw+0xca>
   .byte  197,251,16,84,248,16                // vmovsd        0x10(%rax,%rdi,8),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,68                              // je            2f14 <_sk_load_f16_hsw+0xd7>
+  .byte  116,68                              // je            2d19 <_sk_load_f16_hsw+0xd7>
   .byte  197,233,22,84,248,24                // vmovhpd       0x18(%rax,%rdi,8),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,56                              // jb            2f14 <_sk_load_f16_hsw+0xd7>
+  .byte  114,56                              // jb            2d19 <_sk_load_f16_hsw+0xd7>
   .byte  197,251,16,92,248,32                // vmovsd        0x20(%rax,%rdi,8),%xmm3
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,114,255,255,255              // je            2e5e <_sk_load_f16_hsw+0x21>
+  .byte  15,132,114,255,255,255              // je            2c63 <_sk_load_f16_hsw+0x21>
   .byte  197,225,22,92,248,40                // vmovhpd       0x28(%rax,%rdi,8),%xmm3,%xmm3
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,98,255,255,255               // jb            2e5e <_sk_load_f16_hsw+0x21>
+  .byte  15,130,98,255,255,255               // jb            2c63 <_sk_load_f16_hsw+0x21>
   .byte  197,122,126,76,248,48               // vmovq         0x30(%rax,%rdi,8),%xmm9
-  .byte  233,87,255,255,255                  // jmpq          2e5e <_sk_load_f16_hsw+0x21>
+  .byte  233,87,255,255,255                  // jmpq          2c63 <_sk_load_f16_hsw+0x21>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,74,255,255,255                  // jmpq          2e5e <_sk_load_f16_hsw+0x21>
+  .byte  233,74,255,255,255                  // jmpq          2c63 <_sk_load_f16_hsw+0x21>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,65,255,255,255                  // jmpq          2e5e <_sk_load_f16_hsw+0x21>
+  .byte  233,65,255,255,255                  // jmpq          2c63 <_sk_load_f16_hsw+0x21>
 
 HIDDEN _sk_gather_f16_hsw
 .globl _sk_gather_f16_hsw
@@ -10483,7 +10283,7 @@
   .byte  196,65,57,98,205                    // vpunpckldq    %xmm13,%xmm8,%xmm9
   .byte  196,65,57,106,197                   // vpunpckhdq    %xmm13,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,27                              // jne           300c <_sk_store_f16_hsw+0x65>
+  .byte  117,27                              // jne           2e11 <_sk_store_f16_hsw+0x65>
   .byte  197,120,17,28,248                   // vmovups       %xmm11,(%rax,%rdi,8)
   .byte  197,120,17,84,248,16                // vmovups       %xmm10,0x10(%rax,%rdi,8)
   .byte  197,120,17,76,248,32                // vmovups       %xmm9,0x20(%rax,%rdi,8)
@@ -10492,22 +10292,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  197,121,214,28,248                  // vmovq         %xmm11,(%rax,%rdi,8)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,241                             // je            3008 <_sk_store_f16_hsw+0x61>
+  .byte  116,241                             // je            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,23,92,248,8                 // vmovhpd       %xmm11,0x8(%rax,%rdi,8)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,229                             // jb            3008 <_sk_store_f16_hsw+0x61>
+  .byte  114,229                             // jb            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,214,84,248,16               // vmovq         %xmm10,0x10(%rax,%rdi,8)
-  .byte  116,221                             // je            3008 <_sk_store_f16_hsw+0x61>
+  .byte  116,221                             // je            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,23,84,248,24                // vmovhpd       %xmm10,0x18(%rax,%rdi,8)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,209                             // jb            3008 <_sk_store_f16_hsw+0x61>
+  .byte  114,209                             // jb            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,214,76,248,32               // vmovq         %xmm9,0x20(%rax,%rdi,8)
-  .byte  116,201                             // je            3008 <_sk_store_f16_hsw+0x61>
+  .byte  116,201                             // je            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,23,76,248,40                // vmovhpd       %xmm9,0x28(%rax,%rdi,8)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,189                             // jb            3008 <_sk_store_f16_hsw+0x61>
+  .byte  114,189                             // jb            2e0d <_sk_store_f16_hsw+0x61>
   .byte  197,121,214,68,248,48               // vmovq         %xmm8,0x30(%rax,%rdi,8)
-  .byte  235,181                             // jmp           3008 <_sk_store_f16_hsw+0x61>
+  .byte  235,181                             // jmp           2e0d <_sk_store_f16_hsw+0x61>
 
 HIDDEN _sk_load_u16_be_hsw
 .globl _sk_load_u16_be_hsw
@@ -10517,7 +10317,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,141,4,189,0,0,0,0                // lea           0x0(,%rdi,4),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,205,0,0,0                    // jne           3136 <_sk_load_u16_be_hsw+0xe3>
+  .byte  15,133,204,0,0,0                    // jne           2f3a <_sk_load_u16_be_hsw+0xe2>
   .byte  196,65,121,16,4,64                  // vmovupd       (%r8,%rax,2),%xmm8
   .byte  196,193,121,16,84,64,16             // vmovupd       0x10(%r8,%rax,2),%xmm2
   .byte  196,193,121,16,92,64,32             // vmovupd       0x20(%r8,%rax,2),%xmm3
@@ -10530,65 +10330,63 @@
   .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
   .byte  197,241,97,211                      // vpunpcklwd    %xmm3,%xmm1,%xmm2
   .byte  197,113,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm11
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,98,125,88,208                   // vpbroadcastd  %xmm0,%ymm10
   .byte  197,185,108,194                     // vpunpcklqdq   %xmm2,%xmm8,%xmm0
   .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
   .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
   .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  196,98,125,24,21,1,17,0,0           // vbroadcastss  0x1101(%rip),%ymm10        # 3fd0 <_sk_callback_hsw+0x3b5>
+  .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,185,109,202                     // vpunpckhqdq   %xmm2,%xmm8,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
   .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
   .byte  197,233,235,201                     // vpor          %xmm1,%xmm2,%xmm1
   .byte  196,226,125,51,201                  // vpmovzxwd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
+  .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  196,193,49,108,211                  // vpunpcklqdq   %xmm11,%xmm9,%xmm2
   .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
   .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
   .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
   .byte  196,226,125,51,210                  // vpmovzxwd     %xmm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
+  .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  196,193,49,109,219                  // vpunpckhqdq   %xmm11,%xmm9,%xmm3
   .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
   .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
   .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
   .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  197,172,89,219                      // vmulps        %ymm3,%ymm10,%ymm3
+  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,123,16,4,64                  // vmovsd        (%r8,%rax,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,85                              // je            319c <_sk_load_u16_be_hsw+0x149>
+  .byte  116,85                              // je            2fa0 <_sk_load_u16_be_hsw+0x148>
   .byte  196,65,57,22,68,64,8                // vmovhpd       0x8(%r8,%rax,2),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,72                              // jb            319c <_sk_load_u16_be_hsw+0x149>
+  .byte  114,72                              // jb            2fa0 <_sk_load_u16_be_hsw+0x148>
   .byte  196,193,123,16,84,64,16             // vmovsd        0x10(%r8,%rax,2),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,72                              // je            31a9 <_sk_load_u16_be_hsw+0x156>
+  .byte  116,72                              // je            2fad <_sk_load_u16_be_hsw+0x155>
   .byte  196,193,105,22,84,64,24             // vmovhpd       0x18(%r8,%rax,2),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,59                              // jb            31a9 <_sk_load_u16_be_hsw+0x156>
+  .byte  114,59                              // jb            2fad <_sk_load_u16_be_hsw+0x155>
   .byte  196,193,123,16,92,64,32             // vmovsd        0x20(%r8,%rax,2),%xmm3
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,5,255,255,255                // je            3084 <_sk_load_u16_be_hsw+0x31>
+  .byte  15,132,6,255,255,255                // je            2e89 <_sk_load_u16_be_hsw+0x31>
   .byte  196,193,97,22,92,64,40              // vmovhpd       0x28(%r8,%rax,2),%xmm3,%xmm3
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,244,254,255,255              // jb            3084 <_sk_load_u16_be_hsw+0x31>
+  .byte  15,130,245,254,255,255              // jb            2e89 <_sk_load_u16_be_hsw+0x31>
   .byte  196,65,122,126,76,64,48             // vmovq         0x30(%r8,%rax,2),%xmm9
-  .byte  233,232,254,255,255                 // jmpq          3084 <_sk_load_u16_be_hsw+0x31>
+  .byte  233,233,254,255,255                 // jmpq          2e89 <_sk_load_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,219,254,255,255                 // jmpq          3084 <_sk_load_u16_be_hsw+0x31>
+  .byte  233,220,254,255,255                 // jmpq          2e89 <_sk_load_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,210,254,255,255                 // jmpq          3084 <_sk_load_u16_be_hsw+0x31>
+  .byte  233,211,254,255,255                 // jmpq          2e89 <_sk_load_u16_be_hsw+0x31>
 
 HIDDEN _sk_load_rgb_u16_be_hsw
 .globl _sk_load_rgb_u16_be_hsw
@@ -10598,7 +10396,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,141,4,127                        // lea           (%rdi,%rdi,2),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,211,0,0,0                    // jne           3297 <_sk_load_rgb_u16_be_hsw+0xe5>
+  .byte  15,133,204,0,0,0                    // jne           3094 <_sk_load_rgb_u16_be_hsw+0xde>
   .byte  196,193,122,111,4,64                // vmovdqu       (%r8,%rax,2),%xmm0
   .byte  196,193,122,111,84,64,12            // vmovdqu       0xc(%r8,%rax,2),%xmm2
   .byte  196,193,122,111,76,64,24            // vmovdqu       0x18(%r8,%rax,2),%xmm1
@@ -10616,68 +10414,64 @@
   .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
   .byte  197,241,97,211                      // vpunpcklwd    %xmm3,%xmm1,%xmm2
   .byte  197,241,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm3
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,98,125,88,208                   // vpbroadcastd  %xmm0,%ymm10
   .byte  197,185,108,194                     // vpunpcklqdq   %xmm2,%xmm8,%xmm0
   .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
   .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
   .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  196,98,125,24,21,146,15,0,0         // vbroadcastss  0xf92(%rip),%ymm10        # 3fd4 <_sk_callback_hsw+0x3b9>
+  .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,185,109,202                     // vpunpckhqdq   %xmm2,%xmm8,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
   .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
   .byte  197,233,235,201                     // vpor          %xmm1,%xmm2,%xmm1
   .byte  196,226,125,51,201                  // vpmovzxwd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
+  .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  197,177,108,211                     // vpunpcklqdq   %xmm3,%xmm9,%xmm2
   .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
   .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
   .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
   .byte  196,226,125,51,210                  // vpmovzxwd     %xmm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
+  .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,70,15,0,0         // vbroadcastss  0xf46(%rip),%ymm3        # 3fd8 <_sk_callback_hsw+0x3bd>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,4,64                // vmovd         (%r8,%rax,2),%xmm0
   .byte  196,193,121,196,68,64,4,2           // vpinsrw       $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  117,5                               // jne           32b0 <_sk_load_rgb_u16_be_hsw+0xfe>
-  .byte  233,72,255,255,255                  // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  117,5                               // jne           30ad <_sk_load_rgb_u16_be_hsw+0xf7>
+  .byte  233,79,255,255,255                  // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
   .byte  196,193,121,110,76,64,6             // vmovd         0x6(%r8,%rax,2),%xmm1
   .byte  196,65,113,196,68,64,10,2           // vpinsrw       $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,26                              // jb            32df <_sk_load_rgb_u16_be_hsw+0x12d>
+  .byte  114,26                              // jb            30dc <_sk_load_rgb_u16_be_hsw+0x126>
   .byte  196,193,121,110,76,64,12            // vmovd         0xc(%r8,%rax,2),%xmm1
   .byte  196,193,113,196,84,64,16,2          // vpinsrw       $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  117,10                              // jne           32e4 <_sk_load_rgb_u16_be_hsw+0x132>
-  .byte  233,25,255,255,255                  // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
-  .byte  233,20,255,255,255                  // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  117,10                              // jne           30e1 <_sk_load_rgb_u16_be_hsw+0x12b>
+  .byte  233,32,255,255,255                  // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  233,27,255,255,255                  // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
   .byte  196,193,121,110,76,64,18            // vmovd         0x12(%r8,%rax,2),%xmm1
   .byte  196,65,113,196,76,64,22,2           // vpinsrw       $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,26                              // jb            3313 <_sk_load_rgb_u16_be_hsw+0x161>
+  .byte  114,26                              // jb            3110 <_sk_load_rgb_u16_be_hsw+0x15a>
   .byte  196,193,121,110,76,64,24            // vmovd         0x18(%r8,%rax,2),%xmm1
   .byte  196,193,113,196,76,64,28,2          // vpinsrw       $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  117,10                              // jne           3318 <_sk_load_rgb_u16_be_hsw+0x166>
-  .byte  233,229,254,255,255                 // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
-  .byte  233,224,254,255,255                 // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  117,10                              // jne           3115 <_sk_load_rgb_u16_be_hsw+0x15f>
+  .byte  233,236,254,255,255                 // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  233,231,254,255,255                 // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
   .byte  196,193,121,110,92,64,30            // vmovd         0x1e(%r8,%rax,2),%xmm3
   .byte  196,65,97,196,92,64,34,2            // vpinsrw       $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,20                              // jb            3341 <_sk_load_rgb_u16_be_hsw+0x18f>
+  .byte  114,20                              // jb            313e <_sk_load_rgb_u16_be_hsw+0x188>
   .byte  196,193,121,110,92,64,36            // vmovd         0x24(%r8,%rax,2),%xmm3
   .byte  196,193,97,196,92,64,40,2           // vpinsrw       $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
-  .byte  233,183,254,255,255                 // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
-  .byte  233,178,254,255,255                 // jmpq          31f8 <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  233,190,254,255,255                 // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
+  .byte  233,185,254,255,255                 // jmpq          2ffc <_sk_load_rgb_u16_be_hsw+0x46>
 
 HIDDEN _sk_store_u16_be_hsw
 .globl _sk_store_u16_be_hsw
@@ -10685,32 +10479,30 @@
 _sk_store_u16_be_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
-  .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
-  .byte  184,0,255,127,71                    // mov           $0x477fff00,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  72,141,4,189,0,0,0,0                // lea           0x0(,%rdi,4),%rax
+  .byte  196,98,125,24,5,131,14,0,0          // vbroadcastss  0xe83(%rip),%ymm8        # 3fdc <_sk_callback_hsw+0x3c1>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,67,125,25,202,1                 // vextractf128  $0x1,%ymm9,%xmm10
   .byte  196,66,49,43,202                    // vpackusdw     %xmm10,%xmm9,%xmm9
   .byte  196,193,41,113,241,8                // vpsllw        $0x8,%xmm9,%xmm10
   .byte  196,193,49,113,209,8                // vpsrlw        $0x8,%xmm9,%xmm9
   .byte  196,65,41,235,201                   // vpor          %xmm9,%xmm10,%xmm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,67,125,25,211,1                 // vextractf128  $0x1,%ymm10,%xmm11
   .byte  196,66,41,43,211                    // vpackusdw     %xmm11,%xmm10,%xmm10
   .byte  196,193,33,113,242,8                // vpsllw        $0x8,%xmm10,%xmm11
   .byte  196,193,41,113,210,8                // vpsrlw        $0x8,%xmm10,%xmm10
   .byte  196,65,33,235,210                   // vpor          %xmm10,%xmm11,%xmm10
-  .byte  197,60,89,218                       // vmulps        %ymm2,%ymm8,%ymm11
+  .byte  196,65,108,89,216                   // vmulps        %ymm8,%ymm2,%ymm11
   .byte  196,65,125,91,219                   // vcvtps2dq     %ymm11,%ymm11
   .byte  196,67,125,25,220,1                 // vextractf128  $0x1,%ymm11,%xmm12
   .byte  196,66,33,43,220                    // vpackusdw     %xmm12,%xmm11,%xmm11
   .byte  196,193,25,113,243,8                // vpsllw        $0x8,%xmm11,%xmm12
   .byte  196,193,33,113,211,8                // vpsrlw        $0x8,%xmm11,%xmm11
   .byte  196,65,25,235,219                   // vpor          %xmm11,%xmm12,%xmm11
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,196,1                 // vextractf128  $0x1,%ymm8,%xmm12
   .byte  196,66,57,43,196                    // vpackusdw     %xmm12,%xmm8,%xmm8
@@ -10726,31 +10518,31 @@
   .byte  196,65,17,98,200                    // vpunpckldq    %xmm8,%xmm13,%xmm9
   .byte  196,65,17,106,192                   // vpunpckhdq    %xmm8,%xmm13,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,31                              // jne           3441 <_sk_store_u16_be_hsw+0xfb>
-  .byte  196,1,120,17,28,72                  // vmovups       %xmm11,(%r8,%r9,2)
-  .byte  196,1,120,17,84,72,16               // vmovups       %xmm10,0x10(%r8,%r9,2)
-  .byte  196,1,120,17,76,72,32               // vmovups       %xmm9,0x20(%r8,%r9,2)
-  .byte  196,1,122,127,68,72,48              // vmovdqu       %xmm8,0x30(%r8,%r9,2)
+  .byte  117,31                              // jne           323d <_sk_store_u16_be_hsw+0xfa>
+  .byte  196,65,120,17,28,64                 // vmovups       %xmm11,(%r8,%rax,2)
+  .byte  196,65,120,17,84,64,16              // vmovups       %xmm10,0x10(%r8,%rax,2)
+  .byte  196,65,120,17,76,64,32              // vmovups       %xmm9,0x20(%r8,%rax,2)
+  .byte  196,65,122,127,68,64,48             // vmovdqu       %xmm8,0x30(%r8,%rax,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,1,121,214,28,72                 // vmovq         %xmm11,(%r8,%r9,2)
+  .byte  196,65,121,214,28,64                // vmovq         %xmm11,(%r8,%rax,2)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,240                             // je            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,23,92,72,8                // vmovhpd       %xmm11,0x8(%r8,%r9,2)
+  .byte  116,240                             // je            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,23,92,64,8               // vmovhpd       %xmm11,0x8(%r8,%rax,2)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,227                             // jb            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,214,84,72,16              // vmovq         %xmm10,0x10(%r8,%r9,2)
-  .byte  116,218                             // je            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,23,84,72,24               // vmovhpd       %xmm10,0x18(%r8,%r9,2)
+  .byte  114,227                             // jb            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,214,84,64,16             // vmovq         %xmm10,0x10(%r8,%rax,2)
+  .byte  116,218                             // je            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,23,84,64,24              // vmovhpd       %xmm10,0x18(%r8,%rax,2)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,205                             // jb            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,214,76,72,32              // vmovq         %xmm9,0x20(%r8,%r9,2)
-  .byte  116,196                             // je            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,23,76,72,40               // vmovhpd       %xmm9,0x28(%r8,%r9,2)
+  .byte  114,205                             // jb            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,214,76,64,32             // vmovq         %xmm9,0x20(%r8,%rax,2)
+  .byte  116,196                             // je            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,23,76,64,40              // vmovhpd       %xmm9,0x28(%r8,%rax,2)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,183                             // jb            343d <_sk_store_u16_be_hsw+0xf7>
-  .byte  196,1,121,214,68,72,48              // vmovq         %xmm8,0x30(%r8,%r9,2)
-  .byte  235,174                             // jmp           343d <_sk_store_u16_be_hsw+0xf7>
+  .byte  114,183                             // jb            3239 <_sk_store_u16_be_hsw+0xf6>
+  .byte  196,65,121,214,68,64,48             // vmovq         %xmm8,0x30(%r8,%rax,2)
+  .byte  235,174                             // jmp           3239 <_sk_store_u16_be_hsw+0xf6>
 
 HIDDEN _sk_load_f32_hsw
 .globl _sk_load_f32_hsw
@@ -10758,10 +10550,10 @@
 _sk_load_f32_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  119,110                             // ja            3505 <_sk_load_f32_hsw+0x76>
+  .byte  119,110                             // ja            3301 <_sk_load_f32_hsw+0x76>
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 3530 <_sk_load_f32_hsw+0xa1>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 332c <_sk_load_f32_hsw+0xa1>
   .byte  73,99,4,138                         // movslq        (%r10,%rcx,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -10822,7 +10614,7 @@
   .byte  196,65,37,20,196                    // vunpcklpd     %ymm12,%ymm11,%ymm8
   .byte  196,65,37,21,220                    // vunpckhpd     %ymm12,%ymm11,%ymm11
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,55                              // jne           35bd <_sk_store_f32_hsw+0x6d>
+  .byte  117,55                              // jne           33b9 <_sk_store_f32_hsw+0x6d>
   .byte  196,67,45,24,225,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm12
   .byte  196,67,61,24,235,1                  // vinsertf128   $0x1,%xmm11,%ymm8,%ymm13
   .byte  196,67,45,6,201,49                  // vperm2f128    $0x31,%ymm9,%ymm10,%ymm9
@@ -10835,22 +10627,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,17,20,128                // vmovupd       %xmm10,(%r8,%rax,4)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,240                             // je            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  116,240                             // je            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,65,121,17,76,128,16             // vmovupd       %xmm9,0x10(%r8,%rax,4)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,227                             // jb            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  114,227                             // jb            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,65,121,17,68,128,32             // vmovupd       %xmm8,0x20(%r8,%rax,4)
-  .byte  116,218                             // je            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  116,218                             // je            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,65,121,17,92,128,48             // vmovupd       %xmm11,0x30(%r8,%rax,4)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,205                             // jb            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  114,205                             // jb            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,67,125,25,84,128,64,1           // vextractf128  $0x1,%ymm10,0x40(%r8,%rax,4)
-  .byte  116,195                             // je            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  116,195                             // je            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,67,125,25,76,128,80,1           // vextractf128  $0x1,%ymm9,0x50(%r8,%rax,4)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,181                             // jb            35b9 <_sk_store_f32_hsw+0x69>
+  .byte  114,181                             // jb            33b5 <_sk_store_f32_hsw+0x69>
   .byte  196,67,125,25,68,128,96,1           // vextractf128  $0x1,%ymm8,0x60(%r8,%rax,4)
-  .byte  235,171                             // jmp           35b9 <_sk_store_f32_hsw+0x69>
+  .byte  235,171                             // jmp           33b5 <_sk_store_f32_hsw+0x69>
 
 HIDDEN _sk_clamp_x_hsw
 .globl _sk_clamp_x_hsw
@@ -10960,20 +10752,14 @@
 .globl _sk_luminance_to_alpha_hsw
 FUNCTION(_sk_luminance_to_alpha_hsw)
 _sk_luminance_to_alpha_hsw:
-  .byte  184,208,179,89,62                   // mov           $0x3e59b3d0,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,98,125,88,195                   // vpbroadcastd  %xmm3,%ymm8
-  .byte  184,89,23,55,63                     // mov           $0x3f371759,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,226,125,88,219                  // vpbroadcastd  %xmm3,%ymm3
-  .byte  197,228,89,201                      // vmulps        %ymm1,%ymm3,%ymm1
-  .byte  196,98,125,168,193                  // vfmadd213ps   %ymm1,%ymm0,%ymm8
-  .byte  184,152,221,147,61                  // mov           $0x3d93dd98,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,226,125,88,216                  // vpbroadcastd  %xmm0,%ymm3
-  .byte  196,194,109,168,216                 // vfmadd213ps   %ymm8,%ymm2,%ymm3
+  .byte  196,226,125,24,29,157,10,0,0        // vbroadcastss  0xa9d(%rip),%ymm3        # 3fe0 <_sk_callback_hsw+0x3c5>
+  .byte  196,98,125,24,5,152,10,0,0          // vbroadcastss  0xa98(%rip),%ymm8        # 3fe4 <_sk_callback_hsw+0x3c9>
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  196,226,125,184,203                 // vfmadd231ps   %ymm3,%ymm0,%ymm1
+  .byte  196,226,125,24,29,137,10,0,0        // vbroadcastss  0xa89(%rip),%ymm3        # 3fe8 <_sk_callback_hsw+0x3cd>
+  .byte  196,226,109,168,217                 // vfmadd213ps   %ymm1,%ymm2,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
   .byte  255,224                             // jmpq          *%rax
@@ -11115,7 +10901,7 @@
   .byte  196,98,125,24,72,28                 // vbroadcastss  0x1c(%rax),%ymm9
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  15,132,143,0,0,0                    // je            3a49 <_sk_linear_gradient_hsw+0xb5>
+  .byte  15,132,143,0,0,0                    // je            3837 <_sk_linear_gradient_hsw+0xb5>
   .byte  72,139,64,8                         // mov           0x8(%rax),%rax
   .byte  72,131,192,32                       // add           $0x20,%rax
   .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
@@ -11142,8 +10928,8 @@
   .byte  196,67,13,74,201,208                // vblendvps     %ymm13,%ymm9,%ymm14,%ymm9
   .byte  72,131,192,36                       // add           $0x24,%rax
   .byte  73,255,200                          // dec           %r8
-  .byte  117,140                             // jne           39d3 <_sk_linear_gradient_hsw+0x3f>
-  .byte  235,17                              // jmp           3a5a <_sk_linear_gradient_hsw+0xc6>
+  .byte  117,140                             // jne           37c1 <_sk_linear_gradient_hsw+0x3f>
+  .byte  235,17                              // jmp           3848 <_sk_linear_gradient_hsw+0xc6>
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
   .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
@@ -11182,13 +10968,11 @@
 FUNCTION(_sk_save_xy_hsw)
 _sk_save_xy_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,60,88,200                       // vaddps        %ymm0,%ymm8,%ymm9
+  .byte  196,98,125,24,5,48,7,0,0            // vbroadcastss  0x730(%rip),%ymm8        # 3fec <_sk_callback_hsw+0x3d1>
+  .byte  196,65,124,88,200                   // vaddps        %ymm8,%ymm0,%ymm9
   .byte  196,67,125,8,209,1                  // vroundps      $0x1,%ymm9,%ymm10
   .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
-  .byte  197,60,88,193                       // vaddps        %ymm1,%ymm8,%ymm8
+  .byte  196,65,116,88,192                   // vaddps        %ymm8,%ymm1,%ymm8
   .byte  196,67,125,8,208,1                  // vroundps      $0x1,%ymm8,%ymm10
   .byte  196,65,60,92,194                    // vsubps        %ymm10,%ymm8,%ymm8
   .byte  197,252,17,0                        // vmovups       %ymm0,(%rax)
@@ -11218,13 +11002,9 @@
 FUNCTION(_sk_bilinear_nx_hsw)
 _sk_bilinear_nx_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,196,6,0,0          // vbroadcastss  0x6c4(%rip),%ymm0        # 3ff0 <_sk_callback_hsw+0x3d5>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,187,6,0,0           // vbroadcastss  0x6bb(%rip),%ymm8        # 3ff4 <_sk_callback_hsw+0x3d9>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -11235,9 +11015,7 @@
 FUNCTION(_sk_bilinear_px_hsw)
 _sk_bilinear_px_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,163,6,0,0          // vbroadcastss  0x6a3(%rip),%ymm0        # 3ff8 <_sk_callback_hsw+0x3dd>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -11249,13 +11027,9 @@
 FUNCTION(_sk_bilinear_ny_hsw)
 _sk_bilinear_ny_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,135,6,0,0         // vbroadcastss  0x687(%rip),%ymm1        # 3ffc <_sk_callback_hsw+0x3e1>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,125,6,0,0           // vbroadcastss  0x67d(%rip),%ymm8        # 4000 <_sk_callback_hsw+0x3e5>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -11266,9 +11040,7 @@
 FUNCTION(_sk_bilinear_py_hsw)
 _sk_bilinear_py_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,101,6,0,0         // vbroadcastss  0x665(%rip),%ymm1        # 4004 <_sk_callback_hsw+0x3e9>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -11280,23 +11052,15 @@
 FUNCTION(_sk_bicubic_n3x_hsw)
 _sk_bicubic_n3x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,191                  // mov           $0xbfc00000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,72,6,0,0           // vbroadcastss  0x648(%rip),%ymm0        # 4008 <_sk_callback_hsw+0x3ed>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,63,6,0,0            // vbroadcastss  0x63f(%rip),%ymm8        # 400c <_sk_callback_hsw+0x3f1>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,61,168,211                   // vfmadd213ps   %ymm11,%ymm8,%ymm10
-  .byte  196,65,44,89,193                    // vmulps        %ymm9,%ymm10,%ymm8
+  .byte  196,98,125,24,21,48,6,0,0           // vbroadcastss  0x630(%rip),%ymm10        # 4010 <_sk_callback_hsw+0x3f5>
+  .byte  196,98,125,24,29,43,6,0,0           // vbroadcastss  0x62b(%rip),%ymm11        # 4014 <_sk_callback_hsw+0x3f9>
+  .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
+  .byte  196,65,36,89,193                    // vmulps        %ymm9,%ymm11,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11306,30 +11070,18 @@
 FUNCTION(_sk_bicubic_n1x_hsw)
 _sk_bicubic_n1x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,14,6,0,0           // vbroadcastss  0x60e(%rip),%ymm0        # 4018 <_sk_callback_hsw+0x3fd>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,5,6,0,0             // vbroadcastss  0x605(%rip),%ymm8        # 401c <_sk_callback_hsw+0x401>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,66,61,168,202                   // vfmadd213ps   %ymm10,%ymm8,%ymm9
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  196,98,125,24,13,251,5,0,0          // vbroadcastss  0x5fb(%rip),%ymm9        # 4020 <_sk_callback_hsw+0x405>
+  .byte  196,98,125,24,21,246,5,0,0          // vbroadcastss  0x5f6(%rip),%ymm10        # 4024 <_sk_callback_hsw+0x409>
+  .byte  196,66,61,168,209                   // vfmadd213ps   %ymm9,%ymm8,%ymm10
+  .byte  196,98,125,24,13,236,5,0,0          // vbroadcastss  0x5ec(%rip),%ymm9        # 4028 <_sk_callback_hsw+0x40d>
   .byte  196,66,61,184,202                   // vfmadd231ps   %ymm10,%ymm8,%ymm9
-  .byte  197,124,17,136,128,0,0,0            // vmovups       %ymm9,0x80(%rax)
+  .byte  196,98,125,24,21,226,5,0,0          // vbroadcastss  0x5e2(%rip),%ymm10        # 402c <_sk_callback_hsw+0x411>
+  .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
+  .byte  197,124,17,144,128,0,0,0            // vmovups       %ymm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -11338,23 +11090,15 @@
 FUNCTION(_sk_bicubic_p1x_hsw)
 _sk_bicubic_p1x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,98,125,88,192                   // vpbroadcastd  %xmm0,%ymm8
+  .byte  196,98,125,24,5,202,5,0,0           // vbroadcastss  0x5ca(%rip),%ymm8        # 4030 <_sk_callback_hsw+0x415>
   .byte  197,188,88,0                        // vaddps        (%rax),%ymm8,%ymm0
   .byte  197,124,16,72,64                    // vmovups       0x40(%rax),%ymm9
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,53,168,211                   // vfmadd213ps   %ymm11,%ymm9,%ymm10
-  .byte  196,66,53,168,208                   // vfmadd213ps   %ymm8,%ymm9,%ymm10
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  196,66,53,184,194                   // vfmadd231ps   %ymm10,%ymm9,%ymm8
+  .byte  196,98,125,24,21,188,5,0,0          // vbroadcastss  0x5bc(%rip),%ymm10        # 4034 <_sk_callback_hsw+0x419>
+  .byte  196,98,125,24,29,183,5,0,0          // vbroadcastss  0x5b7(%rip),%ymm11        # 4038 <_sk_callback_hsw+0x41d>
+  .byte  196,66,53,168,218                   // vfmadd213ps   %ymm10,%ymm9,%ymm11
+  .byte  196,66,53,168,216                   // vfmadd213ps   %ymm8,%ymm9,%ymm11
+  .byte  196,98,125,24,5,168,5,0,0           // vbroadcastss  0x5a8(%rip),%ymm8        # 403c <_sk_callback_hsw+0x421>
+  .byte  196,66,53,184,195                   // vfmadd231ps   %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11364,20 +11108,14 @@
 FUNCTION(_sk_bicubic_p3x_hsw)
 _sk_bicubic_p3x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
+  .byte  196,226,125,24,5,144,5,0,0          // vbroadcastss  0x590(%rip),%ymm0        # 4040 <_sk_callback_hsw+0x425>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,61,168,211                   // vfmadd213ps   %ymm11,%ymm8,%ymm10
-  .byte  196,65,52,89,194                    // vmulps        %ymm10,%ymm9,%ymm8
+  .byte  196,98,125,24,21,125,5,0,0          // vbroadcastss  0x57d(%rip),%ymm10        # 4044 <_sk_callback_hsw+0x429>
+  .byte  196,98,125,24,29,120,5,0,0          // vbroadcastss  0x578(%rip),%ymm11        # 4048 <_sk_callback_hsw+0x42d>
+  .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
+  .byte  196,65,52,89,195                    // vmulps        %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11387,23 +11125,15 @@
 FUNCTION(_sk_bicubic_n3y_hsw)
 _sk_bicubic_n3y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,191                  // mov           $0xbfc00000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,91,5,0,0          // vbroadcastss  0x55b(%rip),%ymm1        # 404c <_sk_callback_hsw+0x431>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,81,5,0,0            // vbroadcastss  0x551(%rip),%ymm8        # 4050 <_sk_callback_hsw+0x435>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,61,168,211                   // vfmadd213ps   %ymm11,%ymm8,%ymm10
-  .byte  196,65,44,89,193                    // vmulps        %ymm9,%ymm10,%ymm8
+  .byte  196,98,125,24,21,66,5,0,0           // vbroadcastss  0x542(%rip),%ymm10        # 4054 <_sk_callback_hsw+0x439>
+  .byte  196,98,125,24,29,61,5,0,0           // vbroadcastss  0x53d(%rip),%ymm11        # 4058 <_sk_callback_hsw+0x43d>
+  .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
+  .byte  196,65,36,89,193                    // vmulps        %ymm9,%ymm11,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11413,30 +11143,18 @@
 FUNCTION(_sk_bicubic_n1y_hsw)
 _sk_bicubic_n1y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,32,5,0,0          // vbroadcastss  0x520(%rip),%ymm1        # 405c <_sk_callback_hsw+0x441>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
+  .byte  196,98,125,24,5,22,5,0,0            // vbroadcastss  0x516(%rip),%ymm8        # 4060 <_sk_callback_hsw+0x445>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,66,61,168,202                   // vfmadd213ps   %ymm10,%ymm8,%ymm9
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
+  .byte  196,98,125,24,13,12,5,0,0           // vbroadcastss  0x50c(%rip),%ymm9        # 4064 <_sk_callback_hsw+0x449>
+  .byte  196,98,125,24,21,7,5,0,0            // vbroadcastss  0x507(%rip),%ymm10        # 4068 <_sk_callback_hsw+0x44d>
+  .byte  196,66,61,168,209                   // vfmadd213ps   %ymm9,%ymm8,%ymm10
+  .byte  196,98,125,24,13,253,4,0,0          // vbroadcastss  0x4fd(%rip),%ymm9        # 406c <_sk_callback_hsw+0x451>
   .byte  196,66,61,184,202                   // vfmadd231ps   %ymm10,%ymm8,%ymm9
-  .byte  197,124,17,136,160,0,0,0            // vmovups       %ymm9,0xa0(%rax)
+  .byte  196,98,125,24,21,243,4,0,0          // vbroadcastss  0x4f3(%rip),%ymm10        # 4070 <_sk_callback_hsw+0x455>
+  .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
+  .byte  197,124,17,144,160,0,0,0            // vmovups       %ymm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -11445,23 +11163,15 @@
 FUNCTION(_sk_bicubic_p1y_hsw)
 _sk_bicubic_p1y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,98,125,88,193                   // vpbroadcastd  %xmm1,%ymm8
+  .byte  196,98,125,24,5,219,4,0,0           // vbroadcastss  0x4db(%rip),%ymm8        # 4074 <_sk_callback_hsw+0x459>
   .byte  197,188,88,72,32                    // vaddps        0x20(%rax),%ymm8,%ymm1
   .byte  197,124,16,72,96                    // vmovups       0x60(%rax),%ymm9
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,53,168,211                   // vfmadd213ps   %ymm11,%ymm9,%ymm10
-  .byte  196,66,53,168,208                   // vfmadd213ps   %ymm8,%ymm9,%ymm10
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  196,66,53,184,194                   // vfmadd231ps   %ymm10,%ymm9,%ymm8
+  .byte  196,98,125,24,21,204,4,0,0          // vbroadcastss  0x4cc(%rip),%ymm10        # 4078 <_sk_callback_hsw+0x45d>
+  .byte  196,98,125,24,29,199,4,0,0          // vbroadcastss  0x4c7(%rip),%ymm11        # 407c <_sk_callback_hsw+0x461>
+  .byte  196,66,53,168,218                   // vfmadd213ps   %ymm10,%ymm9,%ymm11
+  .byte  196,66,53,168,216                   // vfmadd213ps   %ymm8,%ymm9,%ymm11
+  .byte  196,98,125,24,5,184,4,0,0           // vbroadcastss  0x4b8(%rip),%ymm8        # 4080 <_sk_callback_hsw+0x465>
+  .byte  196,66,53,184,195                   // vfmadd231ps   %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11471,20 +11181,14 @@
 FUNCTION(_sk_bicubic_p3y_hsw)
 _sk_bicubic_p3y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
+  .byte  196,226,125,24,13,160,4,0,0         // vbroadcastss  0x4a0(%rip),%ymm1        # 4084 <_sk_callback_hsw+0x469>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,66,125,88,219                   // vpbroadcastd  %xmm11,%ymm11
-  .byte  196,66,61,168,211                   // vfmadd213ps   %ymm11,%ymm8,%ymm10
-  .byte  196,65,52,89,194                    // vmulps        %ymm10,%ymm9,%ymm8
+  .byte  196,98,125,24,21,140,4,0,0          // vbroadcastss  0x48c(%rip),%ymm10        # 4088 <_sk_callback_hsw+0x46d>
+  .byte  196,98,125,24,29,135,4,0,0          // vbroadcastss  0x487(%rip),%ymm11        # 408c <_sk_callback_hsw+0x471>
+  .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
+  .byte  196,65,52,89,195                    // vmulps        %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11570,20 +11274,80 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
-  .byte  248                                 // clc
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        4085 <.literal4+0x15>
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,191,0,0,224,64,0                // cmpb          $0x0,0x40e00000(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,145                          // cmpb          $0x91,(%rdi)
+  .byte  131,158,61,92,143,50,63             // sbbl          $0x3f,0x328f5c3d(%rsi)
+  .byte  154                                 // (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,10,215                           // ds            or  %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,41,92,71,65                      // cmp           $0x41475c29,%eax
+  .byte  168,87                              // test          $0x57,%al
+  .byte  202,189,206                         // lret          $0xcebd
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  194,135,210                         // retq          $0xd287
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  128,63,4                            // cmpb          $0x4,(%rdi)
+  .byte  231,140                             // out           %eax,$0x8c
+  .byte  59,0                                // cmp           (%rax),%eax
+  .byte  0,128,63,0,0,192                    // add           %al,-0x3fffffc1(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,128,64,171,170,42                 // add           %al,0x2aaaab40(%rax)
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  129,128,128,59,129,128,128,59,0,248 // addl          $0xf8003b80,-0x7f7ec480(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        3dfd <.literal4+0xbd>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  52,255                              // xor           $0xff,%al
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
+  .byte  129,128,128,59,128,0,128,55,0,0     // addl          $0x3780,0x803b80(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  0,52,255                            // add           %dh,(%rdi,%rdi,8)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            408c <.literal4+0x1c>
+  .byte  127,0                               // jg            3e28 <.literal4+0xe8>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4105 <.literal4+0x95>
+  .byte  119,115                             // ja            3ea1 <.literal4+0x161>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -11594,13 +11358,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            40bc <.literal4+0x4c>
+  .byte  127,0                               // jg            3e5c <.literal4+0x11c>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4135 <.literal4+0xc5>
+  .byte  119,115                             // ja            3ed5 <.literal4+0x195>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -11611,13 +11375,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            40ec <.literal4+0x7c>
+  .byte  127,0                               // jg            3e90 <.literal4+0x150>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4165 <.literal4+0xf5>
+  .byte  119,115                             // ja            3f09 <.literal4+0x1c9>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -11628,13 +11392,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            411c <.literal4+0xac>
+  .byte  127,0                               // jg            3ec4 <.literal4+0x184>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4195 <_sk_callback_hsw+0x24b>
+  .byte  119,115                             // ja            3f3d <.literal4+0x1fd>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -11645,34 +11409,149 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
+  .byte  0,128,63,0,0,200                    // add           %al,-0x37ffffc1(%rax)
+  .byte  66,0,0                              // rex.X         add %al,(%rax)
+  .byte  127,67                              // jg            3f3b <.literal4+0x1fb>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,65,203,61                       // addb          $0x3d,-0x35(%rcx)
+  .byte  13,60,111,18,3                      // or            $0x3126f3c,%eax
+  .byte  59,10                               // cmp           (%rdx),%ecx
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  163,59,194,24,17,60,203,61,13       // movabs        %eax,0xd3dcb3c1118c23b
+  .byte  190,80,128,3,62                     // mov           $0x3e038050,%esi
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           3f5b <.literal4+0x21b>
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  127,67                              // jg            3f6f <.literal4+0x22f>
+  .byte  129,128,128,59,0,0,128,63,129,128   // addl          $0x80813f80,0x3b80(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
+  .byte  0,128,63,129,128,128                // add           %al,-0x7f7f7ec1(%rax)
+  .byte  59,0                                // cmp           (%rax),%eax
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        4151 <.literal4+0xe1>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        3f51 <.literal4+0x211>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
+  .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  248                                 // clc
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        3f6d <.literal4+0x22d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        415d <.literal4+0xed>
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  124,66                              // jl            3fc2 <.literal4+0x282>
+  .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,55,0,15                 // mov           %ecx,0xf003788(%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,240,0                // mov           %ecx,0xf03988(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,59,15,0                 // mov           %ecx,0xf3b88(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,61,0,240                // mov           %ecx,-0xfffc278(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0                                   // .byte         0x0
+  .byte  137,136,136,55,0,15                 // mov           %ecx,0xf003788(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,240,0                // mov           %ecx,0xf03988(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,59,15,0                 // mov           %ecx,0xf3b88(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,61,0,0                  // mov           %ecx,0x3d88(%rax)
+  .byte  112,65                              // jo            4005 <.literal4+0x2c5>
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  127,67                              // jg            4013 <.literal4+0x2d3>
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  255                                 // (bad)
+  .byte  127,71                              // jg            4027 <.literal4+0x2e7>
+  .byte  208                                 // (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,89                               // ds            pop %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  152                                 // cwtl
+  .byte  221,147,61,0,0,0                    // fstl          0x3d(%rbx)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,128,63,171              // sarb          $0xab,0x3f800000(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,114,28,199,62                   // mov           $0x3ec71c72,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,85                           // sarb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,0,63                        // mov           $0x3f000000,%edi
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,85                           // sarb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,57,142,99,61                    // mov           $0x3d638e39,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,171                          // sarb          $0xab,(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,114,28,199,62                   // mov           $0x3ec71c72,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,128,63,171              // sarb          $0xab,0x3f800000(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,114,28,199,62                   // mov           $0x3ec71c72,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,85                           // sarb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,0,63                        // mov           $0x3f000000,%edi
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,85                           // sarb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,57,142,99,61                    // mov           $0x3d638e39,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,171                          // sarb          $0xab,(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,114,28,199,62                   // mov           $0x3ec71c72,%esi
 
 BALIGN32
   .byte  255,0                               // incl          (%rax)
@@ -11693,16 +11572,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0041a8 <_sk_callback_hsw+0xa00025e>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0040c8 <_sk_callback_hsw+0xa0004ad>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120041b0 <_sk_callback_hsw+0x12000266>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120040d0 <_sk_callback_hsw+0x120004b5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0041b8 <_sk_callback_hsw+0x1a00026e>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0040d8 <_sk_callback_hsw+0x1a0004bd>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30041c0 <_sk_callback_hsw+0x3000276>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30040e0 <_sk_callback_hsw+0x30004c5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -11745,16 +11624,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a004208 <_sk_callback_hsw+0xa0002be>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a004128 <_sk_callback_hsw+0xa00050d>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12004210 <_sk_callback_hsw+0x120002c6>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12004130 <_sk_callback_hsw+0x12000515>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a004218 <_sk_callback_hsw+0x1a0002ce>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a004138 <_sk_callback_hsw+0x1a00051d>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3004220 <_sk_callback_hsw+0x30002d6>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3004140 <_sk_callback_hsw+0x3000525>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -11797,16 +11676,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a004268 <_sk_callback_hsw+0xa00031e>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a004188 <_sk_callback_hsw+0xa00056d>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12004270 <_sk_callback_hsw+0x12000326>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12004190 <_sk_callback_hsw+0x12000575>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a004278 <_sk_callback_hsw+0x1a00032e>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a004198 <_sk_callback_hsw+0x1a00057d>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3004280 <_sk_callback_hsw+0x3000336>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30041a0 <_sk_callback_hsw+0x3000585>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -11849,16 +11728,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0042c8 <_sk_callback_hsw+0xa00037e>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0041e8 <_sk_callback_hsw+0xa0005cd>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120042d0 <_sk_callback_hsw+0x12000386>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120041f0 <_sk_callback_hsw+0x120005d5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0042d8 <_sk_callback_hsw+0x1a00038e>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0041f8 <_sk_callback_hsw+0x1a0005dd>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30042e0 <_sk_callback_hsw+0x3000396>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3004200 <_sk_callback_hsw+0x30005e5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -11979,14 +11858,14 @@
   .byte  197,249,112,192,0                   // vpshufd       $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,75,90,0,0         // vbroadcastss  0x5a4b(%rip),%ymm1        # 5b14 <_sk_callback_avx+0x126>
+  .byte  196,226,125,24,13,107,83,0,0        // vbroadcastss  0x536b(%rip),%ymm1        # 5434 <_sk_callback_avx+0x126>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  197,252,88,2                        // vaddps        (%rdx),%ymm0,%ymm0
   .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  197,236,88,201                      // vaddps        %ymm1,%ymm2,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,21,47,90,0,0         // vbroadcastss  0x5a2f(%rip),%ymm2        # 5b18 <_sk_callback_avx+0x12a>
+  .byte  196,226,125,24,21,79,83,0,0         // vbroadcastss  0x534f(%rip),%ymm2        # 5438 <_sk_callback_avx+0x12a>
   .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
@@ -12021,22 +11900,19 @@
 .globl _sk_srcatop_avx
 FUNCTION(_sk_srcatop_avx)
 _sk_srcatop_avx:
-  .byte  197,124,89,199                      // vmulps        %ymm7,%ymm0,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,124,92,203                      // vsubps        %ymm3,%ymm0,%ymm9
-  .byte  197,180,89,196                      // vmulps        %ymm4,%ymm9,%ymm0
-  .byte  197,188,88,192                      // vaddps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  196,98,125,24,5,255,82,0,0          // vbroadcastss  0x52ff(%rip),%ymm8        # 543c <_sk_callback_avx+0x12e>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  197,60,89,204                       // vmulps        %ymm4,%ymm8,%ymm9
+  .byte  197,180,88,192                      // vaddps        %ymm0,%ymm9,%ymm0
   .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
-  .byte  197,52,89,197                       // vmulps        %ymm5,%ymm9,%ymm8
-  .byte  196,193,116,88,200                  // vaddps        %ymm8,%ymm1,%ymm1
+  .byte  197,60,89,205                       // vmulps        %ymm5,%ymm8,%ymm9
+  .byte  197,180,88,201                      // vaddps        %ymm1,%ymm9,%ymm1
   .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
-  .byte  197,52,89,198                       // vmulps        %ymm6,%ymm9,%ymm8
-  .byte  196,193,108,88,208                  // vaddps        %ymm8,%ymm2,%ymm2
+  .byte  197,60,89,206                       // vmulps        %ymm6,%ymm8,%ymm9
+  .byte  197,180,88,210                      // vaddps        %ymm2,%ymm9,%ymm2
   .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
-  .byte  197,52,89,199                       // vmulps        %ymm7,%ymm9,%ymm8
+  .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  196,193,100,88,216                  // vaddps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12046,10 +11922,7 @@
 FUNCTION(_sk_dstatop_avx)
 _sk_dstatop_avx:
   .byte  197,100,89,196                      // vmulps        %ymm4,%ymm3,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
+  .byte  196,98,125,24,13,193,82,0,0         // vbroadcastss  0x52c1(%rip),%ymm9        # 5440 <_sk_callback_avx+0x132>
   .byte  197,52,92,207                       // vsubps        %ymm7,%ymm9,%ymm9
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,188,88,192                      // vaddps        %ymm0,%ymm8,%ymm0
@@ -12091,10 +11964,7 @@
 .globl _sk_srcout_avx
 FUNCTION(_sk_srcout_avx)
 _sk_srcout_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,96,82,0,0           // vbroadcastss  0x5260(%rip),%ymm8        # 5444 <_sk_callback_avx+0x136>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -12107,10 +11977,7 @@
 .globl _sk_dstout_avx
 FUNCTION(_sk_dstout_avx)
 _sk_dstout_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
+  .byte  196,226,125,24,5,67,82,0,0          // vbroadcastss  0x5243(%rip),%ymm0        # 5448 <_sk_callback_avx+0x13a>
   .byte  197,252,92,219                      // vsubps        %ymm3,%ymm0,%ymm3
   .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
   .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
@@ -12123,10 +11990,7 @@
 .globl _sk_srcover_avx
 FUNCTION(_sk_srcover_avx)
 _sk_srcover_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,38,82,0,0           // vbroadcastss  0x5226(%rip),%ymm8        # 544c <_sk_callback_avx+0x13e>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,204                       // vmulps        %ymm4,%ymm8,%ymm9
   .byte  197,180,88,192                      // vaddps        %ymm0,%ymm9,%ymm0
@@ -12143,10 +12007,7 @@
 .globl _sk_dstover_avx
 FUNCTION(_sk_dstover_avx)
 _sk_dstover_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,249,81,0,0          // vbroadcastss  0x51f9(%rip),%ymm8        # 5450 <_sk_callback_avx+0x142>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
@@ -12174,15 +12035,12 @@
 .globl _sk_multiply_avx
 FUNCTION(_sk_multiply_avx)
 _sk_multiply_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,184,81,0,0          // vbroadcastss  0x51b8(%rip),%ymm8        # 5454 <_sk_callback_avx+0x146>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
+  .byte  196,65,36,88,210                    // vaddps        %ymm10,%ymm11,%ymm10
   .byte  197,252,89,196                      // vmulps        %ymm4,%ymm0,%ymm0
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
   .byte  197,52,89,209                       // vmulps        %ymm1,%ymm9,%ymm10
@@ -12237,15 +12095,12 @@
 .globl _sk_xor__avx
 FUNCTION(_sk_xor__avx)
 _sk_xor__avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,7,81,0,0            // vbroadcastss  0x5107(%rip),%ymm8        # 5458 <_sk_callback_avx+0x14a>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,212                       // vmulps        %ymm4,%ymm8,%ymm10
-  .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
+  .byte  197,172,88,192                      // vaddps        %ymm0,%ymm10,%ymm0
   .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
   .byte  197,60,89,213                       // vmulps        %ymm5,%ymm8,%ymm10
   .byte  197,172,88,201                      // vaddps        %ymm1,%ymm10,%ymm1
@@ -12277,10 +12132,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,95,209                  // vmaxps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,135,80,0,0          // vbroadcastss  0x5087(%rip),%ymm8        # 545c <_sk_callback_avx+0x14e>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -12306,10 +12158,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,51,80,0,0           // vbroadcastss  0x5033(%rip),%ymm8        # 5460 <_sk_callback_avx+0x152>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -12338,10 +12187,7 @@
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,211,79,0,0          // vbroadcastss  0x4fd3(%rip),%ymm8        # 5464 <_sk_callback_avx+0x156>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -12364,10 +12210,7 @@
   .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,142,79,0,0          // vbroadcastss  0x4f8e(%rip),%ymm8        # 5468 <_sk_callback_avx+0x15a>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -12378,10 +12221,7 @@
 .globl _sk_colorburn_avx
 FUNCTION(_sk_colorburn_avx)
 _sk_colorburn_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,121,79,0,0          // vbroadcastss  0x4f79(%rip),%ymm8        # 546c <_sk_callback_avx+0x15e>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,216                       // vmulps        %ymm0,%ymm9,%ymm11
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
@@ -12393,7 +12233,7 @@
   .byte  196,65,68,93,237                    // vminps        %ymm13,%ymm7,%ymm13
   .byte  196,65,68,92,237                    // vsubps        %ymm13,%ymm7,%ymm13
   .byte  197,20,89,235                       // vmulps        %ymm3,%ymm13,%ymm13
-  .byte  196,65,20,88,235                    // vaddps        %ymm11,%ymm13,%ymm13
+  .byte  196,65,36,88,237                    // vaddps        %ymm13,%ymm11,%ymm13
   .byte  196,65,28,88,237                    // vaddps        %ymm13,%ymm12,%ymm13
   .byte  197,28,88,224                       // vaddps        %ymm0,%ymm12,%ymm12
   .byte  196,193,124,194,194,0               // vcmpeqps      %ymm10,%ymm0,%ymm0
@@ -12443,10 +12283,7 @@
 FUNCTION(_sk_colordodge_avx)
 _sk_colordodge_avx:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
+  .byte  196,98,125,24,13,117,78,0,0         // vbroadcastss  0x4e75(%rip),%ymm9        # 5470 <_sk_callback_avx+0x162>
   .byte  197,52,92,215                       // vsubps        %ymm7,%ymm9,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,52,92,203                       // vsubps        %ymm3,%ymm9,%ymm9
@@ -12456,7 +12293,7 @@
   .byte  197,52,89,236                       // vmulps        %ymm4,%ymm9,%ymm13
   .byte  196,65,68,93,228                    // vminps        %ymm12,%ymm7,%ymm12
   .byte  197,28,89,227                       // vmulps        %ymm3,%ymm12,%ymm12
-  .byte  196,65,28,88,227                    // vaddps        %ymm11,%ymm12,%ymm12
+  .byte  196,65,36,88,228                    // vaddps        %ymm12,%ymm11,%ymm12
   .byte  196,65,20,88,228                    // vaddps        %ymm12,%ymm13,%ymm12
   .byte  197,20,88,232                       // vaddps        %ymm0,%ymm13,%ymm13
   .byte  197,252,194,195,0                   // vcmpeqps      %ymm3,%ymm0,%ymm0
@@ -12471,7 +12308,7 @@
   .byte  197,52,89,237                       // vmulps        %ymm5,%ymm9,%ymm13
   .byte  196,65,68,93,228                    // vminps        %ymm12,%ymm7,%ymm12
   .byte  197,28,89,227                       // vmulps        %ymm3,%ymm12,%ymm12
-  .byte  196,65,28,88,227                    // vaddps        %ymm11,%ymm12,%ymm12
+  .byte  196,65,36,88,228                    // vaddps        %ymm12,%ymm11,%ymm12
   .byte  196,65,20,88,228                    // vaddps        %ymm12,%ymm13,%ymm12
   .byte  197,20,88,233                       // vaddps        %ymm1,%ymm13,%ymm13
   .byte  197,244,194,203,0                   // vcmpeqps      %ymm3,%ymm1,%ymm1
@@ -12503,15 +12340,12 @@
 .globl _sk_hardlight_avx
 FUNCTION(_sk_hardlight_avx)
 _sk_hardlight_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,135,77,0,0          // vbroadcastss  0x4d87(%rip),%ymm8        # 5474 <_sk_callback_avx+0x166>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,200                       // vmulps        %ymm0,%ymm10,%ymm9
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,65,52,88,219                    // vaddps        %ymm11,%ymm9,%ymm11
+  .byte  196,65,36,88,217                    // vaddps        %ymm9,%ymm11,%ymm11
   .byte  197,124,88,200                      // vaddps        %ymm0,%ymm0,%ymm9
   .byte  197,52,194,227,2                    // vcmpleps      %ymm3,%ymm9,%ymm12
   .byte  197,124,89,204                      // vmulps        %ymm4,%ymm0,%ymm9
@@ -12523,7 +12357,7 @@
   .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
   .byte  196,195,125,74,197,192              // vblendvps     %ymm12,%ymm13,%ymm0,%ymm0
-  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
   .byte  197,44,89,217                       // vmulps        %ymm1,%ymm10,%ymm11
   .byte  197,60,89,229                       // vmulps        %ymm5,%ymm8,%ymm12
   .byte  196,65,28,88,219                    // vaddps        %ymm11,%ymm12,%ymm11
@@ -12537,7 +12371,7 @@
   .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
   .byte  197,180,92,201                      // vsubps        %ymm1,%ymm9,%ymm1
   .byte  196,195,117,74,205,192              // vblendvps     %ymm12,%ymm13,%ymm1,%ymm1
-  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
   .byte  197,44,89,210                       // vmulps        %ymm2,%ymm10,%ymm10
   .byte  197,60,89,222                       // vmulps        %ymm6,%ymm8,%ymm11
   .byte  196,65,36,88,210                    // vaddps        %ymm10,%ymm11,%ymm10
@@ -12551,7 +12385,7 @@
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,180,92,210                      // vsubps        %ymm2,%ymm9,%ymm2
   .byte  196,195,109,74,212,176              // vblendvps     %ymm11,%ymm12,%ymm2,%ymm2
-  .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
+  .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -12561,15 +12395,12 @@
 .globl _sk_overlay_avx
 FUNCTION(_sk_overlay_avx)
 _sk_overlay_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,176,76,0,0          // vbroadcastss  0x4cb0(%rip),%ymm8        # 5478 <_sk_callback_avx+0x16a>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,200                       // vmulps        %ymm0,%ymm10,%ymm9
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,65,52,88,219                    // vaddps        %ymm11,%ymm9,%ymm11
+  .byte  196,65,36,88,217                    // vaddps        %ymm9,%ymm11,%ymm11
   .byte  197,92,88,204                       // vaddps        %ymm4,%ymm4,%ymm9
   .byte  197,52,194,231,2                    // vcmpleps      %ymm7,%ymm9,%ymm12
   .byte  197,124,89,204                      // vmulps        %ymm4,%ymm0,%ymm9
@@ -12581,7 +12412,7 @@
   .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
   .byte  196,195,125,74,197,192              // vblendvps     %ymm12,%ymm13,%ymm0,%ymm0
-  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
   .byte  197,44,89,217                       // vmulps        %ymm1,%ymm10,%ymm11
   .byte  197,60,89,229                       // vmulps        %ymm5,%ymm8,%ymm12
   .byte  196,65,28,88,219                    // vaddps        %ymm11,%ymm12,%ymm11
@@ -12595,7 +12426,7 @@
   .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
   .byte  197,180,92,201                      // vsubps        %ymm1,%ymm9,%ymm1
   .byte  196,195,117,74,205,192              // vblendvps     %ymm12,%ymm13,%ymm1,%ymm1
-  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
   .byte  197,44,89,210                       // vmulps        %ymm2,%ymm10,%ymm10
   .byte  197,60,89,222                       // vmulps        %ymm6,%ymm8,%ymm11
   .byte  196,65,36,88,210                    // vaddps        %ymm10,%ymm11,%ymm10
@@ -12609,7 +12440,7 @@
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,180,92,210                      // vsubps        %ymm2,%ymm9,%ymm2
   .byte  196,195,109,74,212,176              // vblendvps     %ymm11,%ymm12,%ymm2,%ymm2
-  .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
+  .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -12621,115 +12452,112 @@
 _sk_softlight_avx:
   .byte  197,252,17,84,36,200                // vmovups       %ymm2,-0x38(%rsp)
   .byte  197,252,40,209                      // vmovaps       %ymm1,%ymm2
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  197,52,194,215,1                    // vcmpltps      %ymm7,%ymm9,%ymm10
   .byte  197,92,94,199                       // vdivps        %ymm7,%ymm4,%ymm8
-  .byte  196,67,53,74,216,160                // vblendvps     %ymm10,%ymm8,%ymm9,%ymm11
-  .byte  196,65,36,88,195                    // vaddps        %ymm11,%ymm11,%ymm8
-  .byte  196,65,60,88,224                    // vaddps        %ymm8,%ymm8,%ymm12
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  196,65,28,89,236                    // vmulps        %ymm12,%ymm12,%ymm13
-  .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
-  .byte  196,65,36,92,232                    // vsubps        %ymm8,%ymm11,%ymm13
-  .byte  196,65,28,89,237                    // vmulps        %ymm13,%ymm12,%ymm13
-  .byte  184,0,0,224,64                      // mov           $0x40e00000,%eax
-  .byte  197,121,110,224                     // vmovd         %eax,%xmm12
-  .byte  196,67,121,4,228,0                  // vpermilps     $0x0,%xmm12,%xmm12
-  .byte  196,67,29,24,228,1                  // vinsertf128   $0x1,%xmm12,%ymm12,%ymm12
-  .byte  196,65,36,89,244                    // vmulps        %ymm12,%ymm11,%ymm14
-  .byte  196,65,20,88,238                    // vaddps        %ymm14,%ymm13,%ymm13
-  .byte  196,65,124,82,243                   // vrsqrtps      %ymm11,%ymm14
+  .byte  196,67,53,74,224,160                // vblendvps     %ymm10,%ymm8,%ymm9,%ymm12
+  .byte  196,65,28,88,196                    // vaddps        %ymm12,%ymm12,%ymm8
+  .byte  196,65,60,88,192                    // vaddps        %ymm8,%ymm8,%ymm8
+  .byte  196,65,60,89,216                    // vmulps        %ymm8,%ymm8,%ymm11
+  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,29,167,75,0,0         // vbroadcastss  0x4ba7(%rip),%ymm11        # 5480 <_sk_callback_avx+0x172>
+  .byte  196,65,28,88,235                    // vaddps        %ymm11,%ymm12,%ymm13
+  .byte  196,65,20,89,192                    // vmulps        %ymm8,%ymm13,%ymm8
+  .byte  196,98,125,24,45,152,75,0,0         // vbroadcastss  0x4b98(%rip),%ymm13        # 5484 <_sk_callback_avx+0x176>
+  .byte  196,65,28,89,245                    // vmulps        %ymm13,%ymm12,%ymm14
+  .byte  196,65,12,88,192                    // vaddps        %ymm8,%ymm14,%ymm8
+  .byte  196,65,124,82,244                   // vrsqrtps      %ymm12,%ymm14
   .byte  196,65,124,83,246                   // vrcpps        %ymm14,%ymm14
-  .byte  196,65,12,92,243                    // vsubps        %ymm11,%ymm14,%ymm14
+  .byte  196,65,12,92,244                    // vsubps        %ymm12,%ymm14,%ymm14
   .byte  197,92,88,252                       // vaddps        %ymm4,%ymm4,%ymm15
   .byte  196,65,4,88,255                     // vaddps        %ymm15,%ymm15,%ymm15
   .byte  197,4,194,255,2                     // vcmpleps      %ymm7,%ymm15,%ymm15
-  .byte  196,67,13,74,237,240                // vblendvps     %ymm15,%ymm13,%ymm14,%ymm13
+  .byte  196,67,13,74,240,240                // vblendvps     %ymm15,%ymm8,%ymm14,%ymm14
+  .byte  197,116,88,249                      // vaddps        %ymm1,%ymm1,%ymm15
+  .byte  196,98,125,24,5,86,75,0,0           // vbroadcastss  0x4b56(%rip),%ymm8        # 547c <_sk_callback_avx+0x16e>
+  .byte  196,65,60,92,228                    // vsubps        %ymm12,%ymm8,%ymm12
+  .byte  197,132,92,195                      // vsubps        %ymm3,%ymm15,%ymm0
+  .byte  196,65,124,89,228                   // vmulps        %ymm12,%ymm0,%ymm12
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  196,193,124,89,198                  // vmulps        %ymm14,%ymm0,%ymm0
+  .byte  197,100,89,244                      // vmulps        %ymm4,%ymm3,%ymm14
+  .byte  197,140,88,192                      // vaddps        %ymm0,%ymm14,%ymm0
+  .byte  197,28,88,227                       // vaddps        %ymm3,%ymm12,%ymm12
+  .byte  197,28,89,228                       // vmulps        %ymm4,%ymm12,%ymm12
+  .byte  197,4,194,243,2                     // vcmpleps      %ymm3,%ymm15,%ymm14
+  .byte  196,195,125,74,196,224              // vblendvps     %ymm14,%ymm12,%ymm0,%ymm0
+  .byte  197,252,17,68,36,168                // vmovups       %ymm0,-0x58(%rsp)
+  .byte  197,212,94,199                      // vdivps        %ymm7,%ymm5,%ymm0
+  .byte  196,227,53,74,192,160               // vblendvps     %ymm10,%ymm0,%ymm9,%ymm0
   .byte  197,124,88,240                      // vaddps        %ymm0,%ymm0,%ymm14
-  .byte  197,12,92,251                       // vsubps        %ymm3,%ymm14,%ymm15
-  .byte  196,65,60,92,219                    // vsubps        %ymm11,%ymm8,%ymm11
-  .byte  196,65,4,89,219                     // vmulps        %ymm11,%ymm15,%ymm11
-  .byte  197,36,88,219                       // vaddps        %ymm3,%ymm11,%ymm11
-  .byte  197,36,89,220                       // vmulps        %ymm4,%ymm11,%ymm11
-  .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
-  .byte  196,65,4,89,237                     // vmulps        %ymm13,%ymm15,%ymm13
-  .byte  197,100,89,252                      // vmulps        %ymm4,%ymm3,%ymm15
-  .byte  196,65,4,88,237                     // vaddps        %ymm13,%ymm15,%ymm13
-  .byte  197,12,194,243,2                    // vcmpleps      %ymm3,%ymm14,%ymm14
-  .byte  196,195,21,74,203,224               // vblendvps     %ymm14,%ymm11,%ymm13,%ymm1
-  .byte  197,84,94,239                       // vdivps        %ymm7,%ymm5,%ymm13
-  .byte  196,67,53,74,237,160                // vblendvps     %ymm10,%ymm13,%ymm9,%ymm13
-  .byte  196,65,20,88,245                    // vaddps        %ymm13,%ymm13,%ymm14
   .byte  196,65,12,88,246                    // vaddps        %ymm14,%ymm14,%ymm14
   .byte  196,65,12,89,254                    // vmulps        %ymm14,%ymm14,%ymm15
   .byte  196,65,12,88,247                    // vaddps        %ymm15,%ymm14,%ymm14
-  .byte  196,65,20,92,248                    // vsubps        %ymm8,%ymm13,%ymm15
+  .byte  196,65,124,88,251                   // vaddps        %ymm11,%ymm0,%ymm15
   .byte  196,65,4,89,246                     // vmulps        %ymm14,%ymm15,%ymm14
-  .byte  196,65,28,89,253                    // vmulps        %ymm13,%ymm12,%ymm15
+  .byte  196,65,124,89,253                   // vmulps        %ymm13,%ymm0,%ymm15
   .byte  196,65,4,88,246                     // vaddps        %ymm14,%ymm15,%ymm14
-  .byte  196,65,124,82,253                   // vrsqrtps      %ymm13,%ymm15
+  .byte  197,124,82,248                      // vrsqrtps      %ymm0,%ymm15
   .byte  196,65,124,83,255                   // vrcpps        %ymm15,%ymm15
-  .byte  196,65,4,92,253                     // vsubps        %ymm13,%ymm15,%ymm15
-  .byte  197,84,88,221                       // vaddps        %ymm5,%ymm5,%ymm11
-  .byte  196,65,36,88,219                    // vaddps        %ymm11,%ymm11,%ymm11
-  .byte  197,36,194,223,2                    // vcmpleps      %ymm7,%ymm11,%ymm11
-  .byte  196,67,5,74,222,176                 // vblendvps     %ymm11,%ymm14,%ymm15,%ymm11
-  .byte  197,108,88,242                      // vaddps        %ymm2,%ymm2,%ymm14
-  .byte  196,65,60,92,237                    // vsubps        %ymm13,%ymm8,%ymm13
-  .byte  197,12,92,251                       // vsubps        %ymm3,%ymm14,%ymm15
-  .byte  196,65,4,89,237                     // vmulps        %ymm13,%ymm15,%ymm13
-  .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
-  .byte  196,65,4,89,219                     // vmulps        %ymm11,%ymm15,%ymm11
-  .byte  197,100,89,253                      // vmulps        %ymm5,%ymm3,%ymm15
-  .byte  196,65,4,88,219                     // vaddps        %ymm11,%ymm15,%ymm11
-  .byte  197,20,88,235                       // vaddps        %ymm3,%ymm13,%ymm13
-  .byte  197,20,89,237                       // vmulps        %ymm5,%ymm13,%ymm13
-  .byte  197,12,194,243,2                    // vcmpleps      %ymm3,%ymm14,%ymm14
-  .byte  196,67,37,74,237,224                // vblendvps     %ymm14,%ymm13,%ymm11,%ymm13
-  .byte  197,76,94,223                       // vdivps        %ymm7,%ymm6,%ymm11
-  .byte  196,67,53,74,203,160                // vblendvps     %ymm10,%ymm11,%ymm9,%ymm9
-  .byte  196,65,52,88,209                    // vaddps        %ymm9,%ymm9,%ymm10
-  .byte  196,65,44,88,210                    // vaddps        %ymm10,%ymm10,%ymm10
-  .byte  196,65,44,89,218                    // vmulps        %ymm10,%ymm10,%ymm11
-  .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
-  .byte  196,65,52,92,216                    // vsubps        %ymm8,%ymm9,%ymm11
-  .byte  196,65,36,89,210                    // vmulps        %ymm10,%ymm11,%ymm10
-  .byte  196,65,28,89,217                    // vmulps        %ymm9,%ymm12,%ymm11
-  .byte  196,65,36,88,210                    // vaddps        %ymm10,%ymm11,%ymm10
-  .byte  196,65,124,82,217                   // vrsqrtps      %ymm9,%ymm11
-  .byte  196,65,124,83,219                   // vrcpps        %ymm11,%ymm11
-  .byte  196,65,36,92,217                    // vsubps        %ymm9,%ymm11,%ymm11
-  .byte  197,76,88,230                       // vaddps        %ymm6,%ymm6,%ymm12
+  .byte  197,4,92,248                        // vsubps        %ymm0,%ymm15,%ymm15
+  .byte  197,84,88,229                       // vaddps        %ymm5,%ymm5,%ymm12
   .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
   .byte  197,28,194,231,2                    // vcmpleps      %ymm7,%ymm12,%ymm12
-  .byte  196,67,37,74,210,192                // vblendvps     %ymm12,%ymm10,%ymm11,%ymm10
-  .byte  197,124,16,116,36,200               // vmovups       -0x38(%rsp),%ymm14
-  .byte  196,65,12,88,222                    // vaddps        %ymm14,%ymm14,%ymm11
-  .byte  197,36,92,227                       // vsubps        %ymm3,%ymm11,%ymm12
-  .byte  196,65,60,92,201                    // vsubps        %ymm9,%ymm8,%ymm9
-  .byte  196,65,28,89,201                    // vmulps        %ymm9,%ymm12,%ymm9
-  .byte  197,28,89,231                       // vmulps        %ymm7,%ymm12,%ymm12
-  .byte  196,65,28,89,210                    // vmulps        %ymm10,%ymm12,%ymm10
-  .byte  197,100,89,230                      // vmulps        %ymm6,%ymm3,%ymm12
-  .byte  196,65,28,88,210                    // vaddps        %ymm10,%ymm12,%ymm10
-  .byte  197,52,88,203                       // vaddps        %ymm3,%ymm9,%ymm9
-  .byte  197,52,89,206                       // vmulps        %ymm6,%ymm9,%ymm9
-  .byte  197,36,194,219,2                    // vcmpleps      %ymm3,%ymm11,%ymm11
+  .byte  196,67,5,74,230,192                 // vblendvps     %ymm12,%ymm14,%ymm15,%ymm12
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,108,88,242                      // vaddps        %ymm2,%ymm2,%ymm14
+  .byte  197,12,92,251                       // vsubps        %ymm3,%ymm14,%ymm15
+  .byte  197,132,89,192                      // vmulps        %ymm0,%ymm15,%ymm0
+  .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
+  .byte  196,65,4,89,228                     // vmulps        %ymm12,%ymm15,%ymm12
+  .byte  197,100,89,253                      // vmulps        %ymm5,%ymm3,%ymm15
+  .byte  196,65,4,88,228                     // vaddps        %ymm12,%ymm15,%ymm12
+  .byte  197,252,88,195                      // vaddps        %ymm3,%ymm0,%ymm0
+  .byte  197,252,89,197                      // vmulps        %ymm5,%ymm0,%ymm0
+  .byte  197,12,194,243,2                    // vcmpleps      %ymm3,%ymm14,%ymm14
+  .byte  196,99,29,74,240,224                // vblendvps     %ymm14,%ymm0,%ymm12,%ymm14
+  .byte  197,204,94,199                      // vdivps        %ymm7,%ymm6,%ymm0
+  .byte  196,227,53,74,192,160               // vblendvps     %ymm10,%ymm0,%ymm9,%ymm0
+  .byte  197,124,88,200                      // vaddps        %ymm0,%ymm0,%ymm9
+  .byte  196,65,52,88,201                    // vaddps        %ymm9,%ymm9,%ymm9
+  .byte  196,65,52,89,209                    // vmulps        %ymm9,%ymm9,%ymm10
+  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
+  .byte  196,65,124,88,211                   // vaddps        %ymm11,%ymm0,%ymm10
+  .byte  196,65,44,89,201                    // vmulps        %ymm9,%ymm10,%ymm9
+  .byte  196,65,124,89,213                   // vmulps        %ymm13,%ymm0,%ymm10
+  .byte  196,65,44,88,201                    // vaddps        %ymm9,%ymm10,%ymm9
+  .byte  197,124,82,208                      // vrsqrtps      %ymm0,%ymm10
+  .byte  196,65,124,83,210                   // vrcpps        %ymm10,%ymm10
+  .byte  197,44,92,208                       // vsubps        %ymm0,%ymm10,%ymm10
+  .byte  197,76,88,222                       // vaddps        %ymm6,%ymm6,%ymm11
+  .byte  196,65,36,88,219                    // vaddps        %ymm11,%ymm11,%ymm11
+  .byte  197,36,194,223,2                    // vcmpleps      %ymm7,%ymm11,%ymm11
   .byte  196,67,45,74,201,176                // vblendvps     %ymm11,%ymm9,%ymm10,%ymm9
+  .byte  197,124,16,100,36,200               // vmovups       -0x38(%rsp),%ymm12
+  .byte  196,65,28,88,212                    // vaddps        %ymm12,%ymm12,%ymm10
+  .byte  197,44,92,219                       // vsubps        %ymm3,%ymm10,%ymm11
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,164,89,192                      // vmulps        %ymm0,%ymm11,%ymm0
+  .byte  197,36,89,223                       // vmulps        %ymm7,%ymm11,%ymm11
+  .byte  196,65,36,89,201                    // vmulps        %ymm9,%ymm11,%ymm9
+  .byte  197,100,89,222                      // vmulps        %ymm6,%ymm3,%ymm11
+  .byte  196,65,36,88,201                    // vaddps        %ymm9,%ymm11,%ymm9
+  .byte  197,252,88,195                      // vaddps        %ymm3,%ymm0,%ymm0
+  .byte  197,252,89,198                      // vmulps        %ymm6,%ymm0,%ymm0
+  .byte  197,44,194,211,2                    // vcmpleps      %ymm3,%ymm10,%ymm10
+  .byte  196,99,53,74,200,160                // vblendvps     %ymm10,%ymm0,%ymm9,%ymm9
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
-  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  197,172,89,193                      // vmulps        %ymm1,%ymm10,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  197,60,89,220                       // vmulps        %ymm4,%ymm8,%ymm11
-  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  197,188,89,204                      // vmulps        %ymm4,%ymm8,%ymm1
   .byte  197,244,88,192                      // vaddps        %ymm0,%ymm1,%ymm0
+  .byte  197,252,88,68,36,168                // vaddps        -0x58(%rsp),%ymm0,%ymm0
   .byte  197,172,89,202                      // vmulps        %ymm2,%ymm10,%ymm1
   .byte  197,188,89,213                      // vmulps        %ymm5,%ymm8,%ymm2
   .byte  197,236,88,201                      // vaddps        %ymm1,%ymm2,%ymm1
-  .byte  196,193,116,88,205                  // vaddps        %ymm13,%ymm1,%ymm1
-  .byte  196,193,44,89,214                   // vmulps        %ymm14,%ymm10,%ymm2
+  .byte  196,193,116,88,206                  // vaddps        %ymm14,%ymm1,%ymm1
+  .byte  196,193,44,89,212                   // vmulps        %ymm12,%ymm10,%ymm2
   .byte  197,60,89,214                       // vmulps        %ymm6,%ymm8,%ymm10
   .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
   .byte  196,193,108,88,209                  // vaddps        %ymm9,%ymm2,%ymm2
@@ -12754,10 +12582,7 @@
 .globl _sk_clamp_1_avx
 FUNCTION(_sk_clamp_1_avx)
 _sk_clamp_1_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,166,73,0,0          // vbroadcastss  0x49a6(%rip),%ymm8        # 5488 <_sk_callback_avx+0x17a>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
@@ -12769,10 +12594,7 @@
 .globl _sk_clamp_a_avx
 FUNCTION(_sk_clamp_a_avx)
 _sk_clamp_a_avx:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,137,73,0,0          // vbroadcastss  0x4989(%rip),%ymm8        # 548c <_sk_callback_avx+0x17e>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
   .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
@@ -12858,10 +12680,7 @@
 _sk_unpremul_avx:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,65,100,194,200,0                // vcmpeqps      %ymm8,%ymm3,%ymm9
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
+  .byte  196,98,125,24,21,209,72,0,0         // vbroadcastss  0x48d1(%rip),%ymm10        # 5490 <_sk_callback_avx+0x182>
   .byte  197,44,94,211                       // vdivps        %ymm3,%ymm10,%ymm10
   .byte  196,67,45,74,192,144                // vblendvps     %ymm9,%ymm8,%ymm10,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
@@ -12874,49 +12693,34 @@
 .globl _sk_from_srgb_avx
 FUNCTION(_sk_from_srgb_avx)
 _sk_from_srgb_avx:
-  .byte  184,145,131,158,61                  // mov           $0x3d9e8391,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  196,98,125,24,5,178,72,0,0          // vbroadcastss  0x48b2(%rip),%ymm8        # 5494 <_sk_callback_avx+0x186>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  197,124,89,208                      // vmulps        %ymm0,%ymm0,%ymm10
-  .byte  184,154,153,153,62                  // mov           $0x3e99999a,%eax
-  .byte  197,121,110,216                     // vmovd         %eax,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
-  .byte  184,92,143,50,63                    // mov           $0x3f328f5c,%eax
-  .byte  197,121,110,224                     // vmovd         %eax,%xmm12
-  .byte  196,67,121,4,228,0                  // vpermilps     $0x0,%xmm12,%xmm12
-  .byte  196,67,29,24,228,1                  // vinsertf128   $0x1,%xmm12,%ymm12,%ymm12
-  .byte  197,36,89,232                       // vmulps        %ymm0,%ymm11,%ymm13
-  .byte  196,65,20,88,236                    // vaddps        %ymm12,%ymm13,%ymm13
-  .byte  184,10,215,35,59                    // mov           $0x3b23d70a,%eax
-  .byte  197,121,110,240                     // vmovd         %eax,%xmm14
-  .byte  196,67,121,4,246,0                  // vpermilps     $0x0,%xmm14,%xmm14
-  .byte  196,67,13,24,246,1                  // vinsertf128   $0x1,%xmm14,%ymm14,%ymm14
-  .byte  196,65,44,89,213                    // vmulps        %ymm13,%ymm10,%ymm10
-  .byte  196,65,12,88,210                    // vaddps        %ymm10,%ymm14,%ymm10
-  .byte  184,174,71,97,61                    // mov           $0x3d6147ae,%eax
-  .byte  197,121,110,232                     // vmovd         %eax,%xmm13
-  .byte  196,67,121,4,237,0                  // vpermilps     $0x0,%xmm13,%xmm13
-  .byte  196,67,21,24,237,1                  // vinsertf128   $0x1,%xmm13,%ymm13,%ymm13
-  .byte  196,193,124,194,197,1               // vcmpltps      %ymm13,%ymm0,%ymm0
+  .byte  196,98,125,24,29,164,72,0,0         // vbroadcastss  0x48a4(%rip),%ymm11        # 5498 <_sk_callback_avx+0x18a>
+  .byte  196,65,124,89,227                   // vmulps        %ymm11,%ymm0,%ymm12
+  .byte  196,98,125,24,45,154,72,0,0         // vbroadcastss  0x489a(%rip),%ymm13        # 549c <_sk_callback_avx+0x18e>
+  .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
+  .byte  196,65,44,89,212                    // vmulps        %ymm12,%ymm10,%ymm10
+  .byte  196,98,125,24,37,139,72,0,0         // vbroadcastss  0x488b(%rip),%ymm12        # 54a0 <_sk_callback_avx+0x192>
+  .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
+  .byte  196,98,125,24,53,129,72,0,0         // vbroadcastss  0x4881(%rip),%ymm14        # 54a4 <_sk_callback_avx+0x196>
+  .byte  196,193,124,194,198,1               // vcmpltps      %ymm14,%ymm0,%ymm0
   .byte  196,195,45,74,193,0                 // vblendvps     %ymm0,%ymm9,%ymm10,%ymm0
-  .byte  197,60,89,201                       // vmulps        %ymm1,%ymm8,%ymm9
+  .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
   .byte  197,116,89,209                      // vmulps        %ymm1,%ymm1,%ymm10
-  .byte  197,36,89,249                       // vmulps        %ymm1,%ymm11,%ymm15
-  .byte  196,65,28,88,255                    // vaddps        %ymm15,%ymm12,%ymm15
+  .byte  196,65,116,89,251                   // vmulps        %ymm11,%ymm1,%ymm15
+  .byte  196,65,4,88,253                     // vaddps        %ymm13,%ymm15,%ymm15
   .byte  196,65,44,89,215                    // vmulps        %ymm15,%ymm10,%ymm10
-  .byte  196,65,12,88,210                    // vaddps        %ymm10,%ymm14,%ymm10
-  .byte  196,193,116,194,205,1               // vcmpltps      %ymm13,%ymm1,%ymm1
+  .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
+  .byte  196,193,116,194,206,1               // vcmpltps      %ymm14,%ymm1,%ymm1
   .byte  196,195,45,74,201,16                // vblendvps     %ymm1,%ymm9,%ymm10,%ymm1
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
   .byte  197,108,89,202                      // vmulps        %ymm2,%ymm2,%ymm9
-  .byte  197,36,89,210                       // vmulps        %ymm2,%ymm11,%ymm10
-  .byte  196,65,28,88,210                    // vaddps        %ymm10,%ymm12,%ymm10
+  .byte  196,65,108,89,211                   // vmulps        %ymm11,%ymm2,%ymm10
+  .byte  196,65,44,88,213                    // vaddps        %ymm13,%ymm10,%ymm10
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
-  .byte  196,65,12,88,201                    // vaddps        %ymm9,%ymm14,%ymm9
-  .byte  196,193,108,194,213,1               // vcmpltps      %ymm13,%ymm2,%ymm2
+  .byte  196,65,52,88,204                    // vaddps        %ymm12,%ymm9,%ymm9
+  .byte  196,193,108,194,214,1               // vcmpltps      %ymm14,%ymm2,%ymm2
   .byte  196,195,53,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm9,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12926,62 +12730,43 @@
 FUNCTION(_sk_to_srgb_avx)
 _sk_to_srgb_avx:
   .byte  197,124,82,192                      // vrsqrtps      %ymm0,%ymm8
-  .byte  196,65,124,83,232                   // vrcpps        %ymm8,%ymm13
-  .byte  196,65,124,82,240                   // vrsqrtps      %ymm8,%ymm14
-  .byte  184,41,92,71,65                     // mov           $0x41475c29,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,224                       // vmulps        %ymm0,%ymm8,%ymm12
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
-  .byte  184,194,135,210,62                  // mov           $0x3ed287c2,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  184,206,111,48,63                   // mov           $0x3f306fce,%eax
-  .byte  197,121,110,216                     // vmovd         %eax,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
-  .byte  184,168,87,202,61                   // mov           $0x3dca57a8,%eax
-  .byte  53,0,0,0,128                        // xor           $0x80000000,%eax
-  .byte  197,121,110,248                     // vmovd         %eax,%xmm15
-  .byte  196,67,121,4,255,0                  // vpermilps     $0x0,%xmm15,%xmm15
-  .byte  196,67,5,24,255,1                   // vinsertf128   $0x1,%xmm15,%ymm15,%ymm15
-  .byte  196,65,20,89,235                    // vmulps        %ymm11,%ymm13,%ymm13
-  .byte  196,65,20,88,239                    // vaddps        %ymm15,%ymm13,%ymm13
-  .byte  196,65,12,89,242                    // vmulps        %ymm10,%ymm14,%ymm14
-  .byte  196,65,12,88,237                    // vaddps        %ymm13,%ymm14,%ymm13
-  .byte  196,65,52,93,237                    // vminps        %ymm13,%ymm9,%ymm13
-  .byte  184,4,231,140,59                    // mov           $0x3b8ce704,%eax
-  .byte  197,121,110,240                     // vmovd         %eax,%xmm14
-  .byte  196,67,121,4,246,0                  // vpermilps     $0x0,%xmm14,%xmm14
-  .byte  196,67,13,24,246,1                  // vinsertf128   $0x1,%xmm14,%ymm14,%ymm14
-  .byte  196,193,124,194,198,1               // vcmpltps      %ymm14,%ymm0,%ymm0
-  .byte  196,195,21,74,196,0                 // vblendvps     %ymm0,%ymm12,%ymm13,%ymm0
-  .byte  197,124,82,225                      // vrsqrtps      %ymm1,%ymm12
-  .byte  196,65,124,83,236                   // vrcpps        %ymm12,%ymm13
-  .byte  196,65,124,82,228                   // vrsqrtps      %ymm12,%ymm12
-  .byte  196,65,36,89,237                    // vmulps        %ymm13,%ymm11,%ymm13
-  .byte  196,65,4,88,237                     // vaddps        %ymm13,%ymm15,%ymm13
-  .byte  196,65,44,89,228                    // vmulps        %ymm12,%ymm10,%ymm12
-  .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
-  .byte  197,60,89,233                       // vmulps        %ymm1,%ymm8,%ymm13
-  .byte  196,65,52,93,228                    // vminps        %ymm12,%ymm9,%ymm12
-  .byte  196,193,116,194,206,1               // vcmpltps      %ymm14,%ymm1,%ymm1
-  .byte  196,195,29,74,205,16                // vblendvps     %ymm1,%ymm13,%ymm12,%ymm1
-  .byte  197,124,82,226                      // vrsqrtps      %ymm2,%ymm12
-  .byte  196,65,124,83,236                   // vrcpps        %ymm12,%ymm13
-  .byte  196,65,36,89,221                    // vmulps        %ymm13,%ymm11,%ymm11
-  .byte  196,65,4,88,219                     // vaddps        %ymm11,%ymm15,%ymm11
-  .byte  196,65,124,82,228                   // vrsqrtps      %ymm12,%ymm12
-  .byte  196,65,44,89,212                    // vmulps        %ymm12,%ymm10,%ymm10
-  .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
-  .byte  196,65,52,93,202                    // vminps        %ymm10,%ymm9,%ymm9
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
-  .byte  196,193,108,194,214,1               // vcmpltps      %ymm14,%ymm2,%ymm2
+  .byte  196,65,124,83,200                   // vrcpps        %ymm8,%ymm9
+  .byte  196,65,124,82,208                   // vrsqrtps      %ymm8,%ymm10
+  .byte  196,98,125,24,5,12,72,0,0           // vbroadcastss  0x480c(%rip),%ymm8        # 54a8 <_sk_callback_avx+0x19a>
+  .byte  196,65,124,89,216                   // vmulps        %ymm8,%ymm0,%ymm11
+  .byte  196,98,125,24,37,2,72,0,0           // vbroadcastss  0x4802(%rip),%ymm12        # 54ac <_sk_callback_avx+0x19e>
+  .byte  196,65,52,89,204                    // vmulps        %ymm12,%ymm9,%ymm9
+  .byte  196,98,125,24,45,248,71,0,0         // vbroadcastss  0x47f8(%rip),%ymm13        # 54b0 <_sk_callback_avx+0x1a2>
+  .byte  196,65,52,88,205                    // vaddps        %ymm13,%ymm9,%ymm9
+  .byte  196,98,125,24,53,238,71,0,0         // vbroadcastss  0x47ee(%rip),%ymm14        # 54b4 <_sk_callback_avx+0x1a6>
+  .byte  196,65,44,89,214                    // vmulps        %ymm14,%ymm10,%ymm10
+  .byte  196,65,44,88,201                    // vaddps        %ymm9,%ymm10,%ymm9
+  .byte  196,98,125,24,21,223,71,0,0         // vbroadcastss  0x47df(%rip),%ymm10        # 54b8 <_sk_callback_avx+0x1aa>
+  .byte  196,65,44,93,201                    // vminps        %ymm9,%ymm10,%ymm9
+  .byte  196,98,125,24,61,213,71,0,0         // vbroadcastss  0x47d5(%rip),%ymm15        # 54bc <_sk_callback_avx+0x1ae>
+  .byte  196,193,124,194,199,1               // vcmpltps      %ymm15,%ymm0,%ymm0
+  .byte  196,195,53,74,195,0                 // vblendvps     %ymm0,%ymm11,%ymm9,%ymm0
+  .byte  197,124,82,201                      // vrsqrtps      %ymm1,%ymm9
+  .byte  196,65,124,83,217                   // vrcpps        %ymm9,%ymm11
+  .byte  196,65,124,82,201                   // vrsqrtps      %ymm9,%ymm9
+  .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
+  .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
+  .byte  196,65,52,89,206                    // vmulps        %ymm14,%ymm9,%ymm9
+  .byte  196,65,52,88,203                    // vaddps        %ymm11,%ymm9,%ymm9
+  .byte  196,65,116,89,216                   // vmulps        %ymm8,%ymm1,%ymm11
+  .byte  196,65,44,93,201                    // vminps        %ymm9,%ymm10,%ymm9
+  .byte  196,193,116,194,207,1               // vcmpltps      %ymm15,%ymm1,%ymm1
+  .byte  196,195,53,74,203,16                // vblendvps     %ymm1,%ymm11,%ymm9,%ymm1
+  .byte  197,124,82,202                      // vrsqrtps      %ymm2,%ymm9
+  .byte  196,65,124,83,217                   // vrcpps        %ymm9,%ymm11
+  .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
+  .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
+  .byte  196,65,124,82,201                   // vrsqrtps      %ymm9,%ymm9
+  .byte  196,65,52,89,206                    // vmulps        %ymm14,%ymm9,%ymm9
+  .byte  196,65,52,88,203                    // vaddps        %ymm11,%ymm9,%ymm9
+  .byte  196,65,44,93,201                    // vminps        %ymm9,%ymm10,%ymm9
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
+  .byte  196,193,108,194,215,1               // vcmpltps      %ymm15,%ymm2,%ymm2
   .byte  196,195,53,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm9,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12995,58 +12780,40 @@
   .byte  197,124,93,201                      // vminps        %ymm1,%ymm0,%ymm9
   .byte  197,52,93,202                       // vminps        %ymm2,%ymm9,%ymm9
   .byte  196,65,60,92,209                    // vsubps        %ymm9,%ymm8,%ymm10
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,121,110,216                     // vmovd         %eax,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
+  .byte  196,98,125,24,29,59,71,0,0          // vbroadcastss  0x473b(%rip),%ymm11        # 54c0 <_sk_callback_avx+0x1b2>
   .byte  196,65,36,94,218                    // vdivps        %ymm10,%ymm11,%ymm11
-  .byte  65,184,171,170,42,62                // mov           $0x3e2aaaab,%r8d
   .byte  197,116,92,226                      // vsubps        %ymm2,%ymm1,%ymm12
   .byte  196,65,28,89,227                    // vmulps        %ymm11,%ymm12,%ymm12
-  .byte  65,185,0,0,192,64                   // mov           $0x40c00000,%r9d
-  .byte  197,108,92,232                      // vsubps        %ymm0,%ymm2,%ymm13
-  .byte  196,65,20,89,235                    // vmulps        %ymm11,%ymm13,%ymm13
-  .byte  65,186,0,0,0,64                     // mov           $0x40000000,%r10d
-  .byte  197,124,92,241                      // vsubps        %ymm1,%ymm0,%ymm14
-  .byte  196,65,12,89,219                    // vmulps        %ymm11,%ymm14,%ymm11
-  .byte  184,0,0,128,64                      // mov           $0x40800000,%eax
-  .byte  197,121,110,240                     // vmovd         %eax,%xmm14
-  .byte  196,67,121,4,246,0                  // vpermilps     $0x0,%xmm14,%xmm14
-  .byte  196,67,13,24,246,1                  // vinsertf128   $0x1,%xmm14,%ymm14,%ymm14
-  .byte  196,65,36,88,222                    // vaddps        %ymm14,%ymm11,%ymm11
-  .byte  196,65,121,110,242                  // vmovd         %r10d,%xmm14
-  .byte  197,244,194,210,1                   // vcmpltps      %ymm2,%ymm1,%ymm2
-  .byte  197,188,194,201,0                   // vcmpeqps      %ymm1,%ymm8,%ymm1
-  .byte  196,67,121,4,246,0                  // vpermilps     $0x0,%xmm14,%xmm14
-  .byte  196,67,13,24,246,1                  // vinsertf128   $0x1,%xmm14,%ymm14,%ymm14
-  .byte  196,65,20,88,238                    // vaddps        %ymm14,%ymm13,%ymm13
-  .byte  196,67,37,74,221,16                 // vblendvps     %ymm1,%ymm13,%ymm11,%ymm11
-  .byte  196,193,121,110,201                 // vmovd         %r9d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  196,65,20,87,237                    // vxorps        %ymm13,%ymm13,%ymm13
-  .byte  196,227,21,74,201,32                // vblendvps     %ymm2,%ymm1,%ymm13,%ymm1
-  .byte  196,193,116,88,204                  // vaddps        %ymm12,%ymm1,%ymm1
-  .byte  184,0,0,0,63                        // mov           $0x3f000000,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
+  .byte  197,116,194,234,1                   // vcmpltps      %ymm2,%ymm1,%ymm13
+  .byte  197,60,194,241,0                    // vcmpeqps      %ymm1,%ymm8,%ymm14
+  .byte  197,236,92,208                      // vsubps        %ymm0,%ymm2,%ymm2
+  .byte  196,193,108,89,211                  // vmulps        %ymm11,%ymm2,%ymm2
+  .byte  197,252,92,201                      // vsubps        %ymm1,%ymm0,%ymm1
+  .byte  196,193,116,89,203                  // vmulps        %ymm11,%ymm1,%ymm1
+  .byte  196,98,125,24,29,20,71,0,0          // vbroadcastss  0x4714(%rip),%ymm11        # 54cc <_sk_callback_avx+0x1be>
+  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  196,98,125,24,29,2,71,0,0           // vbroadcastss  0x4702(%rip),%ymm11        # 54c8 <_sk_callback_avx+0x1ba>
+  .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
+  .byte  196,227,117,74,202,224              // vblendvps     %ymm14,%ymm2,%ymm1,%ymm1
+  .byte  196,226,125,24,21,234,70,0,0        // vbroadcastss  0x46ea(%rip),%ymm2        # 54c4 <_sk_callback_avx+0x1b6>
+  .byte  196,65,12,87,246                    // vxorps        %ymm14,%ymm14,%ymm14
+  .byte  196,227,13,74,210,208               // vblendvps     %ymm13,%ymm2,%ymm14,%ymm2
   .byte  197,188,194,192,0                   // vcmpeqps      %ymm0,%ymm8,%ymm0
-  .byte  196,227,37,74,193,0                 // vblendvps     %ymm0,%ymm1,%ymm11,%ymm0
+  .byte  196,193,108,88,212                  // vaddps        %ymm12,%ymm2,%ymm2
+  .byte  196,227,117,74,194,0                // vblendvps     %ymm0,%ymm2,%ymm1,%ymm0
   .byte  196,193,60,88,201                   // vaddps        %ymm9,%ymm8,%ymm1
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,99,109,24,218,1                 // vinsertf128   $0x1,%xmm2,%ymm2,%ymm11
-  .byte  196,193,116,89,211                  // vmulps        %ymm11,%ymm1,%ymm2
-  .byte  197,36,194,218,1                    // vcmpltps      %ymm2,%ymm11,%ymm11
-  .byte  196,65,12,92,224                    // vsubps        %ymm8,%ymm14,%ymm12
-  .byte  196,65,28,92,225                    // vsubps        %ymm9,%ymm12,%ymm12
-  .byte  196,195,117,74,204,176              // vblendvps     %ymm11,%ymm12,%ymm1,%ymm1
+  .byte  196,98,125,24,37,209,70,0,0         // vbroadcastss  0x46d1(%rip),%ymm12        # 54d4 <_sk_callback_avx+0x1c6>
+  .byte  196,193,116,89,212                  // vmulps        %ymm12,%ymm1,%ymm2
+  .byte  197,28,194,226,1                    // vcmpltps      %ymm2,%ymm12,%ymm12
+  .byte  196,65,36,92,216                    // vsubps        %ymm8,%ymm11,%ymm11
+  .byte  196,65,36,92,217                    // vsubps        %ymm9,%ymm11,%ymm11
+  .byte  196,195,117,74,203,192              // vblendvps     %ymm12,%ymm11,%ymm1,%ymm1
   .byte  196,65,60,194,193,0                 // vcmpeqps      %ymm9,%ymm8,%ymm8
   .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
-  .byte  196,67,125,74,205,128               // vblendvps     %ymm8,%ymm13,%ymm0,%ymm9
-  .byte  196,195,117,74,205,128              // vblendvps     %ymm8,%ymm13,%ymm1,%ymm1
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  196,195,125,74,198,128              // vblendvps     %ymm8,%ymm14,%ymm0,%ymm0
+  .byte  196,195,117,74,206,128              // vblendvps     %ymm8,%ymm14,%ymm1,%ymm1
+  .byte  196,98,125,24,5,148,70,0,0          // vbroadcastss  0x4694(%rip),%ymm8        # 54d0 <_sk_callback_avx+0x1c2>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -13195,17 +12962,14 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,80                              // jne           12e6 <_sk_scale_u8_avx+0x60>
+  .byte  117,68                              // jne           1110 <_sk_scale_u8_avx+0x54>
   .byte  197,122,126,0                       // vmovq         (%rax),%xmm8
   .byte  196,66,121,49,200                   // vpmovzxbd     %xmm8,%xmm9
   .byte  196,67,121,4,192,229                // vpermilps     $0xe5,%xmm8,%xmm8
   .byte  196,66,121,49,192                   // vpmovzxbd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
+  .byte  196,98,125,24,13,228,67,0,0         // vbroadcastss  0x43e4(%rip),%ymm9        # 54d8 <_sk_callback_avx+0x1ca>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -13223,9 +12987,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           12ee <_sk_scale_u8_avx+0x68>
+  .byte  117,234                             // jne           1118 <_sk_scale_u8_avx+0x5c>
   .byte  196,65,249,110,193                  // vmovq         %r9,%xmm8
-  .byte  235,143                             // jmp           129a <_sk_scale_u8_avx+0x14>
+  .byte  235,155                             // jmp           10d0 <_sk_scale_u8_avx+0x14>
 
 HIDDEN _sk_lerp_1_float_avx
 .globl _sk_lerp_1_float_avx
@@ -13257,17 +13021,14 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,116                             // jne           13ce <_sk_lerp_u8_avx+0x84>
+  .byte  117,104                             // jne           11ec <_sk_lerp_u8_avx+0x78>
   .byte  197,122,126,0                       // vmovq         (%rax),%xmm8
   .byte  196,66,121,49,200                   // vpmovzxbd     %xmm8,%xmm9
   .byte  196,67,121,4,192,229                // vpermilps     $0xe5,%xmm8,%xmm8
   .byte  196,66,121,49,192                   // vpmovzxbd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,121,110,200                     // vmovd         %eax,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
+  .byte  196,98,125,24,13,48,67,0,0          // vbroadcastss  0x4330(%rip),%ymm9        # 54dc <_sk_callback_avx+0x1ce>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
@@ -13293,9 +13054,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           13d6 <_sk_lerp_u8_avx+0x8c>
+  .byte  117,234                             // jne           11f4 <_sk_lerp_u8_avx+0x80>
   .byte  196,65,249,110,193                  // vmovq         %r9,%xmm8
-  .byte  233,104,255,255,255                 // jmpq          135e <_sk_lerp_u8_avx+0x14>
+  .byte  233,116,255,255,255                 // jmpq          1188 <_sk_lerp_u8_avx+0x14>
 
 HIDDEN _sk_lerp_565_avx
 .globl _sk_lerp_565_avx
@@ -13304,59 +13065,47 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,220,0,0,0                    // jne           14e0 <_sk_lerp_565_avx+0xea>
+  .byte  15,133,174,0,0,0                    // jne           12d0 <_sk_lerp_565_avx+0xbc>
   .byte  196,65,122,111,4,122                // vmovdqu       (%r10,%rdi,2),%xmm8
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  197,185,105,219                     // vpunpckhwd    %xmm3,%xmm8,%xmm3
   .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
-  .byte  196,99,61,24,203,1                  // vinsertf128   $0x1,%xmm3,%ymm8,%ymm9
-  .byte  196,98,125,24,5,246,70,0,0          // vbroadcastss  0x46f6(%rip),%ymm8        # 5b1c <_sk_callback_avx+0x12e>
-  .byte  196,65,52,84,192                    // vandps        %ymm8,%ymm9,%ymm8
+  .byte  196,227,61,24,219,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm3
+  .byte  196,98,125,24,5,156,66,0,0          // vbroadcastss  0x429c(%rip),%ymm8        # 54e0 <_sk_callback_avx+0x1d2>
+  .byte  196,65,100,84,192                   // vandps        %ymm8,%ymm3,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,60,89,211                       // vmulps        %ymm3,%ymm8,%ymm10
-  .byte  196,98,125,24,5,206,70,0,0          // vbroadcastss  0x46ce(%rip),%ymm8        # 5b20 <_sk_callback_avx+0x132>
-  .byte  196,65,52,84,192                    // vandps        %ymm8,%ymm9,%ymm8
-  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,60,89,219                       // vmulps        %ymm3,%ymm8,%ymm11
-  .byte  196,98,125,24,5,166,70,0,0          // vbroadcastss  0x46a6(%rip),%ymm8        # 5b24 <_sk_callback_avx+0x136>
-  .byte  196,65,52,84,192                    // vandps        %ymm8,%ymm9,%ymm8
-  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  196,98,125,24,13,141,66,0,0         // vbroadcastss  0x428d(%rip),%ymm9        # 54e4 <_sk_callback_avx+0x1d6>
+  .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
+  .byte  196,98,125,24,13,131,66,0,0         // vbroadcastss  0x4283(%rip),%ymm9        # 54e8 <_sk_callback_avx+0x1da>
+  .byte  196,65,100,84,201                   // vandps        %ymm9,%ymm3,%ymm9
+  .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
+  .byte  196,98,125,24,21,116,66,0,0         // vbroadcastss  0x4274(%rip),%ymm10        # 54ec <_sk_callback_avx+0x1de>
+  .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
+  .byte  196,98,125,24,21,106,66,0,0         // vbroadcastss  0x426a(%rip),%ymm10        # 54f0 <_sk_callback_avx+0x1e2>
+  .byte  196,193,100,84,218                  // vandps        %ymm10,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,21,92,66,0,0          // vbroadcastss  0x425c(%rip),%ymm10        # 54f4 <_sk_callback_avx+0x1e6>
+  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
-  .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
   .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
-  .byte  196,193,116,89,203                  // vmulps        %ymm11,%ymm1,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
   .byte  197,244,88,205                      // vaddps        %ymm5,%ymm1,%ymm1
   .byte  197,236,92,214                      // vsubps        %ymm6,%ymm2,%ymm2
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  197,236,88,214                      // vaddps        %ymm6,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,42,66,0,0         // vbroadcastss  0x422a(%rip),%ymm3        # 54f8 <_sk_callback_avx+0x1ea>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,17,255,255,255               // ja            140a <_sk_lerp_565_avx+0x14>
+  .byte  15,135,63,255,255,255               // ja            1228 <_sk_lerp_565_avx+0x14>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,76,0,0,0                  // lea           0x4c(%rip),%r9        # 1550 <_sk_lerp_565_avx+0x15a>
+  .byte  76,141,13,76,0,0,0                  // lea           0x4c(%rip),%r9        # 1340 <_sk_lerp_565_avx+0x12c>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13368,13 +13117,13 @@
   .byte  196,65,57,196,68,122,4,2            // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm8,%xmm8
   .byte  196,65,57,196,68,122,2,1            // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm8,%xmm8
   .byte  196,65,57,196,4,122,0               // vpinsrw       $0x0,(%r10,%rdi,2),%xmm8,%xmm8
-  .byte  233,189,254,255,255                 // jmpq          140a <_sk_lerp_565_avx+0x14>
+  .byte  233,235,254,255,255                 // jmpq          1228 <_sk_lerp_565_avx+0x14>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  241                                 // icebp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,225                 // jmpq          ffffffffe2001558 <_sk_callback_avx+0xffffffffe1ffbb6a>
+  .byte  233,255,255,255,225                 // jmpq          ffffffffe2001348 <_sk_callback_avx+0xffffffffe1ffc03a>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13399,7 +13148,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,37,2,0,0                     // jne           179f <_sk_load_tables_avx+0x233>
+  .byte  15,133,26,2,0,0                     // jne           1584 <_sk_load_tables_avx+0x228>
   .byte  196,65,124,16,4,184                 // vmovups       (%r8,%rdi,4),%ymm8
   .byte  85                                  // push          %rbp
   .byte  65,87                               // push          %r15
@@ -13407,7 +13156,7 @@
   .byte  65,85                               // push          %r13
   .byte  65,84                               // push          %r12
   .byte  83                                  // push          %rbx
-  .byte  197,124,40,13,206,70,0,0            // vmovaps       0x46ce(%rip),%ymm9        # 5c60 <_sk_callback_avx+0x272>
+  .byte  197,124,40,13,62,68,0,0             // vmovaps       0x443e(%rip),%ymm9        # 57c0 <_sk_callback_avx+0x4b2>
   .byte  196,193,60,84,193                   // vandps        %ymm9,%ymm8,%ymm0
   .byte  196,193,249,126,193                 // vmovq         %xmm0,%r9
   .byte  69,137,203                          // mov           %r9d,%r11d
@@ -13498,12 +13247,9 @@
   .byte  196,193,57,114,208,24               // vpsrld        $0x18,%xmm8,%xmm8
   .byte  196,193,97,114,210,24               // vpsrld        $0x18,%xmm10,%xmm3
   .byte  196,227,61,24,219,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,139,63,0,0          // vbroadcastss  0x3f8b(%rip),%ymm8        # 54fc <_sk_callback_avx+0x1ee>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -13517,9 +13263,9 @@
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,200,253,255,255              // ja            1580 <_sk_load_tables_avx+0x14>
+  .byte  15,135,211,253,255,255              // ja            1370 <_sk_load_tables_avx+0x14>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,141,0,0,0                 // lea           0x8d(%rip),%r10        # 1850 <_sk_load_tables_avx+0x2e4>
+  .byte  76,141,21,140,0,0,0                 // lea           0x8c(%rip),%r10        # 1634 <_sk_load_tables_avx+0x2d8>
   .byte  79,99,12,138                        // movslq        (%r10,%r9,4),%r9
   .byte  77,1,209                            // add           %r10,%r9
   .byte  65,255,225                          // jmpq          *%r9
@@ -13542,24 +13288,25 @@
   .byte  196,99,61,12,192,15                 // vblendps      $0xf,%ymm0,%ymm8,%ymm8
   .byte  196,195,57,34,4,184,0               // vpinsrd       $0x0,(%r8,%rdi,4),%xmm8,%xmm0
   .byte  196,99,61,12,192,15                 // vblendps      $0xf,%ymm0,%ymm8,%ymm8
-  .byte  233,51,253,255,255                  // jmpq          1580 <_sk_load_tables_avx+0x14>
-  .byte  15,31,0                             // nopl          (%rax)
-  .byte  235,255                             // jmp           1851 <_sk_load_tables_avx+0x2e5>
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  221,255                             // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,207                             // dec           %edi
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,193                             // inc           %ecx
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,173,255,255,255,153             // ljmp          *-0x66000001(%rbp)
+  .byte  233,62,253,255,255                  // jmpq          1370 <_sk_load_tables_avx+0x14>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  236                                 // in            (%dx),%al
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  125,255                             // jge           1869 <_sk_load_tables_avx+0x2fd>
+  .byte  222,255                             // fdivrp        %st,%st(7)
+  .byte  255                                 // (bad)
+  .byte  255,208                             // callq         *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,194                             // inc           %edx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,174,255,255,255,154             // ljmp          *-0x65000001(%rsi)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  126,255                             // jle           164d <_sk_load_tables_avx+0x2f1>
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
 
@@ -13571,7 +13318,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,125,2,0,0                    // jne           1aff <_sk_load_tables_u16_be_avx+0x293>
+  .byte  15,133,113,2,0,0                    // jne           18d7 <_sk_load_tables_u16_be_avx+0x287>
   .byte  196,1,121,16,4,72                   // vmovupd       (%r8,%r9,2),%xmm8
   .byte  196,129,121,16,84,72,16             // vmovupd       0x10(%r8,%r9,2),%xmm2
   .byte  196,129,121,16,92,72,32             // vmovupd       0x20(%r8,%r9,2),%xmm3
@@ -13593,7 +13340,7 @@
   .byte  197,177,108,208                     // vpunpcklqdq   %xmm0,%xmm9,%xmm2
   .byte  197,177,109,200                     // vpunpckhqdq   %xmm0,%xmm9,%xmm1
   .byte  196,65,57,108,212                   // vpunpcklqdq   %xmm12,%xmm8,%xmm10
-  .byte  197,121,111,29,2,68,0,0             // vmovdqa       0x4402(%rip),%xmm11        # 5ce0 <_sk_callback_avx+0x2f2>
+  .byte  197,121,111,29,126,65,0,0           // vmovdqa       0x417e(%rip),%xmm11        # 5840 <_sk_callback_avx+0x532>
   .byte  196,193,105,219,195                 // vpand         %xmm11,%xmm2,%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,105,209                 // vpunpckhwd    %xmm9,%xmm0,%xmm2
@@ -13684,10 +13431,6 @@
   .byte  196,129,122,16,28,50                // vmovss        (%r10,%r14,1),%xmm3
   .byte  196,227,105,33,211,48               // vinsertps     $0x30,%xmm3,%xmm2,%xmm2
   .byte  196,195,109,24,210,1                // vinsertf128   $0x1,%xmm10,%ymm2,%ymm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,99,101,24,211,1                 // vinsertf128   $0x1,%xmm3,%ymm3,%ymm10
   .byte  196,193,57,109,220                  // vpunpckhqdq   %xmm12,%xmm8,%xmm3
   .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
   .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
@@ -13696,7 +13439,8 @@
   .byte  196,226,121,51,219                  // vpmovzxwd     %xmm3,%xmm3
   .byte  196,195,101,24,216,1                // vinsertf128   $0x1,%xmm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
+  .byte  196,98,125,24,5,60,60,0,0           // vbroadcastss  0x3c3c(%rip),%ymm8        # 5500 <_sk_callback_avx+0x1f2>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -13708,29 +13452,29 @@
   .byte  196,1,123,16,4,72                   // vmovsd        (%r8,%r9,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,85                              // je            1b65 <_sk_load_tables_u16_be_avx+0x2f9>
+  .byte  116,85                              // je            193d <_sk_load_tables_u16_be_avx+0x2ed>
   .byte  196,1,57,22,68,72,8                 // vmovhpd       0x8(%r8,%r9,2),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,72                              // jb            1b65 <_sk_load_tables_u16_be_avx+0x2f9>
+  .byte  114,72                              // jb            193d <_sk_load_tables_u16_be_avx+0x2ed>
   .byte  196,129,123,16,84,72,16             // vmovsd        0x10(%r8,%r9,2),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,72                              // je            1b72 <_sk_load_tables_u16_be_avx+0x306>
+  .byte  116,72                              // je            194a <_sk_load_tables_u16_be_avx+0x2fa>
   .byte  196,129,105,22,84,72,24             // vmovhpd       0x18(%r8,%r9,2),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,59                              // jb            1b72 <_sk_load_tables_u16_be_avx+0x306>
+  .byte  114,59                              // jb            194a <_sk_load_tables_u16_be_avx+0x2fa>
   .byte  196,129,123,16,92,72,32             // vmovsd        0x20(%r8,%r9,2),%xmm3
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,85,253,255,255               // je            189d <_sk_load_tables_u16_be_avx+0x31>
+  .byte  15,132,97,253,255,255               // je            1681 <_sk_load_tables_u16_be_avx+0x31>
   .byte  196,129,97,22,92,72,40              // vmovhpd       0x28(%r8,%r9,2),%xmm3,%xmm3
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,68,253,255,255               // jb            189d <_sk_load_tables_u16_be_avx+0x31>
+  .byte  15,130,80,253,255,255               // jb            1681 <_sk_load_tables_u16_be_avx+0x31>
   .byte  196,1,122,126,76,72,48              // vmovq         0x30(%r8,%r9,2),%xmm9
-  .byte  233,56,253,255,255                  // jmpq          189d <_sk_load_tables_u16_be_avx+0x31>
+  .byte  233,68,253,255,255                  // jmpq          1681 <_sk_load_tables_u16_be_avx+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,43,253,255,255                  // jmpq          189d <_sk_load_tables_u16_be_avx+0x31>
+  .byte  233,55,253,255,255                  // jmpq          1681 <_sk_load_tables_u16_be_avx+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,34,253,255,255                  // jmpq          189d <_sk_load_tables_u16_be_avx+0x31>
+  .byte  233,46,253,255,255                  // jmpq          1681 <_sk_load_tables_u16_be_avx+0x31>
 
 HIDDEN _sk_load_tables_rgb_u16_be_avx
 .globl _sk_load_tables_rgb_u16_be_avx
@@ -13740,7 +13484,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,127                       // lea           (%rdi,%rdi,2),%r9
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,105,2,0,0                    // jne           1df6 <_sk_load_tables_rgb_u16_be_avx+0x27b>
+  .byte  15,133,93,2,0,0                     // jne           1bc2 <_sk_load_tables_rgb_u16_be_avx+0x26f>
   .byte  196,129,122,111,4,72                // vmovdqu       (%r8,%r9,2),%xmm0
   .byte  196,129,122,111,84,72,12            // vmovdqu       0xc(%r8,%r9,2),%xmm2
   .byte  196,129,122,111,76,72,24            // vmovdqu       0x18(%r8,%r9,2),%xmm1
@@ -13767,7 +13511,7 @@
   .byte  197,185,108,202                     // vpunpcklqdq   %xmm2,%xmm8,%xmm1
   .byte  197,185,109,210                     // vpunpckhqdq   %xmm2,%xmm8,%xmm2
   .byte  197,121,108,195                     // vpunpcklqdq   %xmm3,%xmm0,%xmm8
-  .byte  197,121,111,13,239,64,0,0           // vmovdqa       0x40ef(%rip),%xmm9        # 5cf0 <_sk_callback_avx+0x302>
+  .byte  197,121,111,13,119,62,0,0           // vmovdqa       0x3e77(%rip),%xmm9        # 5850 <_sk_callback_avx+0x542>
   .byte  196,193,113,219,193                 // vpand         %xmm9,%xmm1,%xmm0
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  196,193,121,105,202                 // vpunpckhwd    %xmm10,%xmm0,%xmm1
@@ -13858,11 +13602,8 @@
   .byte  196,129,122,16,28,50                // vmovss        (%r10,%r14,1),%xmm3
   .byte  196,227,105,33,211,48               // vinsertps     $0x30,%xmm3,%xmm2,%xmm2
   .byte  196,195,109,24,208,1                // vinsertf128   $0x1,%xmm8,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,78,57,0,0         // vbroadcastss  0x394e(%rip),%ymm3        # 5504 <_sk_callback_avx+0x1f6>
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
   .byte  65,93                               // pop           %r13
@@ -13873,36 +13614,36 @@
   .byte  196,129,121,110,4,72                // vmovd         (%r8,%r9,2),%xmm0
   .byte  196,129,121,196,68,72,4,2           // vpinsrw       $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  117,5                               // jne           1e0f <_sk_load_tables_rgb_u16_be_avx+0x294>
-  .byte  233,178,253,255,255                 // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  117,5                               // jne           1bdb <_sk_load_tables_rgb_u16_be_avx+0x288>
+  .byte  233,190,253,255,255                 // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
   .byte  196,129,121,110,76,72,6             // vmovd         0x6(%r8,%r9,2),%xmm1
   .byte  196,1,113,196,68,72,10,2            // vpinsrw       $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,26                              // jb            1e3e <_sk_load_tables_rgb_u16_be_avx+0x2c3>
+  .byte  114,26                              // jb            1c0a <_sk_load_tables_rgb_u16_be_avx+0x2b7>
   .byte  196,129,121,110,76,72,12            // vmovd         0xc(%r8,%r9,2),%xmm1
   .byte  196,129,113,196,84,72,16,2          // vpinsrw       $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  117,10                              // jne           1e43 <_sk_load_tables_rgb_u16_be_avx+0x2c8>
-  .byte  233,131,253,255,255                 // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
-  .byte  233,126,253,255,255                 // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  117,10                              // jne           1c0f <_sk_load_tables_rgb_u16_be_avx+0x2bc>
+  .byte  233,143,253,255,255                 // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  233,138,253,255,255                 // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
   .byte  196,129,121,110,76,72,18            // vmovd         0x12(%r8,%r9,2),%xmm1
   .byte  196,1,113,196,76,72,22,2            // vpinsrw       $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,26                              // jb            1e72 <_sk_load_tables_rgb_u16_be_avx+0x2f7>
+  .byte  114,26                              // jb            1c3e <_sk_load_tables_rgb_u16_be_avx+0x2eb>
   .byte  196,129,121,110,76,72,24            // vmovd         0x18(%r8,%r9,2),%xmm1
   .byte  196,129,113,196,76,72,28,2          // vpinsrw       $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  117,10                              // jne           1e77 <_sk_load_tables_rgb_u16_be_avx+0x2fc>
-  .byte  233,79,253,255,255                  // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
-  .byte  233,74,253,255,255                  // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  117,10                              // jne           1c43 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+  .byte  233,91,253,255,255                  // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  233,86,253,255,255                  // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
   .byte  196,129,121,110,92,72,30            // vmovd         0x1e(%r8,%r9,2),%xmm3
   .byte  196,1,97,196,92,72,34,2             // vpinsrw       $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,20                              // jb            1ea0 <_sk_load_tables_rgb_u16_be_avx+0x325>
+  .byte  114,20                              // jb            1c6c <_sk_load_tables_rgb_u16_be_avx+0x319>
   .byte  196,129,121,110,92,72,36            // vmovd         0x24(%r8,%r9,2),%xmm3
   .byte  196,129,97,196,92,72,40,2           // vpinsrw       $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
-  .byte  233,33,253,255,255                  // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
-  .byte  233,28,253,255,255                  // jmpq          1bc1 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  233,45,253,255,255                  // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
+  .byte  233,40,253,255,255                  // jmpq          1999 <_sk_load_tables_rgb_u16_be_avx+0x46>
 
 HIDDEN _sk_byte_tables_avx
 .globl _sk_byte_tables_avx
@@ -13915,11 +13656,8 @@
   .byte  65,84                               // push          %r12
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,127,67                   // mov           $0x437f0000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,98,125,24,5,130,56,0,0          // vbroadcastss  0x3882(%rip),%ymm8        # 5508 <_sk_callback_avx+0x1fa>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,195,249,22,192,1                // vpextrq       $0x1,%xmm0,%r8
   .byte  68,137,197                          // mov           %r8d,%ebp
@@ -13954,13 +13692,10 @@
   .byte  196,227,121,32,197,3                // vpinsrb       $0x3,%ebp,%xmm0,%xmm0
   .byte  196,226,121,49,192                  // vpmovzxbd     %xmm0,%xmm0
   .byte  196,227,53,24,192,1                 // vinsertf128   $0x1,%xmm0,%ymm9,%ymm0
-  .byte  197,124,91,208                      // vcvtdq2ps     %ymm0,%ymm10
-  .byte  189,129,128,128,59                  // mov           $0x3b808081,%ebp
-  .byte  197,249,110,197                     // vmovd         %ebp,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,99,125,24,200,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm9
-  .byte  196,193,44,89,193                   // vmulps        %ymm9,%ymm10,%ymm0
-  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,13,208,55,0,0         // vbroadcastss  0x37d0(%rip),%ymm9        # 550c <_sk_callback_avx+0x1fe>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,227,249,22,205,1                // vpextrq       $0x1,%xmm1,%rbp
   .byte  65,137,233                          // mov           %ebp,%r9d
@@ -13991,9 +13726,9 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,45,24,201,1                 // vinsertf128   $0x1,%xmm1,%ymm10,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
   .byte  76,139,64,16                        // mov           0x10(%rax),%r8
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,227,249,22,213,1                // vpextrq       $0x1,%xmm2,%rbp
   .byte  65,137,233                          // mov           %ebp,%r9d
@@ -14024,9 +13759,9 @@
   .byte  196,226,121,49,210                  // vpmovzxbd     %xmm2,%xmm2
   .byte  196,227,45,24,210,1                 // vinsertf128   $0x1,%xmm2,%ymm10,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,227,249,22,221,1                // vpextrq       $0x1,%xmm3,%rbp
   .byte  65,137,232                          // mov           %ebp,%r8d
@@ -14057,7 +13792,7 @@
   .byte  196,226,121,49,219                  // vpmovzxbd     %xmm3,%xmm3
   .byte  196,227,61,24,219,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  197,180,89,219                      // vmulps        %ymm3,%ymm9,%ymm3
+  .byte  196,193,100,89,217                  // vmulps        %ymm9,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -14119,12 +13854,9 @@
   .byte  196,227,121,32,197,3                // vpinsrb       $0x3,%ebp,%xmm0,%xmm0
   .byte  196,226,121,49,192                  // vpmovzxbd     %xmm0,%xmm0
   .byte  196,227,53,24,192,1                 // vinsertf128   $0x1,%xmm0,%ymm9,%ymm0
-  .byte  197,124,91,208                      // vcvtdq2ps     %ymm0,%ymm10
-  .byte  189,129,128,128,59                  // mov           $0x3b808081,%ebp
-  .byte  197,249,110,197                     // vmovd         %ebp,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,99,125,24,200,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm9
-  .byte  196,193,44,89,193                   // vmulps        %ymm9,%ymm10,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,13,246,52,0,0         // vbroadcastss  0x34f6(%rip),%ymm9        # 5510 <_sk_callback_avx+0x202>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,227,249,22,205,1                // vpextrq       $0x1,%xmm1,%rbp
@@ -14156,7 +13888,7 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,45,24,201,1                 // vinsertf128   $0x1,%xmm1,%ymm10,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
   .byte  72,139,64,16                        // mov           0x10(%rax),%rax
   .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
@@ -14189,7 +13921,7 @@
   .byte  196,226,121,49,210                  // vpmovzxbd     %xmm2,%xmm2
   .byte  196,227,61,24,210,1                 // vinsertf128   $0x1,%xmm2,%ymm8,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -14420,48 +14152,45 @@
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,216                      // vcvtdq2ps     %ymm0,%ymm11
-  .byte  196,98,125,24,37,23,52,0,0          // vbroadcastss  0x3417(%rip),%ymm12        # 5b28 <_sk_callback_avx+0x13a>
+  .byte  196,98,125,24,37,84,48,0,0          // vbroadcastss  0x3054(%rip),%ymm12        # 5514 <_sk_callback_avx+0x206>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,13,52,0,0          // vbroadcastss  0x340d(%rip),%ymm12        # 5b2c <_sk_callback_avx+0x13e>
+  .byte  196,98,125,24,37,74,48,0,0          // vbroadcastss  0x304a(%rip),%ymm12        # 5518 <_sk_callback_avx+0x20a>
   .byte  196,193,124,84,196                  // vandps        %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,3,52,0,0           // vbroadcastss  0x3403(%rip),%ymm12        # 5b30 <_sk_callback_avx+0x142>
+  .byte  196,98,125,24,37,64,48,0,0          // vbroadcastss  0x3040(%rip),%ymm12        # 551c <_sk_callback_avx+0x20e>
   .byte  196,193,124,86,196                  // vorps         %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,249,51,0,0         // vbroadcastss  0x33f9(%rip),%ymm12        # 5b34 <_sk_callback_avx+0x146>
+  .byte  196,98,125,24,37,54,48,0,0          // vbroadcastss  0x3036(%rip),%ymm12        # 5520 <_sk_callback_avx+0x212>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,239,51,0,0         // vbroadcastss  0x33ef(%rip),%ymm12        # 5b38 <_sk_callback_avx+0x14a>
+  .byte  196,98,125,24,37,44,48,0,0          // vbroadcastss  0x302c(%rip),%ymm12        # 5524 <_sk_callback_avx+0x216>
   .byte  196,65,124,89,228                   // vmulps        %ymm12,%ymm0,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,224,51,0,0         // vbroadcastss  0x33e0(%rip),%ymm12        # 5b3c <_sk_callback_avx+0x14e>
+  .byte  196,98,125,24,37,29,48,0,0          // vbroadcastss  0x301d(%rip),%ymm12        # 5528 <_sk_callback_avx+0x21a>
   .byte  196,193,124,88,196                  // vaddps        %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,214,51,0,0         // vbroadcastss  0x33d6(%rip),%ymm12        # 5b40 <_sk_callback_avx+0x152>
+  .byte  196,98,125,24,37,19,48,0,0          // vbroadcastss  0x3013(%rip),%ymm12        # 552c <_sk_callback_avx+0x21e>
   .byte  197,156,94,192                      // vdivps        %ymm0,%ymm12,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
   .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
   .byte  196,99,125,8,208,1                  // vroundps      $0x1,%ymm0,%ymm10
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,186,51,0,0         // vbroadcastss  0x33ba(%rip),%ymm11        # 5b44 <_sk_callback_avx+0x156>
+  .byte  196,98,125,24,29,247,47,0,0         // vbroadcastss  0x2ff7(%rip),%ymm11        # 5530 <_sk_callback_avx+0x222>
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,176,51,0,0         // vbroadcastss  0x33b0(%rip),%ymm11        # 5b48 <_sk_callback_avx+0x15a>
+  .byte  196,98,125,24,29,237,47,0,0         // vbroadcastss  0x2fed(%rip),%ymm11        # 5534 <_sk_callback_avx+0x226>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,124,92,195                  // vsubps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,161,51,0,0         // vbroadcastss  0x33a1(%rip),%ymm11        # 5b4c <_sk_callback_avx+0x15e>
+  .byte  196,98,125,24,29,222,47,0,0         // vbroadcastss  0x2fde(%rip),%ymm11        # 5538 <_sk_callback_avx+0x22a>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,151,51,0,0         // vbroadcastss  0x3397(%rip),%ymm11        # 5b50 <_sk_callback_avx+0x162>
+  .byte  196,98,125,24,29,212,47,0,0         // vbroadcastss  0x2fd4(%rip),%ymm11        # 553c <_sk_callback_avx+0x22e>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
-  .byte  196,98,125,24,21,136,51,0,0         // vbroadcastss  0x3388(%rip),%ymm10        # 5b54 <_sk_callback_avx+0x166>
+  .byte  196,98,125,24,21,197,47,0,0         // vbroadcastss  0x2fc5(%rip),%ymm10        # 5540 <_sk_callback_avx+0x232>
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
   .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,124,95,192                   // vmaxps        %ymm8,%ymm0,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,188,93,192                      // vminps        %ymm0,%ymm8,%ymm0
+  .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
+  .byte  196,98,125,24,5,156,47,0,0          // vbroadcastss  0x2f9c(%rip),%ymm8        # 5544 <_sk_callback_avx+0x236>
+  .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -14482,48 +14211,45 @@
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,217                      // vcvtdq2ps     %ymm1,%ymm11
-  .byte  196,98,125,24,37,1,51,0,0           // vbroadcastss  0x3301(%rip),%ymm12        # 5b58 <_sk_callback_avx+0x16a>
+  .byte  196,98,125,24,37,77,47,0,0          // vbroadcastss  0x2f4d(%rip),%ymm12        # 5548 <_sk_callback_avx+0x23a>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,247,50,0,0         // vbroadcastss  0x32f7(%rip),%ymm12        # 5b5c <_sk_callback_avx+0x16e>
+  .byte  196,98,125,24,37,67,47,0,0          // vbroadcastss  0x2f43(%rip),%ymm12        # 554c <_sk_callback_avx+0x23e>
   .byte  196,193,116,84,204                  // vandps        %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,237,50,0,0         // vbroadcastss  0x32ed(%rip),%ymm12        # 5b60 <_sk_callback_avx+0x172>
+  .byte  196,98,125,24,37,57,47,0,0          // vbroadcastss  0x2f39(%rip),%ymm12        # 5550 <_sk_callback_avx+0x242>
   .byte  196,193,116,86,204                  // vorps         %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,227,50,0,0         // vbroadcastss  0x32e3(%rip),%ymm12        # 5b64 <_sk_callback_avx+0x176>
+  .byte  196,98,125,24,37,47,47,0,0          // vbroadcastss  0x2f2f(%rip),%ymm12        # 5554 <_sk_callback_avx+0x246>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,217,50,0,0         // vbroadcastss  0x32d9(%rip),%ymm12        # 5b68 <_sk_callback_avx+0x17a>
+  .byte  196,98,125,24,37,37,47,0,0          // vbroadcastss  0x2f25(%rip),%ymm12        # 5558 <_sk_callback_avx+0x24a>
   .byte  196,65,116,89,228                   // vmulps        %ymm12,%ymm1,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,202,50,0,0         // vbroadcastss  0x32ca(%rip),%ymm12        # 5b6c <_sk_callback_avx+0x17e>
+  .byte  196,98,125,24,37,22,47,0,0          // vbroadcastss  0x2f16(%rip),%ymm12        # 555c <_sk_callback_avx+0x24e>
   .byte  196,193,116,88,204                  // vaddps        %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,192,50,0,0         // vbroadcastss  0x32c0(%rip),%ymm12        # 5b70 <_sk_callback_avx+0x182>
+  .byte  196,98,125,24,37,12,47,0,0          // vbroadcastss  0x2f0c(%rip),%ymm12        # 5560 <_sk_callback_avx+0x252>
   .byte  197,156,94,201                      // vdivps        %ymm1,%ymm12,%ymm1
   .byte  197,164,92,201                      // vsubps        %ymm1,%ymm11,%ymm1
   .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
   .byte  196,99,125,8,209,1                  // vroundps      $0x1,%ymm1,%ymm10
   .byte  196,65,116,92,210                   // vsubps        %ymm10,%ymm1,%ymm10
-  .byte  196,98,125,24,29,164,50,0,0         // vbroadcastss  0x32a4(%rip),%ymm11        # 5b74 <_sk_callback_avx+0x186>
+  .byte  196,98,125,24,29,240,46,0,0         // vbroadcastss  0x2ef0(%rip),%ymm11        # 5564 <_sk_callback_avx+0x256>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,154,50,0,0         // vbroadcastss  0x329a(%rip),%ymm11        # 5b78 <_sk_callback_avx+0x18a>
+  .byte  196,98,125,24,29,230,46,0,0         // vbroadcastss  0x2ee6(%rip),%ymm11        # 5568 <_sk_callback_avx+0x25a>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,116,92,203                  // vsubps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,139,50,0,0         // vbroadcastss  0x328b(%rip),%ymm11        # 5b7c <_sk_callback_avx+0x18e>
+  .byte  196,98,125,24,29,215,46,0,0         // vbroadcastss  0x2ed7(%rip),%ymm11        # 556c <_sk_callback_avx+0x25e>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,129,50,0,0         // vbroadcastss  0x3281(%rip),%ymm11        # 5b80 <_sk_callback_avx+0x192>
+  .byte  196,98,125,24,29,205,46,0,0         // vbroadcastss  0x2ecd(%rip),%ymm11        # 5570 <_sk_callback_avx+0x262>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
-  .byte  196,98,125,24,21,114,50,0,0         // vbroadcastss  0x3272(%rip),%ymm10        # 5b84 <_sk_callback_avx+0x196>
+  .byte  196,98,125,24,21,190,46,0,0         // vbroadcastss  0x2ebe(%rip),%ymm10        # 5574 <_sk_callback_avx+0x266>
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
   .byte  196,195,117,74,201,128              // vblendvps     %ymm8,%ymm9,%ymm1,%ymm1
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,116,95,192                   // vmaxps        %ymm8,%ymm1,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  197,188,93,201                      // vminps        %ymm1,%ymm8,%ymm1
+  .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
+  .byte  196,98,125,24,5,149,46,0,0          // vbroadcastss  0x2e95(%rip),%ymm8        # 5578 <_sk_callback_avx+0x26a>
+  .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -14544,48 +14270,45 @@
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,218                      // vcvtdq2ps     %ymm2,%ymm11
-  .byte  196,98,125,24,37,235,49,0,0         // vbroadcastss  0x31eb(%rip),%ymm12        # 5b88 <_sk_callback_avx+0x19a>
+  .byte  196,98,125,24,37,70,46,0,0          // vbroadcastss  0x2e46(%rip),%ymm12        # 557c <_sk_callback_avx+0x26e>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,225,49,0,0         // vbroadcastss  0x31e1(%rip),%ymm12        # 5b8c <_sk_callback_avx+0x19e>
+  .byte  196,98,125,24,37,60,46,0,0          // vbroadcastss  0x2e3c(%rip),%ymm12        # 5580 <_sk_callback_avx+0x272>
   .byte  196,193,108,84,212                  // vandps        %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,215,49,0,0         // vbroadcastss  0x31d7(%rip),%ymm12        # 5b90 <_sk_callback_avx+0x1a2>
+  .byte  196,98,125,24,37,50,46,0,0          // vbroadcastss  0x2e32(%rip),%ymm12        # 5584 <_sk_callback_avx+0x276>
   .byte  196,193,108,86,212                  // vorps         %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,205,49,0,0         // vbroadcastss  0x31cd(%rip),%ymm12        # 5b94 <_sk_callback_avx+0x1a6>
+  .byte  196,98,125,24,37,40,46,0,0          // vbroadcastss  0x2e28(%rip),%ymm12        # 5588 <_sk_callback_avx+0x27a>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,195,49,0,0         // vbroadcastss  0x31c3(%rip),%ymm12        # 5b98 <_sk_callback_avx+0x1aa>
+  .byte  196,98,125,24,37,30,46,0,0          // vbroadcastss  0x2e1e(%rip),%ymm12        # 558c <_sk_callback_avx+0x27e>
   .byte  196,65,108,89,228                   // vmulps        %ymm12,%ymm2,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,180,49,0,0         // vbroadcastss  0x31b4(%rip),%ymm12        # 5b9c <_sk_callback_avx+0x1ae>
+  .byte  196,98,125,24,37,15,46,0,0          // vbroadcastss  0x2e0f(%rip),%ymm12        # 5590 <_sk_callback_avx+0x282>
   .byte  196,193,108,88,212                  // vaddps        %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,170,49,0,0         // vbroadcastss  0x31aa(%rip),%ymm12        # 5ba0 <_sk_callback_avx+0x1b2>
+  .byte  196,98,125,24,37,5,46,0,0           // vbroadcastss  0x2e05(%rip),%ymm12        # 5594 <_sk_callback_avx+0x286>
   .byte  197,156,94,210                      // vdivps        %ymm2,%ymm12,%ymm2
   .byte  197,164,92,210                      // vsubps        %ymm2,%ymm11,%ymm2
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  196,99,125,8,210,1                  // vroundps      $0x1,%ymm2,%ymm10
   .byte  196,65,108,92,210                   // vsubps        %ymm10,%ymm2,%ymm10
-  .byte  196,98,125,24,29,142,49,0,0         // vbroadcastss  0x318e(%rip),%ymm11        # 5ba4 <_sk_callback_avx+0x1b6>
+  .byte  196,98,125,24,29,233,45,0,0         // vbroadcastss  0x2de9(%rip),%ymm11        # 5598 <_sk_callback_avx+0x28a>
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,132,49,0,0         // vbroadcastss  0x3184(%rip),%ymm11        # 5ba8 <_sk_callback_avx+0x1ba>
+  .byte  196,98,125,24,29,223,45,0,0         // vbroadcastss  0x2ddf(%rip),%ymm11        # 559c <_sk_callback_avx+0x28e>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,108,92,211                  // vsubps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,117,49,0,0         // vbroadcastss  0x3175(%rip),%ymm11        # 5bac <_sk_callback_avx+0x1be>
+  .byte  196,98,125,24,29,208,45,0,0         // vbroadcastss  0x2dd0(%rip),%ymm11        # 55a0 <_sk_callback_avx+0x292>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,107,49,0,0         // vbroadcastss  0x316b(%rip),%ymm11        # 5bb0 <_sk_callback_avx+0x1c2>
+  .byte  196,98,125,24,29,198,45,0,0         // vbroadcastss  0x2dc6(%rip),%ymm11        # 55a4 <_sk_callback_avx+0x296>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
-  .byte  196,98,125,24,21,92,49,0,0          // vbroadcastss  0x315c(%rip),%ymm10        # 5bb4 <_sk_callback_avx+0x1c6>
+  .byte  196,98,125,24,21,183,45,0,0         // vbroadcastss  0x2db7(%rip),%ymm10        # 55a8 <_sk_callback_avx+0x29a>
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
   .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,108,95,192                   // vmaxps        %ymm8,%ymm2,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,188,93,210                      // vminps        %ymm2,%ymm8,%ymm2
+  .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,24,5,142,45,0,0          // vbroadcastss  0x2d8e(%rip),%ymm8        # 55ac <_sk_callback_avx+0x29e>
+  .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -14606,48 +14329,45 @@
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,219                      // vcvtdq2ps     %ymm3,%ymm11
-  .byte  196,98,125,24,37,213,48,0,0         // vbroadcastss  0x30d5(%rip),%ymm12        # 5bb8 <_sk_callback_avx+0x1ca>
+  .byte  196,98,125,24,37,63,45,0,0          // vbroadcastss  0x2d3f(%rip),%ymm12        # 55b0 <_sk_callback_avx+0x2a2>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,203,48,0,0         // vbroadcastss  0x30cb(%rip),%ymm12        # 5bbc <_sk_callback_avx+0x1ce>
+  .byte  196,98,125,24,37,53,45,0,0          // vbroadcastss  0x2d35(%rip),%ymm12        # 55b4 <_sk_callback_avx+0x2a6>
   .byte  196,193,100,84,220                  // vandps        %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,193,48,0,0         // vbroadcastss  0x30c1(%rip),%ymm12        # 5bc0 <_sk_callback_avx+0x1d2>
+  .byte  196,98,125,24,37,43,45,0,0          // vbroadcastss  0x2d2b(%rip),%ymm12        # 55b8 <_sk_callback_avx+0x2aa>
   .byte  196,193,100,86,220                  // vorps         %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,183,48,0,0         // vbroadcastss  0x30b7(%rip),%ymm12        # 5bc4 <_sk_callback_avx+0x1d6>
+  .byte  196,98,125,24,37,33,45,0,0          // vbroadcastss  0x2d21(%rip),%ymm12        # 55bc <_sk_callback_avx+0x2ae>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,173,48,0,0         // vbroadcastss  0x30ad(%rip),%ymm12        # 5bc8 <_sk_callback_avx+0x1da>
+  .byte  196,98,125,24,37,23,45,0,0          // vbroadcastss  0x2d17(%rip),%ymm12        # 55c0 <_sk_callback_avx+0x2b2>
   .byte  196,65,100,89,228                   // vmulps        %ymm12,%ymm3,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,158,48,0,0         // vbroadcastss  0x309e(%rip),%ymm12        # 5bcc <_sk_callback_avx+0x1de>
+  .byte  196,98,125,24,37,8,45,0,0           // vbroadcastss  0x2d08(%rip),%ymm12        # 55c4 <_sk_callback_avx+0x2b6>
   .byte  196,193,100,88,220                  // vaddps        %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,148,48,0,0         // vbroadcastss  0x3094(%rip),%ymm12        # 5bd0 <_sk_callback_avx+0x1e2>
+  .byte  196,98,125,24,37,254,44,0,0         // vbroadcastss  0x2cfe(%rip),%ymm12        # 55c8 <_sk_callback_avx+0x2ba>
   .byte  197,156,94,219                      // vdivps        %ymm3,%ymm12,%ymm3
   .byte  197,164,92,219                      // vsubps        %ymm3,%ymm11,%ymm3
   .byte  197,172,89,219                      // vmulps        %ymm3,%ymm10,%ymm3
   .byte  196,99,125,8,211,1                  // vroundps      $0x1,%ymm3,%ymm10
   .byte  196,65,100,92,210                   // vsubps        %ymm10,%ymm3,%ymm10
-  .byte  196,98,125,24,29,120,48,0,0         // vbroadcastss  0x3078(%rip),%ymm11        # 5bd4 <_sk_callback_avx+0x1e6>
+  .byte  196,98,125,24,29,226,44,0,0         // vbroadcastss  0x2ce2(%rip),%ymm11        # 55cc <_sk_callback_avx+0x2be>
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,110,48,0,0         // vbroadcastss  0x306e(%rip),%ymm11        # 5bd8 <_sk_callback_avx+0x1ea>
+  .byte  196,98,125,24,29,216,44,0,0         // vbroadcastss  0x2cd8(%rip),%ymm11        # 55d0 <_sk_callback_avx+0x2c2>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,100,92,219                  // vsubps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,95,48,0,0          // vbroadcastss  0x305f(%rip),%ymm11        # 5bdc <_sk_callback_avx+0x1ee>
+  .byte  196,98,125,24,29,201,44,0,0         // vbroadcastss  0x2cc9(%rip),%ymm11        # 55d4 <_sk_callback_avx+0x2c6>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,85,48,0,0          // vbroadcastss  0x3055(%rip),%ymm11        # 5be0 <_sk_callback_avx+0x1f2>
+  .byte  196,98,125,24,29,191,44,0,0         // vbroadcastss  0x2cbf(%rip),%ymm11        # 55d8 <_sk_callback_avx+0x2ca>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,100,88,218                  // vaddps        %ymm10,%ymm3,%ymm3
-  .byte  196,98,125,24,21,70,48,0,0          // vbroadcastss  0x3046(%rip),%ymm10        # 5be4 <_sk_callback_avx+0x1f6>
+  .byte  196,98,125,24,21,176,44,0,0         // vbroadcastss  0x2cb0(%rip),%ymm10        # 55dc <_sk_callback_avx+0x2ce>
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
   .byte  196,193,100,88,218                  // vaddps        %ymm10,%ymm3,%ymm3
   .byte  196,195,101,74,217,128              // vblendvps     %ymm8,%ymm9,%ymm3,%ymm3
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,65,100,95,192                   // vmaxps        %ymm8,%ymm3,%ymm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,188,93,219                      // vminps        %ymm3,%ymm8,%ymm3
+  .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
+  .byte  196,98,125,24,5,135,44,0,0          // vbroadcastss  0x2c87(%rip),%ymm8        # 55e0 <_sk_callback_avx+0x2d2>
+  .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -14655,85 +14375,49 @@
 .globl _sk_lab_to_xyz_avx
 FUNCTION(_sk_lab_to_xyz_avx)
 _sk_lab_to_xyz_avx:
-  .byte  184,0,0,200,66                      // mov           $0x42c80000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,192                       // vmulps        %ymm0,%ymm8,%ymm8
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,124,89,201                      // vmulps        %ymm1,%ymm0,%ymm9
-  .byte  184,0,0,0,67                        // mov           $0x43000000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  197,52,92,201                       // vsubps        %ymm1,%ymm9,%ymm9
-  .byte  197,252,89,194                      // vmulps        %ymm2,%ymm0,%ymm0
-  .byte  197,124,92,209                      // vsubps        %ymm1,%ymm0,%ymm10
-  .byte  184,0,0,128,65                      // mov           $0x41800000,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,188,88,192                      // vaddps        %ymm0,%ymm8,%ymm0
-  .byte  184,203,61,13,60                    // mov           $0x3c0d3dcb,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,252,89,194                      // vmulps        %ymm2,%ymm0,%ymm0
-  .byte  184,111,18,3,59                     // mov           $0x3b03126f,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
-  .byte  197,252,88,210                      // vaddps        %ymm2,%ymm0,%ymm2
-  .byte  184,10,215,163,59                   // mov           $0x3ba3d70a,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
-  .byte  197,124,92,193                      // vsubps        %ymm1,%ymm0,%ymm8
-  .byte  197,236,89,202                      // vmulps        %ymm2,%ymm2,%ymm1
-  .byte  197,108,89,201                      // vmulps        %ymm1,%ymm2,%ymm9
-  .byte  184,194,24,17,60                    // mov           $0x3c1118c2,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,209,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm10
-  .byte  196,65,44,194,217,1                 // vcmpltps      %ymm9,%ymm10,%ymm11
-  .byte  184,203,61,13,62                    // mov           $0x3e0d3dcb,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,225,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm12
-  .byte  196,193,108,92,204                  // vsubps        %ymm12,%ymm2,%ymm1
-  .byte  184,80,128,3,62                     // mov           $0x3e038050,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,67,117,74,201,176               // vblendvps     %ymm11,%ymm9,%ymm1,%ymm9
+  .byte  196,98,125,24,5,121,44,0,0          // vbroadcastss  0x2c79(%rip),%ymm8        # 55e4 <_sk_callback_avx+0x2d6>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  196,98,125,24,5,111,44,0,0          // vbroadcastss  0x2c6f(%rip),%ymm8        # 55e8 <_sk_callback_avx+0x2da>
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  196,98,125,24,13,101,44,0,0         // vbroadcastss  0x2c65(%rip),%ymm9        # 55ec <_sk_callback_avx+0x2de>
+  .byte  196,193,116,88,201                  // vaddps        %ymm9,%ymm1,%ymm1
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,193,108,88,209                  // vaddps        %ymm9,%ymm2,%ymm2
+  .byte  196,98,125,24,5,81,44,0,0           // vbroadcastss  0x2c51(%rip),%ymm8        # 55f0 <_sk_callback_avx+0x2e2>
+  .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
+  .byte  196,98,125,24,5,71,44,0,0           // vbroadcastss  0x2c47(%rip),%ymm8        # 55f4 <_sk_callback_avx+0x2e6>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  196,98,125,24,5,61,44,0,0           // vbroadcastss  0x2c3d(%rip),%ymm8        # 55f8 <_sk_callback_avx+0x2ea>
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  197,252,88,201                      // vaddps        %ymm1,%ymm0,%ymm1
+  .byte  196,98,125,24,5,47,44,0,0           // vbroadcastss  0x2c2f(%rip),%ymm8        # 55fc <_sk_callback_avx+0x2ee>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  197,252,92,210                      // vsubps        %ymm2,%ymm0,%ymm2
+  .byte  197,116,89,193                      // vmulps        %ymm1,%ymm1,%ymm8
+  .byte  196,65,116,89,192                   // vmulps        %ymm8,%ymm1,%ymm8
+  .byte  196,98,125,24,13,24,44,0,0          // vbroadcastss  0x2c18(%rip),%ymm9        # 5600 <_sk_callback_avx+0x2f2>
+  .byte  196,65,52,194,208,1                 // vcmpltps      %ymm8,%ymm9,%ymm10
+  .byte  196,98,125,24,29,13,44,0,0          // vbroadcastss  0x2c0d(%rip),%ymm11        # 5604 <_sk_callback_avx+0x2f6>
+  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  196,98,125,24,37,3,44,0,0           // vbroadcastss  0x2c03(%rip),%ymm12        # 5608 <_sk_callback_avx+0x2fa>
+  .byte  196,193,116,89,204                  // vmulps        %ymm12,%ymm1,%ymm1
+  .byte  196,67,117,74,192,160               // vblendvps     %ymm10,%ymm8,%ymm1,%ymm8
   .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
   .byte  197,252,89,201                      // vmulps        %ymm1,%ymm0,%ymm1
-  .byte  197,44,194,217,1                    // vcmpltps      %ymm1,%ymm10,%ymm11
-  .byte  196,193,124,92,196                  // vsubps        %ymm12,%ymm0,%ymm0
-  .byte  197,252,89,194                      // vmulps        %ymm2,%ymm0,%ymm0
-  .byte  196,227,125,74,201,176              // vblendvps     %ymm11,%ymm1,%ymm0,%ymm1
-  .byte  196,193,60,89,192                   // vmulps        %ymm8,%ymm8,%ymm0
+  .byte  197,52,194,209,1                    // vcmpltps      %ymm1,%ymm9,%ymm10
+  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  196,193,124,89,196                  // vmulps        %ymm12,%ymm0,%ymm0
+  .byte  196,227,125,74,201,160              // vblendvps     %ymm10,%ymm1,%ymm0,%ymm1
+  .byte  197,236,89,194                      // vmulps        %ymm2,%ymm2,%ymm0
+  .byte  197,236,89,192                      // vmulps        %ymm0,%ymm2,%ymm0
+  .byte  197,52,194,200,1                    // vcmpltps      %ymm0,%ymm9,%ymm9
+  .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
+  .byte  196,193,108,89,212                  // vmulps        %ymm12,%ymm2,%ymm2
+  .byte  196,227,109,74,208,144              // vblendvps     %ymm9,%ymm0,%ymm2,%ymm2
+  .byte  196,226,125,24,5,185,43,0,0         // vbroadcastss  0x2bb9(%rip),%ymm0        # 560c <_sk_callback_avx+0x2fe>
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
-  .byte  197,44,194,208,1                    // vcmpltps      %ymm0,%ymm10,%ymm10
-  .byte  196,65,60,92,196                    // vsubps        %ymm12,%ymm8,%ymm8
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
-  .byte  196,99,109,74,192,160               // vblendvps     %ymm10,%ymm0,%ymm2,%ymm8
-  .byte  184,31,215,118,63                   // mov           $0x3f76d71f,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
-  .byte  184,246,64,83,63                    // mov           $0x3f5340f6,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,5,176,43,0,0          // vbroadcastss  0x2bb0(%rip),%ymm8        # 5610 <_sk_callback_avx+0x302>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -14746,17 +14430,14 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,74                              // jne           2dc3 <_sk_load_a8_avx+0x5a>
+  .byte  117,62                              // jne           2ab7 <_sk_load_a8_avx+0x4e>
   .byte  197,250,126,0                       // vmovq         (%rax),%xmm0
   .byte  196,226,121,49,200                  // vpmovzxbd     %xmm0,%xmm1
   .byte  196,227,121,4,192,229               // vpermilps     $0xe5,%xmm0,%xmm0
   .byte  196,226,121,49,192                  // vpmovzxbd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,116,43,0,0        // vbroadcastss  0x2b74(%rip),%ymm1        # 5614 <_sk_callback_avx+0x306>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -14773,9 +14454,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           2dcb <_sk_load_a8_avx+0x62>
+  .byte  117,234                             // jne           2abf <_sk_load_a8_avx+0x56>
   .byte  196,193,249,110,193                 // vmovq         %r9,%xmm0
-  .byte  235,149                             // jmp           2d7d <_sk_load_a8_avx+0x14>
+  .byte  235,161                             // jmp           2a7d <_sk_load_a8_avx+0x14>
 
 HIDDEN _sk_gather_a8_avx
 .globl _sk_gather_a8_avx
@@ -14825,10 +14506,7 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,105,42,0,0        // vbroadcastss  0x2a69(%rip),%ymm1        # 5618 <_sk_callback_avx+0x30a>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -14845,61 +14523,57 @@
 FUNCTION(_sk_store_a8_avx)
 _sk_store_a8_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,68,42,0,0           // vbroadcastss  0x2a44(%rip),%ymm8        # 561c <_sk_callback_avx+0x30e>
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  196,65,57,103,192                   // vpackuswb     %xmm8,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           2f24 <_sk_store_a8_avx+0x42>
-  .byte  196,65,123,17,4,57                  // vmovsd        %xmm8,(%r9,%rdi,1)
+  .byte  117,10                              // jne           2c01 <_sk_store_a8_avx+0x37>
+  .byte  196,65,123,17,4,58                  // vmovsd        %xmm8,(%r10,%rdi,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            2f20 <_sk_store_a8_avx+0x3e>
+  .byte  119,236                             // ja            2bfd <_sk_store_a8_avx+0x33>
   .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,68,0,0,0                   // lea           0x44(%rip),%r8        # 2f88 <_sk_store_a8_avx+0xa6>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,67,0,0,0                  // lea           0x43(%rip),%r9        # 2c64 <_sk_store_a8_avx+0x9a>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,20,68,57,6,12            // vpextrb       $0xc,%xmm8,0x6(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,5,10            // vpextrb       $0xa,%xmm8,0x5(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,4,8             // vpextrb       $0x8,%xmm8,0x4(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,3,6             // vpextrb       $0x6,%xmm8,0x3(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,2,4             // vpextrb       $0x4,%xmm8,0x2(%r9,%rdi,1)
-  .byte  196,67,121,20,68,57,1,2             // vpextrb       $0x2,%xmm8,0x1(%r9,%rdi,1)
-  .byte  196,67,121,20,4,57,0                // vpextrb       $0x0,%xmm8,(%r9,%rdi,1)
-  .byte  235,154                             // jmp           2f20 <_sk_store_a8_avx+0x3e>
-  .byte  102,144                             // xchg          %ax,%ax
-  .byte  245                                 // cmc
+  .byte  196,67,121,20,68,58,6,12            // vpextrb       $0xc,%xmm8,0x6(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,5,10            // vpextrb       $0xa,%xmm8,0x5(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,4,8             // vpextrb       $0x8,%xmm8,0x4(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,3,6             // vpextrb       $0x6,%xmm8,0x3(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,2,4             // vpextrb       $0x4,%xmm8,0x2(%r10,%rdi,1)
+  .byte  196,67,121,20,68,58,1,2             // vpextrb       $0x2,%xmm8,0x1(%r10,%rdi,1)
+  .byte  196,67,121,20,4,58,0                // vpextrb       $0x0,%xmm8,(%r10,%rdi,1)
+  .byte  235,154                             // jmp           2bfd <_sk_store_a8_avx+0x33>
+  .byte  144                                 // nop
+  .byte  246,255                             // idiv          %bh
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  238                                 // out           %al,(%dx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,230                             // jmpq          *%rsi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  237                                 // in            (%dx),%eax
+  .byte  222,255                             // fdivrp        %st,%st(7)
+  .byte  255                                 // (bad)
+  .byte  255,214                             // callq         *%rsi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,229                             // jmpq          *%rbp
+  .byte  255,206                             // dec           %esi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  221,255                             // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,213                             // callq         *%rbp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,205                             // dec           %ebp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,197                             // inc           %ebp
+  .byte  255,198                             // inc           %esi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -14913,23 +14587,17 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,1,248                            // add           %rdi,%rax
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  117,91                              // jne           300f <_sk_load_g8_avx+0x6b>
+  .byte  117,67                              // jne           2cd3 <_sk_load_g8_avx+0x53>
   .byte  197,250,126,0                       // vmovq         (%rax),%xmm0
   .byte  196,226,121,49,200                  // vpmovzxbd     %xmm0,%xmm1
   .byte  196,227,121,4,192,229               // vpermilps     $0xe5,%xmm0,%xmm0
   .byte  196,226,121,49,192                  // vpmovzxbd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,105,41,0,0        // vbroadcastss  0x2969(%rip),%ymm1        # 5620 <_sk_callback_avx+0x312>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,217,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,94,41,0,0         // vbroadcastss  0x295e(%rip),%ymm3        # 5624 <_sk_callback_avx+0x316>
   .byte  76,137,193                          // mov           %r8,%rcx
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
@@ -14943,9 +14611,9 @@
   .byte  77,9,217                            // or            %r11,%r9
   .byte  72,131,193,8                        // add           $0x8,%rcx
   .byte  73,255,202                          // dec           %r10
-  .byte  117,234                             // jne           3017 <_sk_load_g8_avx+0x73>
+  .byte  117,234                             // jne           2cdb <_sk_load_g8_avx+0x5b>
   .byte  196,193,249,110,193                 // vmovq         %r9,%xmm0
-  .byte  235,132                             // jmp           2fb8 <_sk_load_g8_avx+0x14>
+  .byte  235,156                             // jmp           2c94 <_sk_load_g8_avx+0x14>
 
 HIDDEN _sk_gather_g8_avx
 .globl _sk_gather_g8_avx
@@ -14995,16 +14663,10 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,93,40,0,0         // vbroadcastss  0x285d(%rip),%ymm1        # 5628 <_sk_callback_avx+0x31a>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,217,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,82,40,0,0         // vbroadcastss  0x2852(%rip),%ymm3        # 562c <_sk_callback_avx+0x31e>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  91                                  // pop           %rbx
@@ -15020,9 +14682,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  73,137,192                          // mov           %rax,%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  116,5                               // je            314e <_sk_gather_i8_avx+0xf>
+  .byte  116,5                               // je            2dfa <_sk_gather_i8_avx+0xf>
   .byte  76,137,192                          // mov           %r8,%rax
-  .byte  235,2                               // jmp           3150 <_sk_gather_i8_avx+0x11>
+  .byte  235,2                               // jmp           2dfc <_sk_gather_i8_avx+0x11>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,87                               // push          %r15
   .byte  65,86                               // push          %r14
@@ -15084,13 +14746,10 @@
   .byte  196,163,121,34,4,163,2              // vpinsrd       $0x2,(%rbx,%r12,4),%xmm0,%xmm0
   .byte  196,163,121,34,28,19,3              // vpinsrd       $0x3,(%rbx,%r10,1),%xmm0,%xmm3
   .byte  196,227,61,24,195,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm0
-  .byte  197,124,40,21,6,42,0,0              // vmovaps       0x2a06(%rip),%ymm10        # 5c80 <_sk_callback_avx+0x292>
+  .byte  197,124,40,21,186,40,0,0            // vmovaps       0x28ba(%rip),%ymm10        # 57e0 <_sk_callback_avx+0x4d2>
   .byte  196,193,124,84,194                  // vandps        %ymm10,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,201,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm9
+  .byte  196,98,125,24,13,248,38,0,0         // vbroadcastss  0x26f8(%rip),%ymm9        # 5630 <_sk_callback_avx+0x322>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  196,193,113,114,208,8               // vpsrld        $0x8,%xmm8,%xmm1
   .byte  197,233,114,211,8                   // vpsrld        $0x8,%xmm3,%xmm2
@@ -15124,50 +14783,38 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,176,0,0,0                    // jne           33c0 <_sk_load_565_avx+0xbe>
+  .byte  15,133,128,0,0,0                    // jne           3030 <_sk_load_565_avx+0x8e>
   .byte  196,193,122,111,4,122               // vmovdqu       (%r10,%rdi,2),%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,249,105,201                     // vpunpckhwd    %xmm1,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,209,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm2
-  .byte  196,226,125,24,5,182,40,0,0         // vbroadcastss  0x28b6(%rip),%ymm0        # 5be8 <_sk_callback_avx+0x1fa>
+  .byte  196,226,125,24,5,98,38,0,0          // vbroadcastss  0x2662(%rip),%ymm0        # 5634 <_sk_callback_avx+0x326>
   .byte  197,236,84,192                      // vandps        %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,85,38,0,0         // vbroadcastss  0x2655(%rip),%ymm1        # 5638 <_sk_callback_avx+0x32a>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,144,40,0,0        // vbroadcastss  0x2890(%rip),%ymm1        # 5bec <_sk_callback_avx+0x1fe>
+  .byte  196,226,125,24,13,76,38,0,0         // vbroadcastss  0x264c(%rip),%ymm1        # 563c <_sk_callback_avx+0x32e>
   .byte  197,236,84,201                      // vandps        %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
+  .byte  196,226,125,24,29,63,38,0,0         // vbroadcastss  0x263f(%rip),%ymm3        # 5640 <_sk_callback_avx+0x332>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,24,29,106,40,0,0        // vbroadcastss  0x286a(%rip),%ymm3        # 5bf0 <_sk_callback_avx+0x202>
+  .byte  196,226,125,24,29,54,38,0,0         // vbroadcastss  0x2636(%rip),%ymm3        # 5644 <_sk_callback_avx+0x336>
   .byte  197,236,84,211                      // vandps        %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
+  .byte  196,226,125,24,29,41,38,0,0         // vbroadcastss  0x2629(%rip),%ymm3        # 5648 <_sk_callback_avx+0x33a>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,30,38,0,0         // vbroadcastss  0x261e(%rip),%ymm3        # 564c <_sk_callback_avx+0x33e>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,62,255,255,255               // ja            3316 <_sk_load_565_avx+0x14>
+  .byte  15,135,110,255,255,255              // ja            2fb6 <_sk_load_565_avx+0x14>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 342c <_sk_load_565_avx+0x12a>
+  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 309c <_sk_load_565_avx+0xfa>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -15179,7 +14826,7 @@
   .byte  196,193,121,196,68,122,4,2          // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,68,122,2,1          // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,4,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  233,234,254,255,255                 // jmpq          3316 <_sk_load_565_avx+0x14>
+  .byte  233,26,255,255,255                  // jmpq          2fb6 <_sk_load_565_avx+0x14>
   .byte  244                                 // hlt
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -15257,35 +14904,23 @@
   .byte  197,249,105,201                     // vpunpckhwd    %xmm1,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,209,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm2
-  .byte  196,226,125,24,5,210,38,0,0         // vbroadcastss  0x26d2(%rip),%ymm0        # 5bf4 <_sk_callback_avx+0x206>
+  .byte  196,226,125,24,5,190,36,0,0         // vbroadcastss  0x24be(%rip),%ymm0        # 5650 <_sk_callback_avx+0x342>
   .byte  197,236,84,192                      // vandps        %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,177,36,0,0        // vbroadcastss  0x24b1(%rip),%ymm1        # 5654 <_sk_callback_avx+0x346>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,172,38,0,0        // vbroadcastss  0x26ac(%rip),%ymm1        # 5bf8 <_sk_callback_avx+0x20a>
+  .byte  196,226,125,24,13,168,36,0,0        // vbroadcastss  0x24a8(%rip),%ymm1        # 5658 <_sk_callback_avx+0x34a>
   .byte  197,236,84,201                      // vandps        %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
+  .byte  196,226,125,24,29,155,36,0,0        // vbroadcastss  0x249b(%rip),%ymm3        # 565c <_sk_callback_avx+0x34e>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,24,29,134,38,0,0        // vbroadcastss  0x2686(%rip),%ymm3        # 5bfc <_sk_callback_avx+0x20e>
+  .byte  196,226,125,24,29,146,36,0,0        // vbroadcastss  0x2492(%rip),%ymm3        # 5660 <_sk_callback_avx+0x352>
   .byte  197,236,84,211                      // vandps        %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
+  .byte  196,226,125,24,29,133,36,0,0        // vbroadcastss  0x2485(%rip),%ymm3        # 5664 <_sk_callback_avx+0x356>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,122,36,0,0        // vbroadcastss  0x247a(%rip),%ymm3        # 5668 <_sk_callback_avx+0x35a>
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
   .byte  65,94                               // pop           %r14
@@ -15298,76 +14933,71 @@
 FUNCTION(_sk_store_565_avx)
 _sk_store_565_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,248,65                      // mov           $0x41f80000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,102,36,0,0          // vbroadcastss  0x2466(%rip),%ymm8        # 566c <_sk_callback_avx+0x35e>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,41,114,241,11               // vpslld        $0xb,%xmm9,%xmm10
   .byte  196,67,125,25,201,1                 // vextractf128  $0x1,%ymm9,%xmm9
   .byte  196,193,49,114,241,11               // vpslld        $0xb,%xmm9,%xmm9
   .byte  196,67,45,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm9
-  .byte  184,0,0,124,66                      // mov           $0x427c0000,%eax
-  .byte  197,121,110,208                     // vmovd         %eax,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  197,44,89,209                       // vmulps        %ymm1,%ymm10,%ymm10
+  .byte  196,98,125,24,21,63,36,0,0          // vbroadcastss  0x243f(%rip),%ymm10        # 5670 <_sk_callback_avx+0x362>
+  .byte  196,65,116,89,210                   // vmulps        %ymm10,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,5                // vpslld        $0x5,%xmm10,%xmm11
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,5                // vpslld        $0x5,%xmm10,%xmm10
   .byte  196,67,37,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm11,%ymm10
   .byte  196,65,45,86,201                    // vorpd         %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,65,53,86,192                    // vorpd         %ymm8,%ymm9,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           3656 <_sk_store_565_avx+0x9e>
-  .byte  196,65,122,127,4,121                // vmovdqu       %xmm8,(%r9,%rdi,2)
+  .byte  117,10                              // jne           3281 <_sk_store_565_avx+0x89>
+  .byte  196,65,122,127,4,122                // vmovdqu       %xmm8,(%r10,%rdi,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            3652 <_sk_store_565_avx+0x9a>
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,67,0,0,0                   // lea           0x43(%rip),%r8        # 36b4 <_sk_store_565_avx+0xfc>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  119,236                             // ja            327d <_sk_store_565_avx+0x85>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,68,0,0,0                  // lea           0x44(%rip),%r9        # 32e0 <_sk_store_565_avx+0xe8>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,21,68,121,12,6           // vpextrw       $0x6,%xmm8,0xc(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,10,5           // vpextrw       $0x5,%xmm8,0xa(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,8,4            // vpextrw       $0x4,%xmm8,0x8(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,6,3            // vpextrw       $0x3,%xmm8,0x6(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,4,2            // vpextrw       $0x2,%xmm8,0x4(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,2,1            // vpextrw       $0x1,%xmm8,0x2(%r9,%rdi,2)
-  .byte  196,67,121,21,4,121,0               // vpextrw       $0x0,%xmm8,(%r9,%rdi,2)
-  .byte  235,159                             // jmp           3652 <_sk_store_565_avx+0x9a>
-  .byte  144                                 // nop
-  .byte  246,255                             // idiv          %bh
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  238                                 // out           %al,(%dx)
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,230                             // jmpq          *%rsi
+  .byte  196,67,121,21,68,122,12,6           // vpextrw       $0x6,%xmm8,0xc(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,10,5           // vpextrw       $0x5,%xmm8,0xa(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,8,4            // vpextrw       $0x4,%xmm8,0x8(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,6,3            // vpextrw       $0x3,%xmm8,0x6(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,4,2            // vpextrw       $0x2,%xmm8,0x4(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,2,1            // vpextrw       $0x1,%xmm8,0x2(%r10,%rdi,2)
+  .byte  196,67,121,21,4,122,0               // vpextrw       $0x0,%xmm8,(%r10,%rdi,2)
+  .byte  235,159                             // jmp           327d <_sk_store_565_avx+0x85>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  245                                 // cmc
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  222,255                             // fdivrp        %st,%st(7)
-  .byte  255                                 // (bad)
-  .byte  255,214                             // callq         *%rsi
+  .byte  237                                 // in            (%dx),%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,206                             // dec           %esi
+  .byte  255,229                             // jmpq          *%rbp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,198                             // inc           %esi
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,213                             // callq         *%rbp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,205                             // dec           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -15379,44 +15009,32 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,198,0,0,0                    // jne           37a4 <_sk_load_4444_avx+0xd4>
+  .byte  15,133,152,0,0,0                    // jne           33a2 <_sk_load_4444_avx+0xa6>
   .byte  196,193,122,111,4,122               // vmovdqu       (%r10,%rdi,2),%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,249,105,201                     // vpunpckhwd    %xmm1,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,217,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm3
-  .byte  196,226,125,24,5,0,37,0,0           // vbroadcastss  0x2500(%rip),%ymm0        # 5c00 <_sk_callback_avx+0x212>
+  .byte  196,226,125,24,5,72,35,0,0          // vbroadcastss  0x2348(%rip),%ymm0        # 5674 <_sk_callback_avx+0x366>
   .byte  197,228,84,192                      // vandps        %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,59,35,0,0         // vbroadcastss  0x233b(%rip),%ymm1        # 5678 <_sk_callback_avx+0x36a>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,218,36,0,0        // vbroadcastss  0x24da(%rip),%ymm1        # 5c04 <_sk_callback_avx+0x216>
+  .byte  196,226,125,24,13,50,35,0,0         // vbroadcastss  0x2332(%rip),%ymm1        # 567c <_sk_callback_avx+0x36e>
   .byte  197,228,84,201                      // vandps        %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
+  .byte  196,226,125,24,21,37,35,0,0         // vbroadcastss  0x2325(%rip),%ymm2        # 5680 <_sk_callback_avx+0x372>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,180,36,0,0        // vbroadcastss  0x24b4(%rip),%ymm2        # 5c08 <_sk_callback_avx+0x21a>
+  .byte  196,226,125,24,21,28,35,0,0         // vbroadcastss  0x231c(%rip),%ymm2        # 5684 <_sk_callback_avx+0x376>
   .byte  197,228,84,210                      // vandps        %ymm2,%ymm3,%ymm2
-  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,142,36,0,0          // vbroadcastss  0x248e(%rip),%ymm8        # 5c0c <_sk_callback_avx+0x21e>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,98,125,24,5,15,35,0,0           // vbroadcastss  0x230f(%rip),%ymm8        # 5688 <_sk_callback_avx+0x37a>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,24,5,5,35,0,0            // vbroadcastss  0x2305(%rip),%ymm8        # 568c <_sk_callback_avx+0x37e>
   .byte  196,193,100,84,216                  // vandps        %ymm8,%ymm3,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,247,34,0,0          // vbroadcastss  0x22f7(%rip),%ymm8        # 5690 <_sk_callback_avx+0x382>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
@@ -15424,9 +15042,9 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,40,255,255,255               // ja            36e4 <_sk_load_4444_avx+0x14>
+  .byte  15,135,86,255,255,255               // ja            3310 <_sk_load_4444_avx+0x14>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,73,0,0,0                  // lea           0x49(%rip),%r9        # 3810 <_sk_load_4444_avx+0x140>
+  .byte  76,141,13,75,0,0,0                  // lea           0x4b(%rip),%r9        # 3410 <_sk_load_4444_avx+0x114>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -15438,27 +15056,28 @@
   .byte  196,193,121,196,68,122,4,2          // vpinsrw       $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,68,122,2,1          // vpinsrw       $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
   .byte  196,193,121,196,4,122,0             // vpinsrw       $0x0,(%r10,%rdi,2),%xmm0,%xmm0
-  .byte  233,212,254,255,255                 // jmpq          36e4 <_sk_load_4444_avx+0x14>
-  .byte  244                                 // hlt
+  .byte  233,2,255,255,255                   // jmpq          3310 <_sk_load_4444_avx+0x14>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  242,255                             // repnz         (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  234                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,226                             // jmpq          *%rdx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  236                                 // in            (%dx),%al
+  .byte  218,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,210                             // callq         *%rdx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,228                             // jmpq          *%rsp
+  .byte  255,202                             // dec           %edx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  220,255                             // fdivr         %st,%st(7)
-  .byte  255                                 // (bad)
-  .byte  255,212                             // callq         *%rsp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,204                             // dec           %esp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,192                             // inc           %eax
+  .byte  190                                 // .byte         0xbe
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -15516,38 +15135,26 @@
   .byte  197,249,105,201                     // vpunpckhwd    %xmm1,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,217,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm3
-  .byte  196,226,125,24,5,10,35,0,0          // vbroadcastss  0x230a(%rip),%ymm0        # 5c10 <_sk_callback_avx+0x222>
+  .byte  196,226,125,24,5,142,33,0,0         // vbroadcastss  0x218e(%rip),%ymm0        # 5694 <_sk_callback_avx+0x386>
   .byte  197,228,84,192                      // vandps        %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,129,33,0,0        // vbroadcastss  0x2181(%rip),%ymm1        # 5698 <_sk_callback_avx+0x38a>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,228,34,0,0        // vbroadcastss  0x22e4(%rip),%ymm1        # 5c14 <_sk_callback_avx+0x226>
+  .byte  196,226,125,24,13,120,33,0,0        // vbroadcastss  0x2178(%rip),%ymm1        # 569c <_sk_callback_avx+0x38e>
   .byte  197,228,84,201                      // vandps        %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
+  .byte  196,226,125,24,21,107,33,0,0        // vbroadcastss  0x216b(%rip),%ymm2        # 56a0 <_sk_callback_avx+0x392>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,190,34,0,0        // vbroadcastss  0x22be(%rip),%ymm2        # 5c18 <_sk_callback_avx+0x22a>
+  .byte  196,226,125,24,21,98,33,0,0         // vbroadcastss  0x2162(%rip),%ymm2        # 56a4 <_sk_callback_avx+0x396>
   .byte  197,228,84,210                      // vandps        %ymm2,%ymm3,%ymm2
-  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  197,249,110,208                     // vmovd         %eax,%xmm2
-  .byte  196,227,121,4,210,0                 // vpermilps     $0x0,%xmm2,%xmm2
-  .byte  196,227,109,24,210,1                // vinsertf128   $0x1,%xmm2,%ymm2,%ymm2
-  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,152,34,0,0          // vbroadcastss  0x2298(%rip),%ymm8        # 5c1c <_sk_callback_avx+0x22e>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,98,125,24,5,85,33,0,0           // vbroadcastss  0x2155(%rip),%ymm8        # 56a8 <_sk_callback_avx+0x39a>
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,98,125,24,5,75,33,0,0           // vbroadcastss  0x214b(%rip),%ymm8        # 56ac <_sk_callback_avx+0x39e>
   .byte  196,193,100,84,216                  // vandps        %ymm8,%ymm3,%ymm3
-  .byte  197,124,91,195                      // vcvtdq2ps     %ymm3,%ymm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,98,125,24,5,61,33,0,0           // vbroadcastss  0x213d(%rip),%ymm8        # 56b0 <_sk_callback_avx+0x3a2>
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -15561,80 +15168,75 @@
 FUNCTION(_sk_store_4444_avx)
 _sk_store_4444_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,112,65                      // mov           $0x41700000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,34,33,0,0           // vbroadcastss  0x2122(%rip),%ymm8        # 56b4 <_sk_callback_avx+0x3a6>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,41,114,241,12               // vpslld        $0xc,%xmm9,%xmm10
   .byte  196,67,125,25,201,1                 // vextractf128  $0x1,%ymm9,%xmm9
   .byte  196,193,49,114,241,12               // vpslld        $0xc,%xmm9,%xmm9
   .byte  196,67,45,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,8                // vpslld        $0x8,%xmm10,%xmm11
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,8                // vpslld        $0x8,%xmm10,%xmm10
   .byte  196,67,37,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm11,%ymm10
   .byte  196,65,45,86,201                    // vorpd         %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,210                       // vmulps        %ymm2,%ymm8,%ymm10
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,4                // vpslld        $0x4,%xmm10,%xmm11
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,4                // vpslld        $0x4,%xmm10,%xmm10
   .byte  196,67,37,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm11,%ymm10
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,65,45,86,192                    // vorpd         %ymm8,%ymm10,%ymm8
   .byte  196,65,53,86,192                    // vorpd         %ymm8,%ymm9,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           3a61 <_sk_store_4444_avx+0xaf>
-  .byte  196,65,122,127,4,121                // vmovdqu       %xmm8,(%r9,%rdi,2)
+  .byte  117,10                              // jne           362b <_sk_store_4444_avx+0xa7>
+  .byte  196,65,122,127,4,122                // vmovdqu       %xmm8,(%r10,%rdi,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            3a5d <_sk_store_4444_avx+0xab>
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,68,0,0,0                   // lea           0x44(%rip),%r8        # 3ac0 <_sk_store_4444_avx+0x10e>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  119,236                             // ja            3627 <_sk_store_4444_avx+0xa3>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,66,0,0,0                  // lea           0x42(%rip),%r9        # 3688 <_sk_store_4444_avx+0x104>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,67,121,21,68,121,12,6           // vpextrw       $0x6,%xmm8,0xc(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,10,5           // vpextrw       $0x5,%xmm8,0xa(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,8,4            // vpextrw       $0x4,%xmm8,0x8(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,6,3            // vpextrw       $0x3,%xmm8,0x6(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,4,2            // vpextrw       $0x2,%xmm8,0x4(%r9,%rdi,2)
-  .byte  196,67,121,21,68,121,2,1            // vpextrw       $0x1,%xmm8,0x2(%r9,%rdi,2)
-  .byte  196,67,121,21,4,121,0               // vpextrw       $0x0,%xmm8,(%r9,%rdi,2)
-  .byte  235,159                             // jmp           3a5d <_sk_store_4444_avx+0xab>
-  .byte  102,144                             // xchg          %ax,%ax
-  .byte  245                                 // cmc
+  .byte  196,67,121,21,68,122,12,6           // vpextrw       $0x6,%xmm8,0xc(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,10,5           // vpextrw       $0x5,%xmm8,0xa(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,8,4            // vpextrw       $0x4,%xmm8,0x8(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,6,3            // vpextrw       $0x3,%xmm8,0x6(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,4,2            // vpextrw       $0x2,%xmm8,0x4(%r10,%rdi,2)
+  .byte  196,67,121,21,68,122,2,1            // vpextrw       $0x1,%xmm8,0x2(%r10,%rdi,2)
+  .byte  196,67,121,21,4,122,0               // vpextrw       $0x0,%xmm8,(%r10,%rdi,2)
+  .byte  235,159                             // jmp           3627 <_sk_store_4444_avx+0xa3>
+  .byte  247,255                             // idiv          %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  239                                 // out           %eax,(%dx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,231                             // jmpq          *%rdi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  237                                 // in            (%dx),%eax
+  .byte  223,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,215                             // callq         *%rdi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,229                             // jmpq          *%rbp
+  .byte  255,207                             // dec           %edi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  221,255                             // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,213                             // callq         *%rbp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,205                             // dec           %ebp
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,197                             // inc           %ebp
+  .byte  255,199                             // inc           %edi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -15646,15 +15248,12 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,147,0,0,0                    // jne           3b7d <_sk_load_8888_avx+0xa1>
+  .byte  15,133,135,0,0,0                    // jne           3739 <_sk_load_8888_avx+0x95>
   .byte  196,65,124,16,12,186                // vmovups       (%r10,%rdi,4),%ymm9
-  .byte  197,124,40,21,168,33,0,0            // vmovaps       0x21a8(%rip),%ymm10        # 5ca0 <_sk_callback_avx+0x2b2>
+  .byte  197,124,40,21,64,33,0,0             // vmovaps       0x2140(%rip),%ymm10        # 5800 <_sk_callback_avx+0x4f2>
   .byte  196,193,52,84,194                   // vandps        %ymm10,%ymm9,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,193,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm8
+  .byte  196,98,125,24,5,230,31,0,0          // vbroadcastss  0x1fe6(%rip),%ymm8        # 56b8 <_sk_callback_avx+0x3aa>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  196,193,113,114,209,8               // vpsrld        $0x8,%xmm9,%xmm1
   .byte  196,99,125,25,203,1                 // vextractf128  $0x1,%ymm9,%xmm3
@@ -15681,9 +15280,9 @@
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  15,135,90,255,255,255               // ja            3af0 <_sk_load_8888_avx+0x14>
+  .byte  15,135,102,255,255,255              // ja            36b8 <_sk_load_8888_avx+0x14>
   .byte  69,15,182,192                       // movzbl        %r8b,%r8d
-  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 3c2c <_sk_load_8888_avx+0x150>
+  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 37e8 <_sk_load_8888_avx+0x144>
   .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -15706,7 +15305,7 @@
   .byte  196,99,53,12,200,15                 // vblendps      $0xf,%ymm0,%ymm9,%ymm9
   .byte  196,195,49,34,4,186,0               // vpinsrd       $0x0,(%r10,%rdi,4),%xmm9,%xmm0
   .byte  196,99,53,12,200,15                 // vblendps      $0xf,%ymm0,%ymm9,%ymm9
-  .byte  233,198,254,255,255                 // jmpq          3af0 <_sk_load_8888_avx+0x14>
+  .byte  233,210,254,255,255                 // jmpq          36b8 <_sk_load_8888_avx+0x14>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  236                                 // in            (%dx),%al
   .byte  255                                 // (bad)
@@ -15724,7 +15323,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  126,255                             // jle           3c45 <_sk_load_8888_avx+0x169>
+  .byte  126,255                             // jle           3801 <_sk_load_8888_avx+0x15d>
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
 
@@ -15769,13 +15368,10 @@
   .byte  196,131,121,34,4,152,2              // vpinsrd       $0x2,(%r8,%r11,4),%xmm0,%xmm0
   .byte  196,131,121,34,28,144,3             // vpinsrd       $0x3,(%r8,%r10,4),%xmm0,%xmm3
   .byte  196,227,61,24,195,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm0
-  .byte  197,124,40,21,198,31,0,0            // vmovaps       0x1fc6(%rip),%ymm10        # 5cc0 <_sk_callback_avx+0x2d2>
+  .byte  197,124,40,21,106,31,0,0            // vmovaps       0x1f6a(%rip),%ymm10        # 5820 <_sk_callback_avx+0x512>
   .byte  196,193,124,84,194                  // vandps        %ymm10,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,201,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm9
+  .byte  196,98,125,24,13,244,29,0,0         // vbroadcastss  0x1df4(%rip),%ymm9        # 56bc <_sk_callback_avx+0x3ae>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  196,193,113,114,208,8               // vpsrld        $0x8,%xmm8,%xmm1
   .byte  197,233,114,211,8                   // vpsrld        $0x8,%xmm3,%xmm2
@@ -15806,27 +15402,24 @@
 FUNCTION(_sk_store_8888_avx)
 _sk_store_8888_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  76,139,8                            // mov           (%rax),%r9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  196,98,125,24,5,130,29,0,0          // vbroadcastss  0x1d82(%rip),%ymm8        # 56c0 <_sk_callback_avx+0x3b2>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,8                // vpslld        $0x8,%xmm10,%xmm11
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,8                // vpslld        $0x8,%xmm10,%xmm10
   .byte  196,67,37,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm11,%ymm10
   .byte  196,65,45,86,201                    // vorpd         %ymm9,%ymm10,%ymm9
-  .byte  197,60,89,210                       // vmulps        %ymm2,%ymm8,%ymm10
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,16               // vpslld        $0x10,%xmm10,%xmm11
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,16               // vpslld        $0x10,%xmm10,%xmm10
   .byte  196,67,37,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm11,%ymm10
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,193,33,114,240,24               // vpslld        $0x18,%xmm8,%xmm11
   .byte  196,67,125,25,192,1                 // vextractf128  $0x1,%ymm8,%xmm8
@@ -15835,31 +15428,31 @@
   .byte  196,65,45,86,192                    // vorpd         %ymm8,%ymm10,%ymm8
   .byte  196,65,53,86,192                    // vorpd         %ymm8,%ymm9,%ymm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,10                              // jne           3e24 <_sk_store_8888_avx+0xa4>
-  .byte  196,65,124,17,4,185                 // vmovups       %ymm8,(%r9,%rdi,4)
+  .byte  117,10                              // jne           39cc <_sk_store_8888_avx+0x9c>
+  .byte  196,65,124,17,4,186                 // vmovups       %ymm8,(%r10,%rdi,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  65,128,224,7                        // and           $0x7,%r8b
   .byte  65,254,200                          // dec           %r8b
   .byte  65,128,248,6                        // cmp           $0x6,%r8b
-  .byte  119,236                             // ja            3e20 <_sk_store_8888_avx+0xa0>
-  .byte  65,15,182,192                       // movzbl        %r8b,%eax
-  .byte  76,141,5,85,0,0,0                   // lea           0x55(%rip),%r8        # 3e94 <_sk_store_8888_avx+0x114>
-  .byte  73,99,4,128                         // movslq        (%r8,%rax,4),%rax
-  .byte  76,1,192                            // add           %r8,%rax
+  .byte  119,236                             // ja            39c8 <_sk_store_8888_avx+0x98>
+  .byte  69,15,182,192                       // movzbl        %r8b,%r8d
+  .byte  76,141,13,85,0,0,0                  // lea           0x55(%rip),%r9        # 3a3c <_sk_store_8888_avx+0x10c>
+  .byte  75,99,4,129                         // movslq        (%r9,%r8,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
-  .byte  196,67,121,22,76,185,24,2           // vpextrd       $0x2,%xmm9,0x18(%r9,%rdi,4)
+  .byte  196,67,121,22,76,186,24,2           // vpextrd       $0x2,%xmm9,0x18(%r10,%rdi,4)
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
-  .byte  196,67,121,22,76,185,20,1           // vpextrd       $0x1,%xmm9,0x14(%r9,%rdi,4)
+  .byte  196,67,121,22,76,186,20,1           // vpextrd       $0x1,%xmm9,0x14(%r10,%rdi,4)
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
-  .byte  196,65,122,17,76,185,16             // vmovss        %xmm9,0x10(%r9,%rdi,4)
-  .byte  196,67,121,22,68,185,12,3           // vpextrd       $0x3,%xmm8,0xc(%r9,%rdi,4)
-  .byte  196,67,121,22,68,185,8,2            // vpextrd       $0x2,%xmm8,0x8(%r9,%rdi,4)
-  .byte  196,67,121,22,68,185,4,1            // vpextrd       $0x1,%xmm8,0x4(%r9,%rdi,4)
-  .byte  196,65,121,126,4,185                // vmovd         %xmm8,(%r9,%rdi,4)
-  .byte  235,143                             // jmp           3e20 <_sk_store_8888_avx+0xa0>
+  .byte  196,65,122,17,76,186,16             // vmovss        %xmm9,0x10(%r10,%rdi,4)
+  .byte  196,67,121,22,68,186,12,3           // vpextrd       $0x3,%xmm8,0xc(%r10,%rdi,4)
+  .byte  196,67,121,22,68,186,8,2            // vpextrd       $0x2,%xmm8,0x8(%r10,%rdi,4)
+  .byte  196,67,121,22,68,186,4,1            // vpextrd       $0x1,%xmm8,0x4(%r10,%rdi,4)
+  .byte  196,65,121,126,4,186                // vmovd         %xmm8,(%r10,%rdi,4)
+  .byte  235,143                             // jmp           39c8 <_sk_store_8888_avx+0x98>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  245                                 // cmc
   .byte  255                                 // (bad)
@@ -15897,7 +15490,7 @@
   .byte  197,252,17,116,36,192               // vmovups       %ymm6,-0x40(%rsp)
   .byte  197,252,17,108,36,160               // vmovups       %ymm5,-0x60(%rsp)
   .byte  197,254,127,100,36,128              // vmovdqu       %ymm4,-0x80(%rsp)
-  .byte  15,133,141,2,0,0                    // jne           4167 <_sk_load_f16_avx+0x2b7>
+  .byte  15,133,141,2,0,0                    // jne           3d0f <_sk_load_f16_avx+0x2b7>
   .byte  197,121,16,4,248                    // vmovupd       (%rax,%rdi,8),%xmm8
   .byte  197,249,16,84,248,16                // vmovupd       0x10(%rax,%rdi,8),%xmm2
   .byte  197,249,16,76,248,32                // vmovupd       0x20(%rax,%rdi,8),%xmm1
@@ -15915,13 +15508,13 @@
   .byte  197,249,105,201                     // vpunpckhwd    %xmm1,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
-  .byte  196,98,125,24,37,237,28,0,0         // vbroadcastss  0x1ced(%rip),%ymm12        # 5c20 <_sk_callback_avx+0x232>
+  .byte  196,98,125,24,37,233,27,0,0         // vbroadcastss  0x1be9(%rip),%ymm12        # 56c4 <_sk_callback_avx+0x3b6>
   .byte  196,193,124,84,204                  // vandps        %ymm12,%ymm0,%ymm1
   .byte  197,252,87,193                      // vxorps        %ymm1,%ymm0,%ymm0
   .byte  196,195,125,25,198,1                // vextractf128  $0x1,%ymm0,%xmm14
-  .byte  196,98,121,24,29,217,28,0,0         // vbroadcastss  0x1cd9(%rip),%xmm11        # 5c24 <_sk_callback_avx+0x236>
+  .byte  196,98,121,24,29,213,27,0,0         // vbroadcastss  0x1bd5(%rip),%xmm11        # 56c8 <_sk_callback_avx+0x3ba>
   .byte  196,193,8,87,219                    // vxorps        %xmm11,%xmm14,%xmm3
-  .byte  196,98,121,24,45,207,28,0,0         // vbroadcastss  0x1ccf(%rip),%xmm13        # 5c28 <_sk_callback_avx+0x23a>
+  .byte  196,98,121,24,45,203,27,0,0         // vbroadcastss  0x1bcb(%rip),%xmm13        # 56cc <_sk_callback_avx+0x3be>
   .byte  197,145,102,219                     // vpcmpgtd      %xmm3,%xmm13,%xmm3
   .byte  196,65,120,87,211                   // vxorps        %xmm11,%xmm0,%xmm10
   .byte  196,65,17,102,210                   // vpcmpgtd      %xmm10,%xmm13,%xmm10
@@ -15935,7 +15528,7 @@
   .byte  196,227,125,24,195,1                // vinsertf128   $0x1,%xmm3,%ymm0,%ymm0
   .byte  197,252,86,193                      // vorps         %ymm1,%ymm0,%ymm0
   .byte  196,227,125,25,193,1                // vextractf128  $0x1,%ymm0,%xmm1
-  .byte  196,226,121,24,29,133,28,0,0        // vbroadcastss  0x1c85(%rip),%xmm3        # 5c2c <_sk_callback_avx+0x23e>
+  .byte  196,226,121,24,29,129,27,0,0        // vbroadcastss  0x1b81(%rip),%xmm3        # 56d0 <_sk_callback_avx+0x3c2>
   .byte  197,241,254,203                     // vpaddd        %xmm3,%xmm1,%xmm1
   .byte  197,249,254,195                     // vpaddd        %xmm3,%xmm0,%xmm0
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
@@ -16028,29 +15621,29 @@
   .byte  197,123,16,4,248                    // vmovsd        (%rax,%rdi,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,79                              // je            41c6 <_sk_load_f16_avx+0x316>
+  .byte  116,79                              // je            3d6e <_sk_load_f16_avx+0x316>
   .byte  197,57,22,68,248,8                  // vmovhpd       0x8(%rax,%rdi,8),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,67                              // jb            41c6 <_sk_load_f16_avx+0x316>
+  .byte  114,67                              // jb            3d6e <_sk_load_f16_avx+0x316>
   .byte  197,251,16,84,248,16                // vmovsd        0x10(%rax,%rdi,8),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,68                              // je            41d3 <_sk_load_f16_avx+0x323>
+  .byte  116,68                              // je            3d7b <_sk_load_f16_avx+0x323>
   .byte  197,233,22,84,248,24                // vmovhpd       0x18(%rax,%rdi,8),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,56                              // jb            41d3 <_sk_load_f16_avx+0x323>
+  .byte  114,56                              // jb            3d7b <_sk_load_f16_avx+0x323>
   .byte  197,251,16,76,248,32                // vmovsd        0x20(%rax,%rdi,8),%xmm1
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,70,253,255,255               // je            3ef1 <_sk_load_f16_avx+0x41>
+  .byte  15,132,70,253,255,255               // je            3a99 <_sk_load_f16_avx+0x41>
   .byte  197,241,22,76,248,40                // vmovhpd       0x28(%rax,%rdi,8),%xmm1,%xmm1
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,54,253,255,255               // jb            3ef1 <_sk_load_f16_avx+0x41>
+  .byte  15,130,54,253,255,255               // jb            3a99 <_sk_load_f16_avx+0x41>
   .byte  197,122,126,76,248,48               // vmovq         0x30(%rax,%rdi,8),%xmm9
-  .byte  233,43,253,255,255                  // jmpq          3ef1 <_sk_load_f16_avx+0x41>
+  .byte  233,43,253,255,255                  // jmpq          3a99 <_sk_load_f16_avx+0x41>
   .byte  197,241,87,201                      // vxorpd        %xmm1,%xmm1,%xmm1
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,30,253,255,255                  // jmpq          3ef1 <_sk_load_f16_avx+0x41>
+  .byte  233,30,253,255,255                  // jmpq          3a99 <_sk_load_f16_avx+0x41>
   .byte  197,241,87,201                      // vxorpd        %xmm1,%xmm1,%xmm1
-  .byte  233,21,253,255,255                  // jmpq          3ef1 <_sk_load_f16_avx+0x41>
+  .byte  233,21,253,255,255                  // jmpq          3a99 <_sk_load_f16_avx+0x41>
 
 HIDDEN _sk_gather_f16_avx
 .globl _sk_gather_f16_avx
@@ -16114,13 +15707,13 @@
   .byte  197,249,105,210                     // vpunpckhwd    %xmm2,%xmm0,%xmm2
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,194,1                // vinsertf128   $0x1,%xmm2,%ymm0,%ymm0
-  .byte  196,98,125,24,37,73,25,0,0          // vbroadcastss  0x1949(%rip),%ymm12        # 5c30 <_sk_callback_avx+0x242>
+  .byte  196,98,125,24,37,69,24,0,0          // vbroadcastss  0x1845(%rip),%ymm12        # 56d4 <_sk_callback_avx+0x3c6>
   .byte  196,193,124,84,212                  // vandps        %ymm12,%ymm0,%ymm2
   .byte  197,252,87,194                      // vxorps        %ymm2,%ymm0,%ymm0
   .byte  196,195,125,25,198,1                // vextractf128  $0x1,%ymm0,%xmm14
-  .byte  196,98,121,24,29,53,25,0,0          // vbroadcastss  0x1935(%rip),%xmm11        # 5c34 <_sk_callback_avx+0x246>
+  .byte  196,98,121,24,29,49,24,0,0          // vbroadcastss  0x1831(%rip),%xmm11        # 56d8 <_sk_callback_avx+0x3ca>
   .byte  196,193,8,87,219                    // vxorps        %xmm11,%xmm14,%xmm3
-  .byte  196,98,121,24,45,43,25,0,0          // vbroadcastss  0x192b(%rip),%xmm13        # 5c38 <_sk_callback_avx+0x24a>
+  .byte  196,98,121,24,45,39,24,0,0          // vbroadcastss  0x1827(%rip),%xmm13        # 56dc <_sk_callback_avx+0x3ce>
   .byte  197,145,102,219                     // vpcmpgtd      %xmm3,%xmm13,%xmm3
   .byte  196,65,120,87,211                   // vxorps        %xmm11,%xmm0,%xmm10
   .byte  196,65,17,102,210                   // vpcmpgtd      %xmm10,%xmm13,%xmm10
@@ -16134,7 +15727,7 @@
   .byte  196,227,125,24,195,1                // vinsertf128   $0x1,%xmm3,%ymm0,%ymm0
   .byte  197,252,86,194                      // vorps         %ymm2,%ymm0,%ymm0
   .byte  196,227,125,25,194,1                // vextractf128  $0x1,%ymm0,%xmm2
-  .byte  196,226,121,24,29,225,24,0,0        // vbroadcastss  0x18e1(%rip),%xmm3        # 5c3c <_sk_callback_avx+0x24e>
+  .byte  196,226,121,24,29,221,23,0,0        // vbroadcastss  0x17dd(%rip),%xmm3        # 56e0 <_sk_callback_avx+0x3d2>
   .byte  197,233,254,211                     // vpaddd        %xmm3,%xmm2,%xmm2
   .byte  197,249,254,195                     // vpaddd        %xmm3,%xmm0,%xmm0
   .byte  196,227,125,24,194,1                // vinsertf128   $0x1,%xmm2,%ymm0,%ymm0
@@ -16238,12 +15831,12 @@
   .byte  197,252,17,52,36                    // vmovups       %ymm6,(%rsp)
   .byte  197,252,17,108,36,224               // vmovups       %ymm5,-0x20(%rsp)
   .byte  197,252,17,100,36,192               // vmovups       %ymm4,-0x40(%rsp)
-  .byte  196,98,125,24,13,250,22,0,0         // vbroadcastss  0x16fa(%rip),%ymm9        # 5c40 <_sk_callback_avx+0x252>
+  .byte  196,98,125,24,13,246,21,0,0         // vbroadcastss  0x15f6(%rip),%ymm9        # 56e4 <_sk_callback_avx+0x3d6>
   .byte  196,65,124,84,209                   // vandps        %ymm9,%ymm0,%ymm10
   .byte  197,252,17,68,36,128                // vmovups       %ymm0,-0x80(%rsp)
   .byte  196,65,124,87,218                   // vxorps        %ymm10,%ymm0,%ymm11
   .byte  196,67,125,25,220,1                 // vextractf128  $0x1,%ymm11,%xmm12
-  .byte  196,98,121,24,5,223,22,0,0          // vbroadcastss  0x16df(%rip),%xmm8        # 5c44 <_sk_callback_avx+0x256>
+  .byte  196,98,121,24,5,219,21,0,0          // vbroadcastss  0x15db(%rip),%xmm8        # 56e8 <_sk_callback_avx+0x3da>
   .byte  196,65,57,102,236                   // vpcmpgtd      %xmm12,%xmm8,%xmm13
   .byte  196,65,57,102,243                   // vpcmpgtd      %xmm11,%xmm8,%xmm14
   .byte  196,67,13,24,237,1                  // vinsertf128   $0x1,%xmm13,%ymm14,%ymm13
@@ -16253,7 +15846,7 @@
   .byte  196,67,13,24,242,1                  // vinsertf128   $0x1,%xmm10,%ymm14,%ymm14
   .byte  196,193,33,114,211,13               // vpsrld        $0xd,%xmm11,%xmm11
   .byte  196,193,25,114,212,13               // vpsrld        $0xd,%xmm12,%xmm12
-  .byte  196,98,125,24,21,166,22,0,0         // vbroadcastss  0x16a6(%rip),%ymm10        # 5c48 <_sk_callback_avx+0x25a>
+  .byte  196,98,125,24,21,162,21,0,0         // vbroadcastss  0x15a2(%rip),%ymm10        # 56ec <_sk_callback_avx+0x3de>
   .byte  196,65,12,86,242                    // vorps         %ymm10,%ymm14,%ymm14
   .byte  196,67,125,25,247,1                 // vextractf128  $0x1,%ymm14,%xmm15
   .byte  196,65,1,254,228                    // vpaddd        %xmm12,%xmm15,%xmm12
@@ -16335,7 +15928,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,66                              // jne           4780 <_sk_store_f16_avx+0x25e>
+  .byte  117,66                              // jne           4328 <_sk_store_f16_avx+0x25e>
   .byte  197,120,17,28,248                   // vmovups       %xmm11,(%rax,%rdi,8)
   .byte  197,120,17,84,248,16                // vmovups       %xmm10,0x10(%rax,%rdi,8)
   .byte  197,120,17,76,248,32                // vmovups       %xmm9,0x20(%rax,%rdi,8)
@@ -16351,22 +15944,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  197,121,214,28,248                  // vmovq         %xmm11,(%rax,%rdi,8)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,202                             // je            4755 <_sk_store_f16_avx+0x233>
+  .byte  116,202                             // je            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,23,92,248,8                 // vmovhpd       %xmm11,0x8(%rax,%rdi,8)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,190                             // jb            4755 <_sk_store_f16_avx+0x233>
+  .byte  114,190                             // jb            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,214,84,248,16               // vmovq         %xmm10,0x10(%rax,%rdi,8)
-  .byte  116,182                             // je            4755 <_sk_store_f16_avx+0x233>
+  .byte  116,182                             // je            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,23,84,248,24                // vmovhpd       %xmm10,0x18(%rax,%rdi,8)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,170                             // jb            4755 <_sk_store_f16_avx+0x233>
+  .byte  114,170                             // jb            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,214,76,248,32               // vmovq         %xmm9,0x20(%rax,%rdi,8)
-  .byte  116,162                             // je            4755 <_sk_store_f16_avx+0x233>
+  .byte  116,162                             // je            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,23,76,248,40                // vmovhpd       %xmm9,0x28(%rax,%rdi,8)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,150                             // jb            4755 <_sk_store_f16_avx+0x233>
+  .byte  114,150                             // jb            42fd <_sk_store_f16_avx+0x233>
   .byte  197,121,214,68,248,48               // vmovq         %xmm8,0x30(%rax,%rdi,8)
-  .byte  235,142                             // jmp           4755 <_sk_store_f16_avx+0x233>
+  .byte  235,142                             // jmp           42fd <_sk_store_f16_avx+0x233>
 
 HIDDEN _sk_load_u16_be_avx
 .globl _sk_load_u16_be_avx
@@ -16376,7 +15969,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,141,4,189,0,0,0,0                // lea           0x0(,%rdi,4),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,5,1,0,0                      // jne           48e2 <_sk_load_u16_be_avx+0x11b>
+  .byte  15,133,253,0,0,0                    // jne           4482 <_sk_load_u16_be_avx+0x113>
   .byte  196,65,121,16,4,64                  // vmovupd       (%r8,%rax,2),%xmm8
   .byte  196,193,121,16,84,64,16             // vmovupd       0x10(%r8,%rax,2),%xmm2
   .byte  196,193,121,16,92,64,32             // vmovupd       0x20(%r8,%rax,2),%xmm3
@@ -16385,79 +15978,76 @@
   .byte  197,185,105,210                     // vpunpckhwd    %xmm2,%xmm8,%xmm2
   .byte  196,193,97,97,201                   // vpunpcklwd    %xmm9,%xmm3,%xmm1
   .byte  196,193,97,105,217                  // vpunpckhwd    %xmm9,%xmm3,%xmm3
-  .byte  197,121,97,210                      // vpunpcklwd    %xmm2,%xmm0,%xmm10
+  .byte  197,121,97,202                      // vpunpcklwd    %xmm2,%xmm0,%xmm9
   .byte  197,121,105,194                     // vpunpckhwd    %xmm2,%xmm0,%xmm8
   .byte  197,241,97,211                      // vpunpcklwd    %xmm3,%xmm1,%xmm2
-  .byte  197,113,105,203                     // vpunpckhwd    %xmm3,%xmm1,%xmm9
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,99,125,24,224,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm12
-  .byte  197,169,108,194                     // vpunpcklqdq   %xmm2,%xmm10,%xmm0
+  .byte  197,113,105,227                     // vpunpckhwd    %xmm3,%xmm1,%xmm12
+  .byte  197,177,108,194                     // vpunpcklqdq   %xmm2,%xmm9,%xmm0
   .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
   .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
   .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
-  .byte  196,65,33,239,219                   // vpxor         %xmm11,%xmm11,%xmm11
-  .byte  196,193,121,105,203                 // vpunpckhwd    %xmm11,%xmm0,%xmm1
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  196,193,121,105,202                 // vpunpckhwd    %xmm10,%xmm0,%xmm1
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,156,89,192                      // vmulps        %ymm0,%ymm12,%ymm0
-  .byte  197,169,109,202                     // vpunpckhqdq   %xmm2,%xmm10,%xmm1
+  .byte  196,98,125,24,29,250,18,0,0         // vbroadcastss  0x12fa(%rip),%ymm11        # 56f0 <_sk_callback_avx+0x3e2>
+  .byte  196,193,124,89,195                  // vmulps        %ymm11,%ymm0,%ymm0
+  .byte  197,177,109,202                     // vpunpckhqdq   %xmm2,%xmm9,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
   .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
   .byte  197,233,235,201                     // vpor          %xmm1,%xmm2,%xmm1
-  .byte  196,193,113,105,211                 // vpunpckhwd    %xmm11,%xmm1,%xmm2
+  .byte  196,193,113,105,210                 // vpunpckhwd    %xmm10,%xmm1,%xmm2
   .byte  196,226,121,51,201                  // vpmovzxwd     %xmm1,%xmm1
   .byte  196,227,117,24,202,1                // vinsertf128   $0x1,%xmm2,%ymm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,156,89,201                      // vmulps        %ymm1,%ymm12,%ymm1
-  .byte  196,193,57,108,209                  // vpunpcklqdq   %xmm9,%xmm8,%xmm2
-  .byte  197,169,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm10
+  .byte  196,193,116,89,203                  // vmulps        %ymm11,%ymm1,%ymm1
+  .byte  196,193,57,108,212                  // vpunpcklqdq   %xmm12,%xmm8,%xmm2
+  .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
   .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
-  .byte  197,169,235,210                     // vpor          %xmm2,%xmm10,%xmm2
-  .byte  196,65,105,105,211                  // vpunpckhwd    %xmm11,%xmm2,%xmm10
+  .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
+  .byte  196,193,105,105,218                 // vpunpckhwd    %xmm10,%xmm2,%xmm3
   .byte  196,226,121,51,210                  // vpmovzxwd     %xmm2,%xmm2
-  .byte  196,195,109,24,210,1                // vinsertf128   $0x1,%xmm10,%ymm2,%ymm2
+  .byte  196,227,109,24,211,1                // vinsertf128   $0x1,%xmm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,156,89,210                      // vmulps        %ymm2,%ymm12,%ymm2
-  .byte  196,193,57,109,217                  // vpunpckhqdq   %xmm9,%xmm8,%xmm3
+  .byte  196,193,108,89,211                  // vmulps        %ymm11,%ymm2,%ymm2
+  .byte  196,193,57,109,220                  // vpunpckhqdq   %xmm12,%xmm8,%xmm3
   .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
   .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
   .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
-  .byte  196,65,97,105,195                   // vpunpckhwd    %xmm11,%xmm3,%xmm8
+  .byte  196,65,97,105,194                   // vpunpckhwd    %xmm10,%xmm3,%xmm8
   .byte  196,226,121,51,219                  // vpmovzxwd     %xmm3,%xmm3
   .byte  196,195,101,24,216,1                // vinsertf128   $0x1,%xmm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  197,156,89,219                      // vmulps        %ymm3,%ymm12,%ymm3
+  .byte  196,193,100,89,219                  // vmulps        %ymm11,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,123,16,4,64                  // vmovsd        (%r8,%rax,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,85                              // je            4948 <_sk_load_u16_be_avx+0x181>
+  .byte  116,85                              // je            44e8 <_sk_load_u16_be_avx+0x179>
   .byte  196,65,57,22,68,64,8                // vmovhpd       0x8(%r8,%rax,2),%xmm8,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,72                              // jb            4948 <_sk_load_u16_be_avx+0x181>
+  .byte  114,72                              // jb            44e8 <_sk_load_u16_be_avx+0x179>
   .byte  196,193,123,16,84,64,16             // vmovsd        0x10(%r8,%rax,2),%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  116,72                              // je            4955 <_sk_load_u16_be_avx+0x18e>
+  .byte  116,72                              // je            44f5 <_sk_load_u16_be_avx+0x186>
   .byte  196,193,105,22,84,64,24             // vmovhpd       0x18(%r8,%rax,2),%xmm2,%xmm2
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,59                              // jb            4955 <_sk_load_u16_be_avx+0x18e>
+  .byte  114,59                              // jb            44f5 <_sk_load_u16_be_avx+0x186>
   .byte  196,193,123,16,92,64,32             // vmovsd        0x20(%r8,%rax,2),%xmm3
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  15,132,205,254,255,255              // je            47f8 <_sk_load_u16_be_avx+0x31>
+  .byte  15,132,213,254,255,255              // je            43a0 <_sk_load_u16_be_avx+0x31>
   .byte  196,193,97,22,92,64,40              // vmovhpd       0x28(%r8,%rax,2),%xmm3,%xmm3
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  15,130,188,254,255,255              // jb            47f8 <_sk_load_u16_be_avx+0x31>
+  .byte  15,130,196,254,255,255              // jb            43a0 <_sk_load_u16_be_avx+0x31>
   .byte  196,65,122,126,76,64,48             // vmovq         0x30(%r8,%rax,2),%xmm9
-  .byte  233,176,254,255,255                 // jmpq          47f8 <_sk_load_u16_be_avx+0x31>
+  .byte  233,184,254,255,255                 // jmpq          43a0 <_sk_load_u16_be_avx+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,163,254,255,255                 // jmpq          47f8 <_sk_load_u16_be_avx+0x31>
+  .byte  233,171,254,255,255                 // jmpq          43a0 <_sk_load_u16_be_avx+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,154,254,255,255                 // jmpq          47f8 <_sk_load_u16_be_avx+0x31>
+  .byte  233,162,254,255,255                 // jmpq          43a0 <_sk_load_u16_be_avx+0x31>
 
 HIDDEN _sk_load_rgb_u16_be_avx
 .globl _sk_load_rgb_u16_be_avx
@@ -16467,7 +16057,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,141,4,127                        // lea           (%rdi,%rdi,2),%rax
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,133,8,1,0,0                      // jne           4a78 <_sk_load_rgb_u16_be_avx+0x11a>
+  .byte  15,133,243,0,0,0                    // jne           4603 <_sk_load_rgb_u16_be_avx+0x105>
   .byte  196,193,122,111,4,64                // vmovdqu       (%r8,%rax,2),%xmm0
   .byte  196,193,122,111,84,64,12            // vmovdqu       0xc(%r8,%rax,2),%xmm2
   .byte  196,193,122,111,76,64,24            // vmovdqu       0x18(%r8,%rax,2),%xmm1
@@ -16484,11 +16074,7 @@
   .byte  197,121,97,194                      // vpunpcklwd    %xmm2,%xmm0,%xmm8
   .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
   .byte  197,241,97,211                      // vpunpcklwd    %xmm3,%xmm1,%xmm2
-  .byte  197,113,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm11
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,99,125,24,208,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm10
+  .byte  197,113,105,211                     // vpunpckhwd    %xmm3,%xmm1,%xmm10
   .byte  197,185,108,194                     // vpunpcklqdq   %xmm2,%xmm8,%xmm0
   .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
   .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
@@ -16498,7 +16084,8 @@
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  196,98,125,24,29,90,17,0,0          // vbroadcastss  0x115a(%rip),%ymm11        # 56f4 <_sk_callback_avx+0x3e6>
+  .byte  196,193,124,89,195                  // vmulps        %ymm11,%ymm0,%ymm0
   .byte  197,185,109,202                     // vpunpckhqdq   %xmm2,%xmm8,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
   .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
@@ -16507,8 +16094,8 @@
   .byte  196,226,121,51,201                  // vpmovzxwd     %xmm1,%xmm1
   .byte  196,227,117,24,202,1                // vinsertf128   $0x1,%xmm2,%ymm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
-  .byte  196,193,49,108,211                  // vpunpcklqdq   %xmm11,%xmm9,%xmm2
+  .byte  196,193,116,89,203                  // vmulps        %ymm11,%ymm1,%ymm1
+  .byte  196,193,49,108,210                  // vpunpcklqdq   %xmm10,%xmm9,%xmm2
   .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
   .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
   .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
@@ -16516,46 +16103,43 @@
   .byte  196,226,121,51,210                  // vpmovzxwd     %xmm2,%xmm2
   .byte  196,227,109,24,211,1                // vinsertf128   $0x1,%xmm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
+  .byte  196,193,108,89,211                  // vmulps        %ymm11,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,247,16,0,0        // vbroadcastss  0x10f7(%rip),%ymm3        # 56f8 <_sk_callback_avx+0x3ea>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,4,64                // vmovd         (%r8,%rax,2),%xmm0
   .byte  196,193,121,196,68,64,4,2           // vpinsrw       $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  117,5                               // jne           4a91 <_sk_load_rgb_u16_be_avx+0x133>
-  .byte  233,19,255,255,255                  // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  117,5                               // jne           461c <_sk_load_rgb_u16_be_avx+0x11e>
+  .byte  233,40,255,255,255                  // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
   .byte  196,193,121,110,76,64,6             // vmovd         0x6(%r8,%rax,2),%xmm1
   .byte  196,65,113,196,68,64,10,2           // vpinsrw       $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,26                              // jb            4ac0 <_sk_load_rgb_u16_be_avx+0x162>
+  .byte  114,26                              // jb            464b <_sk_load_rgb_u16_be_avx+0x14d>
   .byte  196,193,121,110,76,64,12            // vmovd         0xc(%r8,%rax,2),%xmm1
   .byte  196,193,113,196,84,64,16,2          // vpinsrw       $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  117,10                              // jne           4ac5 <_sk_load_rgb_u16_be_avx+0x167>
-  .byte  233,228,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
-  .byte  233,223,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  117,10                              // jne           4650 <_sk_load_rgb_u16_be_avx+0x152>
+  .byte  233,249,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  233,244,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
   .byte  196,193,121,110,76,64,18            // vmovd         0x12(%r8,%rax,2),%xmm1
   .byte  196,65,113,196,76,64,22,2           // vpinsrw       $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,26                              // jb            4af4 <_sk_load_rgb_u16_be_avx+0x196>
+  .byte  114,26                              // jb            467f <_sk_load_rgb_u16_be_avx+0x181>
   .byte  196,193,121,110,76,64,24            // vmovd         0x18(%r8,%rax,2),%xmm1
   .byte  196,193,113,196,76,64,28,2          // vpinsrw       $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  117,10                              // jne           4af9 <_sk_load_rgb_u16_be_avx+0x19b>
-  .byte  233,176,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
-  .byte  233,171,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  117,10                              // jne           4684 <_sk_load_rgb_u16_be_avx+0x186>
+  .byte  233,197,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  233,192,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
   .byte  196,193,121,110,92,64,30            // vmovd         0x1e(%r8,%rax,2),%xmm3
   .byte  196,65,97,196,92,64,34,2            // vpinsrw       $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,20                              // jb            4b22 <_sk_load_rgb_u16_be_avx+0x1c4>
+  .byte  114,20                              // jb            46ad <_sk_load_rgb_u16_be_avx+0x1af>
   .byte  196,193,121,110,92,64,36            // vmovd         0x24(%r8,%rax,2),%xmm3
   .byte  196,193,97,196,92,64,40,2           // vpinsrw       $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
-  .byte  233,130,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
-  .byte  233,125,254,255,255                 // jmpq          49a4 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  233,151,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
+  .byte  233,146,254,255,255                 // jmpq          4544 <_sk_load_rgb_u16_be_avx+0x46>
 
 HIDDEN _sk_store_u16_be_avx
 .globl _sk_store_u16_be_avx
@@ -16563,33 +16147,30 @@
 _sk_store_u16_be_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
-  .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
-  .byte  184,0,255,127,71                    // mov           $0x477fff00,%eax
-  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,89,200                       // vmulps        %ymm0,%ymm8,%ymm9
+  .byte  72,141,4,189,0,0,0,0                // lea           0x0(,%rdi,4),%rax
+  .byte  196,98,125,24,5,52,16,0,0           // vbroadcastss  0x1034(%rip),%ymm8        # 56fc <_sk_callback_avx+0x3ee>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,67,125,25,202,1                 // vextractf128  $0x1,%ymm9,%xmm10
   .byte  196,66,49,43,202                    // vpackusdw     %xmm10,%xmm9,%xmm9
   .byte  196,193,41,113,241,8                // vpsllw        $0x8,%xmm9,%xmm10
   .byte  196,193,49,113,209,8                // vpsrlw        $0x8,%xmm9,%xmm9
   .byte  196,65,41,235,201                   // vpor          %xmm9,%xmm10,%xmm9
-  .byte  197,60,89,209                       // vmulps        %ymm1,%ymm8,%ymm10
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,67,125,25,211,1                 // vextractf128  $0x1,%ymm10,%xmm11
   .byte  196,66,41,43,211                    // vpackusdw     %xmm11,%xmm10,%xmm10
   .byte  196,193,33,113,242,8                // vpsllw        $0x8,%xmm10,%xmm11
   .byte  196,193,41,113,210,8                // vpsrlw        $0x8,%xmm10,%xmm10
   .byte  196,65,33,235,210                   // vpor          %xmm10,%xmm11,%xmm10
-  .byte  197,60,89,218                       // vmulps        %ymm2,%ymm8,%ymm11
+  .byte  196,65,108,89,216                   // vmulps        %ymm8,%ymm2,%ymm11
   .byte  196,65,125,91,219                   // vcvtps2dq     %ymm11,%ymm11
   .byte  196,67,125,25,220,1                 // vextractf128  $0x1,%ymm11,%xmm12
   .byte  196,66,33,43,220                    // vpackusdw     %xmm12,%xmm11,%xmm11
   .byte  196,193,25,113,243,8                // vpsllw        $0x8,%xmm11,%xmm12
   .byte  196,193,33,113,211,8                // vpsrlw        $0x8,%xmm11,%xmm11
   .byte  196,65,25,235,219                   // vpor          %xmm11,%xmm12,%xmm11
-  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,196,1                 // vextractf128  $0x1,%ymm8,%xmm12
   .byte  196,66,57,43,196                    // vpackusdw     %xmm12,%xmm8,%xmm8
@@ -16605,31 +16186,31 @@
   .byte  196,65,17,98,200                    // vpunpckldq    %xmm8,%xmm13,%xmm9
   .byte  196,65,17,106,192                   // vpunpckhdq    %xmm8,%xmm13,%xmm8
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,31                              // jne           4c29 <_sk_store_u16_be_avx+0x102>
-  .byte  196,1,120,17,28,72                  // vmovups       %xmm11,(%r8,%r9,2)
-  .byte  196,1,120,17,84,72,16               // vmovups       %xmm10,0x10(%r8,%r9,2)
-  .byte  196,1,120,17,76,72,32               // vmovups       %xmm9,0x20(%r8,%r9,2)
-  .byte  196,1,122,127,68,72,48              // vmovdqu       %xmm8,0x30(%r8,%r9,2)
+  .byte  117,31                              // jne           47ac <_sk_store_u16_be_avx+0xfa>
+  .byte  196,65,120,17,28,64                 // vmovups       %xmm11,(%r8,%rax,2)
+  .byte  196,65,120,17,84,64,16              // vmovups       %xmm10,0x10(%r8,%rax,2)
+  .byte  196,65,120,17,76,64,32              // vmovups       %xmm9,0x20(%r8,%rax,2)
+  .byte  196,65,122,127,68,64,48             // vmovdqu       %xmm8,0x30(%r8,%rax,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  196,1,121,214,28,72                 // vmovq         %xmm11,(%r8,%r9,2)
+  .byte  196,65,121,214,28,64                // vmovq         %xmm11,(%r8,%rax,2)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,240                             // je            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,23,92,72,8                // vmovhpd       %xmm11,0x8(%r8,%r9,2)
+  .byte  116,240                             // je            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,23,92,64,8               // vmovhpd       %xmm11,0x8(%r8,%rax,2)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,227                             // jb            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,214,84,72,16              // vmovq         %xmm10,0x10(%r8,%r9,2)
-  .byte  116,218                             // je            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,23,84,72,24               // vmovhpd       %xmm10,0x18(%r8,%r9,2)
+  .byte  114,227                             // jb            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,214,84,64,16             // vmovq         %xmm10,0x10(%r8,%rax,2)
+  .byte  116,218                             // je            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,23,84,64,24              // vmovhpd       %xmm10,0x18(%r8,%rax,2)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,205                             // jb            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,214,76,72,32              // vmovq         %xmm9,0x20(%r8,%r9,2)
-  .byte  116,196                             // je            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,23,76,72,40               // vmovhpd       %xmm9,0x28(%r8,%r9,2)
+  .byte  114,205                             // jb            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,214,76,64,32             // vmovq         %xmm9,0x20(%r8,%rax,2)
+  .byte  116,196                             // je            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,23,76,64,40              // vmovhpd       %xmm9,0x28(%r8,%rax,2)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,183                             // jb            4c25 <_sk_store_u16_be_avx+0xfe>
-  .byte  196,1,121,214,68,72,48              // vmovq         %xmm8,0x30(%r8,%r9,2)
-  .byte  235,174                             // jmp           4c25 <_sk_store_u16_be_avx+0xfe>
+  .byte  114,183                             // jb            47a8 <_sk_store_u16_be_avx+0xf6>
+  .byte  196,65,121,214,68,64,48             // vmovq         %xmm8,0x30(%r8,%rax,2)
+  .byte  235,174                             // jmp           47a8 <_sk_store_u16_be_avx+0xf6>
 
 HIDDEN _sk_load_f32_avx
 .globl _sk_load_f32_avx
@@ -16637,10 +16218,10 @@
 _sk_load_f32_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  119,110                             // ja            4ced <_sk_load_f32_avx+0x76>
+  .byte  119,110                             // ja            4870 <_sk_load_f32_avx+0x76>
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,189,0,0,0,0               // lea           0x0(,%rdi,4),%r9
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 4d18 <_sk_load_f32_avx+0xa1>
+  .byte  76,141,21,132,0,0,0                 // lea           0x84(%rip),%r10        # 4898 <_sk_load_f32_avx+0x9e>
   .byte  73,99,4,138                         // movslq        (%r10,%rcx,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
@@ -16666,21 +16247,19 @@
   .byte  196,193,101,21,216                  // vunpckhpd     %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
-  .byte  15,31,0                             // nopl          (%rax)
-  .byte  130                                 // (bad)
+  .byte  133,255                             // test          %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,201                             // dec           %ecx
+  .byte  255,204                             // dec           %esp
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  188,255,255,255,175                 // mov           $0xafffffff,%esp
+  .byte  191,255,255,255,178                 // mov           $0xb2ffffff,%edi
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,162,255,255,255,154             // jmpq          *-0x65000001(%rdx)
+  .byte  255,165,255,255,255,157             // jmpq          *-0x62000001(%rbp)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,146,255,255,255,138             // callq         *-0x75000001(%rdx)
+  .byte  255,149,255,255,255,141             // callq         *-0x72000001(%rbp)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -16701,7 +16280,7 @@
   .byte  196,65,37,20,196                    // vunpcklpd     %ymm12,%ymm11,%ymm8
   .byte  196,65,37,21,220                    // vunpckhpd     %ymm12,%ymm11,%ymm11
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  117,55                              // jne           4da5 <_sk_store_f32_avx+0x6d>
+  .byte  117,55                              // jne           4925 <_sk_store_f32_avx+0x6d>
   .byte  196,67,45,24,225,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm12
   .byte  196,67,61,24,235,1                  // vinsertf128   $0x1,%xmm11,%ymm8,%ymm13
   .byte  196,67,45,6,201,49                  // vperm2f128    $0x31,%ymm9,%ymm10,%ymm9
@@ -16714,22 +16293,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,17,20,128                // vmovupd       %xmm10,(%r8,%rax,4)
   .byte  72,131,249,1                        // cmp           $0x1,%rcx
-  .byte  116,240                             // je            4da1 <_sk_store_f32_avx+0x69>
+  .byte  116,240                             // je            4921 <_sk_store_f32_avx+0x69>
   .byte  196,65,121,17,76,128,16             // vmovupd       %xmm9,0x10(%r8,%rax,4)
   .byte  72,131,249,3                        // cmp           $0x3,%rcx
-  .byte  114,227                             // jb            4da1 <_sk_store_f32_avx+0x69>
+  .byte  114,227                             // jb            4921 <_sk_store_f32_avx+0x69>
   .byte  196,65,121,17,68,128,32             // vmovupd       %xmm8,0x20(%r8,%rax,4)
-  .byte  116,218                             // je            4da1 <_sk_store_f32_avx+0x69>
+  .byte  116,218                             // je            4921 <_sk_store_f32_avx+0x69>
   .byte  196,65,121,17,92,128,48             // vmovupd       %xmm11,0x30(%r8,%rax,4)
   .byte  72,131,249,5                        // cmp           $0x5,%rcx
-  .byte  114,205                             // jb            4da1 <_sk_store_f32_avx+0x69>
+  .byte  114,205                             // jb            4921 <_sk_store_f32_avx+0x69>
   .byte  196,67,125,25,84,128,64,1           // vextractf128  $0x1,%ymm10,0x40(%r8,%rax,4)
-  .byte  116,195                             // je            4da1 <_sk_store_f32_avx+0x69>
+  .byte  116,195                             // je            4921 <_sk_store_f32_avx+0x69>
   .byte  196,67,125,25,76,128,80,1           // vextractf128  $0x1,%ymm9,0x50(%r8,%rax,4)
   .byte  72,131,249,7                        // cmp           $0x7,%rcx
-  .byte  114,181                             // jb            4da1 <_sk_store_f32_avx+0x69>
+  .byte  114,181                             // jb            4921 <_sk_store_f32_avx+0x69>
   .byte  196,67,125,25,68,128,96,1           // vextractf128  $0x1,%ymm8,0x60(%r8,%rax,4)
-  .byte  235,171                             // jmp           4da1 <_sk_store_f32_avx+0x69>
+  .byte  235,171                             // jmp           4921 <_sk_store_f32_avx+0x69>
 
 HIDDEN _sk_clamp_x_avx
 .globl _sk_clamp_x_avx
@@ -16865,22 +16444,13 @@
 .globl _sk_luminance_to_alpha_avx
 FUNCTION(_sk_luminance_to_alpha_avx)
 _sk_luminance_to_alpha_avx:
-  .byte  184,208,179,89,62                   // mov           $0x3e59b3d0,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,228,89,192                      // vmulps        %ymm0,%ymm3,%ymm0
-  .byte  184,89,23,55,63                     // mov           $0x3f371759,%eax
-  .byte  197,249,110,216                     // vmovd         %eax,%xmm3
-  .byte  196,227,121,4,219,0                 // vpermilps     $0x0,%xmm3,%xmm3
-  .byte  196,227,101,24,219,1                // vinsertf128   $0x1,%xmm3,%ymm3,%ymm3
-  .byte  197,228,89,201                      // vmulps        %ymm1,%ymm3,%ymm1
+  .byte  196,226,125,24,29,191,11,0,0        // vbroadcastss  0xbbf(%rip),%ymm3        # 5700 <_sk_callback_avx+0x3f2>
+  .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
+  .byte  196,226,125,24,29,182,11,0,0        // vbroadcastss  0xbb6(%rip),%ymm3        # 5704 <_sk_callback_avx+0x3f6>
+  .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
-  .byte  184,152,221,147,61                  // mov           $0x3d93dd98,%eax
-  .byte  197,249,110,200                     // vmovd         %eax,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
+  .byte  196,226,125,24,13,169,11,0,0        // vbroadcastss  0xba9(%rip),%ymm1        # 5708 <_sk_callback_avx+0x3fa>
+  .byte  197,236,89,201                      // vmulps        %ymm1,%ymm2,%ymm1
   .byte  197,252,88,217                      // vaddps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -17057,7 +16627,7 @@
   .byte  196,226,125,24,88,28                // vbroadcastss  0x1c(%rax),%ymm3
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  15,132,146,0,0,0                    // je            5359 <_sk_linear_gradient_avx+0xb8>
+  .byte  15,132,146,0,0,0                    // je            4eb5 <_sk_linear_gradient_avx+0xb8>
   .byte  72,139,64,8                         // mov           0x8(%rax),%rax
   .byte  72,131,192,32                       // add           $0x20,%rax
   .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
@@ -17084,8 +16654,8 @@
   .byte  196,227,13,74,219,208               // vblendvps     %ymm13,%ymm3,%ymm14,%ymm3
   .byte  72,131,192,36                       // add           $0x24,%rax
   .byte  73,255,200                          // dec           %r8
-  .byte  117,140                             // jne           52e3 <_sk_linear_gradient_avx+0x42>
-  .byte  235,20                              // jmp           536d <_sk_linear_gradient_avx+0xcc>
+  .byte  117,140                             // jne           4e3f <_sk_linear_gradient_avx+0x42>
+  .byte  235,20                              // jmp           4ec9 <_sk_linear_gradient_avx+0xcc>
   .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
@@ -17132,14 +16702,11 @@
 FUNCTION(_sk_save_xy_avx)
 _sk_save_xy_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
-  .byte  197,60,88,200                       // vaddps        %ymm0,%ymm8,%ymm9
+  .byte  196,98,125,24,5,181,7,0,0           // vbroadcastss  0x7b5(%rip),%ymm8        # 570c <_sk_callback_avx+0x3fe>
+  .byte  196,65,124,88,200                   // vaddps        %ymm8,%ymm0,%ymm9
   .byte  196,67,125,8,209,1                  // vroundps      $0x1,%ymm9,%ymm10
   .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
-  .byte  197,60,88,193                       // vaddps        %ymm1,%ymm8,%ymm8
+  .byte  196,65,116,88,192                   // vaddps        %ymm8,%ymm1,%ymm8
   .byte  196,67,125,8,208,1                  // vroundps      $0x1,%ymm8,%ymm10
   .byte  196,65,60,92,194                    // vsubps        %ymm10,%ymm8,%ymm8
   .byte  197,252,17,0                        // vmovups       %ymm0,(%rax)
@@ -17172,15 +16739,9 @@
 FUNCTION(_sk_bilinear_nx_avx)
 _sk_bilinear_nx_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
+  .byte  196,226,125,24,5,65,7,0,0           // vbroadcastss  0x741(%rip),%ymm0        # 5710 <_sk_callback_avx+0x402>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,56,7,0,0            // vbroadcastss  0x738(%rip),%ymm8        # 5714 <_sk_callback_avx+0x406>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17191,12 +16752,9 @@
 FUNCTION(_sk_bilinear_px_avx)
 _sk_bilinear_px_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
-  .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
+  .byte  196,226,125,24,5,32,7,0,0           // vbroadcastss  0x720(%rip),%ymm0        # 5718 <_sk_callback_avx+0x40a>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
+  .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17206,15 +16764,9 @@
 FUNCTION(_sk_bilinear_ny_avx)
 _sk_bilinear_ny_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,4,7,0,0           // vbroadcastss  0x704(%rip),%ymm1        # 571c <_sk_callback_avx+0x40e>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,250,6,0,0           // vbroadcastss  0x6fa(%rip),%ymm8        # 5720 <_sk_callback_avx+0x412>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17225,12 +16777,9 @@
 FUNCTION(_sk_bilinear_py_avx)
 _sk_bilinear_py_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
-  .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
+  .byte  196,226,125,24,13,226,6,0,0         // vbroadcastss  0x6e2(%rip),%ymm1        # 5724 <_sk_callback_avx+0x416>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
+  .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17240,27 +16789,15 @@
 FUNCTION(_sk_bicubic_n3x_avx)
 _sk_bicubic_n3x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,191                  // mov           $0xbfc00000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
+  .byte  196,226,125,24,5,197,6,0,0          // vbroadcastss  0x6c5(%rip),%ymm0        # 5728 <_sk_callback_avx+0x41a>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,188,6,0,0           // vbroadcastss  0x6bc(%rip),%ymm8        # 572c <_sk_callback_avx+0x41e>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
-  .byte  196,65,44,89,192                    // vmulps        %ymm8,%ymm10,%ymm8
-  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,21,173,6,0,0          // vbroadcastss  0x6ad(%rip),%ymm10        # 5730 <_sk_callback_avx+0x422>
+  .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
+  .byte  196,98,125,24,21,163,6,0,0          // vbroadcastss  0x6a3(%rip),%ymm10        # 5734 <_sk_callback_avx+0x426>
+  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17271,38 +16808,20 @@
 FUNCTION(_sk_bicubic_n1x_avx)
 _sk_bicubic_n1x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
+  .byte  196,226,125,24,5,134,6,0,0          // vbroadcastss  0x686(%rip),%ymm0        # 5738 <_sk_callback_avx+0x42a>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,125,6,0,0           // vbroadcastss  0x67d(%rip),%ymm8        # 573c <_sk_callback_avx+0x42e>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  196,65,52,89,200                    // vmulps        %ymm8,%ymm9,%ymm9
-  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
+  .byte  196,98,125,24,13,115,6,0,0          // vbroadcastss  0x673(%rip),%ymm9        # 5740 <_sk_callback_avx+0x432>
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,65,44,88,201                    // vaddps        %ymm9,%ymm10,%ymm9
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
+  .byte  196,98,125,24,21,105,6,0,0          // vbroadcastss  0x669(%rip),%ymm10        # 5744 <_sk_callback_avx+0x436>
+  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
+  .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
+  .byte  196,98,125,24,21,90,6,0,0           // vbroadcastss  0x65a(%rip),%ymm10        # 5748 <_sk_callback_avx+0x43a>
+  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
-  .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
+  .byte  196,98,125,24,13,75,6,0,0           // vbroadcastss  0x64b(%rip),%ymm9        # 574c <_sk_callback_avx+0x43e>
+  .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17312,30 +16831,18 @@
 FUNCTION(_sk_bicubic_p1x_avx)
 _sk_bicubic_p1x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,99,125,24,192,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm8
+  .byte  196,98,125,24,5,51,6,0,0            // vbroadcastss  0x633(%rip),%ymm8        # 5750 <_sk_callback_avx+0x442>
   .byte  197,188,88,0                        // vaddps        (%rax),%ymm8,%ymm0
   .byte  197,124,16,72,64                    // vmovups       0x40(%rax),%ymm9
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
+  .byte  196,98,125,24,21,37,6,0,0           // vbroadcastss  0x625(%rip),%ymm10        # 5754 <_sk_callback_avx+0x446>
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
+  .byte  196,98,125,24,29,27,6,0,0           // vbroadcastss  0x61b(%rip),%ymm11        # 5758 <_sk_callback_avx+0x44a>
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
-  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
+  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
+  .byte  196,98,125,24,13,2,6,0,0            // vbroadcastss  0x602(%rip),%ymm9        # 575c <_sk_callback_avx+0x44e>
+  .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17345,23 +16852,14 @@
 FUNCTION(_sk_bicubic_p3x_avx)
 _sk_bicubic_p3x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,193,121,110,192                 // vmovd         %r8d,%xmm0
-  .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
-  .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
+  .byte  196,226,125,24,5,234,5,0,0          // vbroadcastss  0x5ea(%rip),%ymm0        # 5760 <_sk_callback_avx+0x452>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
+  .byte  196,98,125,24,21,215,5,0,0          // vbroadcastss  0x5d7(%rip),%ymm10        # 5764 <_sk_callback_avx+0x456>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,21,205,5,0,0          // vbroadcastss  0x5cd(%rip),%ymm10        # 5768 <_sk_callback_avx+0x45a>
+  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17372,27 +16870,15 @@
 FUNCTION(_sk_bicubic_n3y_avx)
 _sk_bicubic_n3y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,191                  // mov           $0xbfc00000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,176,5,0,0         // vbroadcastss  0x5b0(%rip),%ymm1        # 576c <_sk_callback_avx+0x45e>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,166,5,0,0           // vbroadcastss  0x5a6(%rip),%ymm8        # 5770 <_sk_callback_avx+0x462>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
-  .byte  196,65,44,89,192                    // vmulps        %ymm8,%ymm10,%ymm8
-  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,21,151,5,0,0          // vbroadcastss  0x597(%rip),%ymm10        # 5774 <_sk_callback_avx+0x466>
+  .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
+  .byte  196,98,125,24,21,141,5,0,0          // vbroadcastss  0x58d(%rip),%ymm10        # 5778 <_sk_callback_avx+0x46a>
+  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17403,38 +16889,20 @@
 FUNCTION(_sk_bicubic_n1y_avx)
 _sk_bicubic_n1y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,191                    // mov           $0xbf000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,112,5,0,0         // vbroadcastss  0x570(%rip),%ymm1        # 577c <_sk_callback_avx+0x46e>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  65,184,0,0,128,63                   // mov           $0x3f800000,%r8d
-  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
-  .byte  196,67,121,4,192,0                  // vpermilps     $0x0,%xmm8,%xmm8
-  .byte  196,67,61,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm8,%ymm8
+  .byte  196,98,125,24,5,102,5,0,0           // vbroadcastss  0x566(%rip),%ymm8        # 5780 <_sk_callback_avx+0x472>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
-  .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
-  .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  196,65,52,89,200                    // vmulps        %ymm8,%ymm9,%ymm9
-  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
+  .byte  196,98,125,24,13,92,5,0,0           // vbroadcastss  0x55c(%rip),%ymm9        # 5784 <_sk_callback_avx+0x476>
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,65,44,88,201                    // vaddps        %ymm9,%ymm10,%ymm9
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
+  .byte  196,98,125,24,21,82,5,0,0           // vbroadcastss  0x552(%rip),%ymm10        # 5788 <_sk_callback_avx+0x47a>
+  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
+  .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
+  .byte  196,98,125,24,21,67,5,0,0           // vbroadcastss  0x543(%rip),%ymm10        # 578c <_sk_callback_avx+0x47e>
+  .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
-  .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
+  .byte  196,98,125,24,13,52,5,0,0           // vbroadcastss  0x534(%rip),%ymm9        # 5790 <_sk_callback_avx+0x482>
+  .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17444,30 +16912,18 @@
 FUNCTION(_sk_bicubic_p1y_avx)
 _sk_bicubic_p1y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,0,63                     // mov           $0x3f000000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,99,117,24,193,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm8
+  .byte  196,98,125,24,5,28,5,0,0            // vbroadcastss  0x51c(%rip),%ymm8        # 5794 <_sk_callback_avx+0x486>
   .byte  197,188,88,72,32                    // vaddps        0x20(%rax),%ymm8,%ymm1
   .byte  197,124,16,72,96                    // vmovups       0x60(%rax),%ymm9
-  .byte  65,184,85,85,149,191                // mov           $0xbf955555,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
+  .byte  196,98,125,24,21,13,5,0,0           // vbroadcastss  0x50d(%rip),%ymm10        # 5798 <_sk_callback_avx+0x48a>
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
+  .byte  196,98,125,24,29,3,5,0,0            // vbroadcastss  0x503(%rip),%ymm11        # 579c <_sk_callback_avx+0x48e>
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
-  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
-  .byte  65,184,57,142,99,61                 // mov           $0x3d638e39,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
+  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
+  .byte  196,98,125,24,13,234,4,0,0          // vbroadcastss  0x4ea(%rip),%ymm9        # 57a0 <_sk_callback_avx+0x492>
+  .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -17477,23 +16933,14 @@
 FUNCTION(_sk_bicubic_p3y_avx)
 _sk_bicubic_p3y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,184,0,0,192,63                   // mov           $0x3fc00000,%r8d
-  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
-  .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
-  .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
+  .byte  196,226,125,24,13,210,4,0,0         // vbroadcastss  0x4d2(%rip),%ymm1        # 57a4 <_sk_callback_avx+0x496>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  65,184,114,28,199,62                // mov           $0x3ec71c72,%r8d
-  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
-  .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
-  .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
-  .byte  65,184,171,170,170,190              // mov           $0xbeaaaaab,%r8d
-  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
-  .byte  196,67,121,4,219,0                  // vpermilps     $0x0,%xmm11,%xmm11
-  .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
+  .byte  196,98,125,24,21,190,4,0,0          // vbroadcastss  0x4be(%rip),%ymm10        # 57a8 <_sk_callback_avx+0x49a>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
+  .byte  196,98,125,24,21,180,4,0,0          // vbroadcastss  0x4b4(%rip),%ymm10        # 57ac <_sk_callback_avx+0x49e>
+  .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -17580,20 +17027,81 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
-  .byte  248                                 // clc
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        5b29 <.literal4+0x15>
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,191,0,0,224,64,0                // cmpb          $0x0,0x40e00000(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,145                          // cmpb          $0x91,(%rdi)
+  .byte  131,158,61,154,153,153,62           // sbbl          $0x3e,-0x666665c3(%rsi)
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,41,92,71,65                      // cmp           $0x41475c29,%eax
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  168,87                              // test          $0x57,%al
+  .byte  202,189,194                         // lret          $0xc2bd
+  .byte  135,210                             // xchg          %edx,%edx
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  128,63,4                            // cmpb          $0x4,(%rdi)
+  .byte  231,140                             // out           %eax,$0x8c
+  .byte  59,0                                // cmp           (%rax),%eax
+  .byte  0,128,63,0,0,192                    // add           %al,-0x3fffffc1(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,128,64,171,170,42                 // add           %al,0x2aaaab40(%rax)
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  129,128,128,59,129,128,128,59,0,248 // addl          $0xf8003b80,-0x7f7ec480(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        54f1 <.literal4+0xbd>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  52,255                              // xor           $0xff,%al
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
+  .byte  129,128,128,59,128,0,128,55,0,0     // addl          $0x3780,0x803b80(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  0,52,255                            // add           %dh,(%rdi,%rdi,8)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            5b30 <.literal4+0x1c>
+  .byte  127,0                               // jg            551c <.literal4+0xe8>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            5ba9 <.literal4+0x95>
+  .byte  119,115                             // ja            5595 <.literal4+0x161>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -17604,13 +17112,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            5b60 <.literal4+0x4c>
+  .byte  127,0                               // jg            5550 <.literal4+0x11c>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            5bd9 <.literal4+0xc5>
+  .byte  119,115                             // ja            55c9 <.literal4+0x195>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -17621,13 +17129,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            5b90 <.literal4+0x7c>
+  .byte  127,0                               // jg            5584 <.literal4+0x150>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            5c09 <.literal4+0xf5>
+  .byte  119,115                             // ja            55fd <.literal4+0x1c9>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -17638,13 +17146,13 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,128,63,0,0,0                      // add           %al,0x3f(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            5bc0 <.literal4+0xac>
+  .byte  127,0                               // jg            55b8 <.literal4+0x184>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            5c39 <.literal4+0x125>
+  .byte  119,115                             // ja            5631 <.literal4+0x1fd>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -17655,36 +17163,77 @@
   .byte  210,221                             // rcr           %cl,%ch
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
+  .byte  0,128,63,0,0,200                    // add           %al,-0x37ffffc1(%rax)
+  .byte  66,0,0                              // rex.X         add %al,(%rax)
+  .byte  127,67                              // jg            562f <.literal4+0x1fb>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,65,203,61                       // addb          $0x3d,-0x35(%rcx)
+  .byte  13,60,111,18,3                      // or            $0x3126f3c,%eax
+  .byte  59,10                               // cmp           (%rdx),%ecx
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  163,59,194,24,17,60,203,61,13       // movabs        %eax,0xd3dcb3c1118c23b
+  .byte  190,80,128,3,62                     // mov           $0x3e038050,%esi
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           564f <.literal4+0x21b>
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  127,67                              // jg            5663 <.literal4+0x22f>
+  .byte  129,128,128,59,0,0,128,63,129,128   // addl          $0x80813f80,0x3b80(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
+  .byte  0,128,63,129,128,128                // add           %al,-0x7f7f7ec1(%rax)
+  .byte  59,0                                // cmp           (%rax),%eax
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        5bf5 <.literal4+0xe1>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        5645 <.literal4+0x211>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
+  .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  248                                 // clc
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        5661 <.literal4+0x22d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        5c01 <.literal4+0xed>
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,0,0,128,63                  // and           %eax,0x3f800000(,%rdi,1)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  124,66                              // jl            56b6 <.literal4+0x282>
+  .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,55,0,15                 // mov           %ecx,0xf003788(%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,240,0                // mov           %ecx,0xf03988(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,59,15,0                 // mov           %ecx,0xf3b88(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  137,136,136,61,0,240                // mov           %ecx,-0xfffc278(%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,55,0,15                 // mov           %ecx,0xf003788(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  128,0,0                             // addb          $0x0,(%rax)
+  .byte  137,136,136,57,240,0                // mov           %ecx,0xf03988(%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,59,15,0                 // mov           %ecx,0xf3b88(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,61,0,0                  // mov           %ecx,0x3d88(%rax)
+  .byte  112,65                              // jo            56f9 <.literal4+0x2c5>
+  .byte  129,128,128,59,129,128,128,59,0,0   // addl          $0x3b80,-0x7f7ec480(%rax)
+  .byte  127,67                              // jg            5707 <.literal4+0x2d3>
+  .byte  0,128,0,0,0,0                       // add           %al,0x0(%rax)
   .byte  0,128,0,4,0,128                     // add           %al,-0x7ffffc00(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,56                                // add           %bh,(%rax)
@@ -17695,7 +17244,82 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,128,0,0,128,56                    // add           %al,0x38800000(%rax)
   .byte  0,64,254                            // add           %al,-0x2(%rax)
-  .byte  255                                 // .byte         0xff
+  .byte  255,128,0,128,55,128                // incl          -0x7fc88000(%rax)
+  .byte  0,128,55,0,0,128                    // add           %al,-0x7fffffc9(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            5747 <.literal4+0x313>
+  .byte  208                                 // (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,89                               // ds            pop %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  152                                 // cwtl
+  .byte  221,147,61,0,0,0                    // fstl          0x3d(%rbx)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,128,63                    // add           %bh,0x3f800000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,128,63,114              // sarb          $0x72,0x3f800000(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,0,0,0,191                       // mov           $0xbf000000,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,192,63                      // mov           $0x3fc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,192,63                      // mov           $0x3fc00000,%edi
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,114                          // sarb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,0,0,192,191                     // mov           $0xbfc00000,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,114                          // cmpb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,0,0,0,191                       // mov           $0xbf000000,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,192,63                      // mov           $0x3fc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,0,0,192,63                      // mov           $0x3fc00000,%edi
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,114                          // sarb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190                                 // .byte         0xbe
 
 BALIGN32
   .byte  255,0                               // incl          (%rax)
@@ -17840,7 +17464,7 @@
   .byte  102,15,110,199                      // movd          %edi,%xmm0
   .byte  102,15,112,192,0                    // pshufd        $0x0,%xmm0,%xmm0
   .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  15,40,21,68,62,0,0                  // movaps        0x3e44(%rip),%xmm2        # 3ec0 <_sk_callback_sse41+0xd8>
+  .byte  15,40,21,100,57,0,0                 // movaps        0x3964(%rip),%xmm2        # 39e0 <_sk_callback_sse41+0xd5>
   .byte  15,88,202                           // addps         %xmm2,%xmm1
   .byte  15,16,2                             // movups        (%rdx),%xmm0
   .byte  15,88,193                           // addps         %xmm1,%xmm0
@@ -17849,7 +17473,7 @@
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  15,88,202                           // addps         %xmm2,%xmm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,21,51,62,0,0                  // movaps        0x3e33(%rip),%xmm2        # 3ed0 <_sk_callback_sse41+0xe8>
+  .byte  15,40,21,83,57,0,0                  // movaps        0x3953(%rip),%xmm2        # 39f0 <_sk_callback_sse41+0xe5>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  15,87,237                           // xorps         %xmm5,%xmm5
@@ -17889,9 +17513,7 @@
 FUNCTION(_sk_srcatop_sse41)
 _sk_srcatop_sse41:
   .byte  15,89,199                           // mulps         %xmm7,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,14,57,0,0                // movaps        0x390e(%rip),%xmm8        # 3a00 <_sk_callback_sse41+0xf5>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -17916,9 +17538,7 @@
 _sk_dstatop_sse41:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,209,56,0,0              // movaps        0x38d1(%rip),%xmm9        # 3a10 <_sk_callback_sse41+0x105>
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
@@ -17965,9 +17585,7 @@
 .globl _sk_srcout_sse41
 FUNCTION(_sk_srcout_sse41)
 _sk_srcout_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,117,56,0,0               // movaps        0x3875(%rip),%xmm8        # 3a20 <_sk_callback_sse41+0x115>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
@@ -17980,9 +17598,7 @@
 .globl _sk_dstout_sse41
 FUNCTION(_sk_dstout_sse41)
 _sk_dstout_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,101,56,0,0               // movaps        0x3865(%rip),%xmm8        # 3a30 <_sk_callback_sse41+0x125>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,89,196                           // mulps         %xmm4,%xmm0
@@ -17999,9 +17615,7 @@
 .globl _sk_srcover_sse41
 FUNCTION(_sk_srcover_sse41)
 _sk_srcover_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,72,56,0,0                // movaps        0x3848(%rip),%xmm8        # 3a40 <_sk_callback_sse41+0x135>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -18021,9 +17635,7 @@
 .globl _sk_dstover_sse41
 FUNCTION(_sk_dstover_sse41)
 _sk_dstover_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,28,56,0,0                // movaps        0x381c(%rip),%xmm8        # 3a50 <_sk_callback_sse41+0x145>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -18051,9 +17663,7 @@
 .globl _sk_multiply_sse41
 FUNCTION(_sk_multiply_sse41)
 _sk_multiply_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,240,55,0,0               // movaps        0x37f0(%rip),%xmm8        # 3a60 <_sk_callback_sse41+0x155>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
@@ -18129,9 +17739,7 @@
 FUNCTION(_sk_xor__sse41)
 _sk_xor__sse41:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,40,29,33,55,0,0                  // movaps        0x3721(%rip),%xmm3        # 3a70 <_sk_callback_sse41+0x165>
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
@@ -18179,9 +17787,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,95,209                        // maxps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,140,54,0,0                 // movaps        0x368c(%rip),%xmm2        # 3a80 <_sk_callback_sse41+0x175>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -18215,9 +17821,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,49,54,0,0                  // movaps        0x3631(%rip),%xmm2        # 3a90 <_sk_callback_sse41+0x185>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -18254,9 +17858,7 @@
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,203,53,0,0                 // movaps        0x35cb(%rip),%xmm2        # 3aa0 <_sk_callback_sse41+0x195>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -18268,66 +17870,63 @@
 .globl _sk_exclusion_sse41
 FUNCTION(_sk_exclusion_sse41)
 _sk_exclusion_sse41:
-  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
-  .byte  15,40,200                           // movaps        %xmm0,%xmm1
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  15,88,196                           // addps         %xmm4,%xmm0
-  .byte  15,89,204                           // mulps         %xmm4,%xmm1
-  .byte  15,88,201                           // addps         %xmm1,%xmm1
-  .byte  15,92,193                           // subps         %xmm1,%xmm0
-  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
-  .byte  15,88,205                           // addps         %xmm5,%xmm1
-  .byte  68,15,89,197                        // mulps         %xmm5,%xmm8
+  .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
   .byte  69,15,88,192                        // addps         %xmm8,%xmm8
-  .byte  65,15,92,200                        // subps         %xmm8,%xmm1
-  .byte  68,15,40,194                        // movaps        %xmm2,%xmm8
-  .byte  68,15,88,198                        // addps         %xmm6,%xmm8
+  .byte  65,15,92,192                        // subps         %xmm8,%xmm0
+  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
+  .byte  68,15,88,197                        // addps         %xmm5,%xmm8
+  .byte  15,89,205                           // mulps         %xmm5,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  68,15,92,193                        // subps         %xmm1,%xmm8
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  68,15,88,206                        // addps         %xmm6,%xmm9
   .byte  15,89,214                           // mulps         %xmm6,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
-  .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,92,211                           // subps         %xmm3,%xmm2
-  .byte  15,89,215                           // mulps         %xmm7,%xmm2
-  .byte  15,88,218                           // addps         %xmm2,%xmm3
+  .byte  68,15,92,202                        // subps         %xmm2,%xmm9
+  .byte  15,40,13,140,53,0,0                 // movaps        0x358c(%rip),%xmm1        # 3ab0 <_sk_callback_sse41+0x1a5>
+  .byte  15,92,203                           // subps         %xmm3,%xmm1
+  .byte  15,89,207                           // mulps         %xmm7,%xmm1
+  .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
+  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_colorburn_sse41
 .globl _sk_colorburn_sse41
 FUNCTION(_sk_colorburn_sse41)
 _sk_colorburn_sse41:
-  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  68,15,40,21,123,53,0,0              // movaps        0x357b(%rip),%xmm10        # 3ac0 <_sk_callback_sse41+0x1b5>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
-  .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
-  .byte  69,15,89,225                        // mulps         %xmm9,%xmm12
-  .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
+  .byte  69,15,40,203                        // movaps        %xmm11,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  15,40,199                           // movaps        %xmm7,%xmm0
   .byte  15,92,196                           // subps         %xmm4,%xmm0
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  65,15,94,193                        // divps         %xmm9,%xmm0
+  .byte  65,15,94,192                        // divps         %xmm8,%xmm0
+  .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
+  .byte  68,15,93,224                        // minps         %xmm0,%xmm12
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
-  .byte  68,15,93,232                        // minps         %xmm0,%xmm13
-  .byte  68,15,40,247                        // movaps        %xmm7,%xmm14
-  .byte  69,15,92,245                        // subps         %xmm13,%xmm14
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
-  .byte  65,15,194,192,0                     // cmpeqps       %xmm8,%xmm0
-  .byte  68,15,92,211                        // subps         %xmm3,%xmm10
-  .byte  68,15,89,243                        // mulps         %xmm3,%xmm14
-  .byte  69,15,88,244                        // addps         %xmm12,%xmm14
-  .byte  102,69,15,56,20,241                 // blendvps      %xmm0,%xmm9,%xmm14
-  .byte  69,15,40,202                        // movaps        %xmm10,%xmm9
-  .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
   .byte  68,15,88,228                        // addps         %xmm4,%xmm12
+  .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
+  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
+  .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
+  .byte  68,15,92,211                        // subps         %xmm3,%xmm10
+  .byte  102,69,15,56,20,232                 // blendvps      %xmm0,%xmm8,%xmm13
+  .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
+  .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
   .byte  15,40,196                           // movaps        %xmm4,%xmm0
   .byte  15,194,199,0                        // cmpeqps       %xmm7,%xmm0
-  .byte  69,15,88,206                        // addps         %xmm14,%xmm9
-  .byte  102,69,15,56,20,204                 // blendvps      %xmm0,%xmm12,%xmm9
+  .byte  69,15,88,197                        // addps         %xmm13,%xmm8
+  .byte  102,69,15,56,20,196                 // blendvps      %xmm0,%xmm12,%xmm8
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
   .byte  68,15,89,225                        // mulps         %xmm1,%xmm12
   .byte  15,40,199                           // movaps        %xmm7,%xmm0
@@ -18339,13 +17938,13 @@
   .byte  68,15,40,247                        // movaps        %xmm7,%xmm14
   .byte  69,15,92,245                        // subps         %xmm13,%xmm14
   .byte  15,40,193                           // movaps        %xmm1,%xmm0
-  .byte  65,15,194,192,0                     // cmpeqps       %xmm8,%xmm0
+  .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
   .byte  68,15,89,243                        // mulps         %xmm3,%xmm14
   .byte  69,15,88,244                        // addps         %xmm12,%xmm14
   .byte  102,68,15,56,20,241                 // blendvps      %xmm0,%xmm1,%xmm14
+  .byte  68,15,88,229                        // addps         %xmm5,%xmm12
   .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  15,89,205                           // mulps         %xmm5,%xmm1
-  .byte  68,15,88,229                        // addps         %xmm5,%xmm12
   .byte  65,15,88,206                        // addps         %xmm14,%xmm1
   .byte  15,40,197                           // movaps        %xmm5,%xmm0
   .byte  15,194,199,0                        // cmpeqps       %xmm7,%xmm0
@@ -18359,10 +17958,10 @@
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
   .byte  69,15,92,236                        // subps         %xmm12,%xmm13
   .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
-  .byte  68,15,194,194,0                     // cmpeqps       %xmm2,%xmm8
+  .byte  68,15,194,202,0                     // cmpeqps       %xmm2,%xmm9
   .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
   .byte  69,15,88,235                        // addps         %xmm11,%xmm13
-  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  102,68,15,56,20,234                 // blendvps      %xmm0,%xmm2,%xmm13
   .byte  68,15,88,222                        // addps         %xmm6,%xmm11
   .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
@@ -18374,7 +17973,7 @@
   .byte  68,15,89,215                        // mulps         %xmm7,%xmm10
   .byte  65,15,88,218                        // addps         %xmm10,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_colordodge_sse41
@@ -18382,9 +17981,7 @@
 FUNCTION(_sk_colordodge_sse41)
 _sk_colordodge_sse41:
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,89,52,0,0               // movaps        0x3459(%rip),%xmm10        # 3ad0 <_sk_callback_sse41+0x1c5>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
@@ -18403,10 +18000,10 @@
   .byte  69,15,88,244                        // addps         %xmm12,%xmm14
   .byte  102,69,15,56,20,240                 // blendvps      %xmm0,%xmm8,%xmm14
   .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
+  .byte  68,15,88,228                        // addps         %xmm4,%xmm12
   .byte  68,15,92,211                        // subps         %xmm3,%xmm10
   .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  68,15,88,228                        // addps         %xmm4,%xmm12
   .byte  69,15,88,198                        // addps         %xmm14,%xmm8
   .byte  15,40,196                           // movaps        %xmm4,%xmm0
   .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
@@ -18424,9 +18021,9 @@
   .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
   .byte  69,15,88,238                        // addps         %xmm14,%xmm13
   .byte  102,68,15,56,20,233                 // blendvps      %xmm0,%xmm1,%xmm13
+  .byte  68,15,88,245                        // addps         %xmm5,%xmm14
   .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  15,89,205                           // mulps         %xmm5,%xmm1
-  .byte  68,15,88,245                        // addps         %xmm5,%xmm14
   .byte  65,15,88,205                        // addps         %xmm13,%xmm1
   .byte  15,40,197                           // movaps        %xmm5,%xmm0
   .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
@@ -18465,14 +18062,11 @@
   .byte  68,15,40,229                        // movaps        %xmm5,%xmm12
   .byte  15,40,244                           // movaps        %xmm4,%xmm6
   .byte  15,40,227                           // movaps        %xmm3,%xmm4
-  .byte  15,40,234                           // movaps        %xmm2,%xmm5
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
-  .byte  15,92,215                           // subps         %xmm7,%xmm2
-  .byte  15,40,194                           // movaps        %xmm2,%xmm0
+  .byte  68,15,40,21,50,51,0,0               // movaps        0x3332(%rip),%xmm10        # 3ae0 <_sk_callback_sse41+0x1d5>
+  .byte  65,15,40,234                        // movaps        %xmm10,%xmm5
+  .byte  15,92,239                           // subps         %xmm7,%xmm5
+  .byte  15,40,197                           // movaps        %xmm5,%xmm0
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  68,15,92,212                        // subps         %xmm4,%xmm10
   .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
@@ -18495,7 +18089,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  69,15,88,201                        // addps         %xmm9,%xmm9
   .byte  102,69,15,56,20,249                 // blendvps      %xmm0,%xmm9,%xmm15
-  .byte  68,15,40,218                        // movaps        %xmm2,%xmm11
+  .byte  68,15,40,221                        // movaps        %xmm5,%xmm11
   .byte  68,15,89,217                        // mulps         %xmm1,%xmm11
   .byte  15,40,196                           // movaps        %xmm4,%xmm0
   .byte  15,92,193                           // subps         %xmm1,%xmm0
@@ -18519,22 +18113,22 @@
   .byte  65,15,89,205                        // mulps         %xmm13,%xmm1
   .byte  65,15,88,203                        // addps         %xmm11,%xmm1
   .byte  65,15,88,204                        // addps         %xmm12,%xmm1
-  .byte  15,89,213                           // mulps         %xmm5,%xmm2
+  .byte  15,89,234                           // mulps         %xmm2,%xmm5
   .byte  68,15,40,92,36,232                  // movaps        -0x18(%rsp),%xmm11
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
-  .byte  68,15,88,202                        // addps         %xmm2,%xmm9
-  .byte  15,40,197                           // movaps        %xmm5,%xmm0
+  .byte  68,15,88,205                        // addps         %xmm5,%xmm9
+  .byte  15,40,194                           // movaps        %xmm2,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,194,196,2                        // cmpleps       %xmm4,%xmm0
-  .byte  15,40,212                           // movaps        %xmm4,%xmm2
-  .byte  15,92,213                           // subps         %xmm5,%xmm2
-  .byte  65,15,89,235                        // mulps         %xmm11,%xmm5
-  .byte  15,88,237                           // addps         %xmm5,%xmm5
+  .byte  15,40,236                           // movaps        %xmm4,%xmm5
+  .byte  15,92,234                           // subps         %xmm2,%xmm5
+  .byte  65,15,89,211                        // mulps         %xmm11,%xmm2
+  .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  69,15,92,243                        // subps         %xmm11,%xmm14
-  .byte  68,15,89,242                        // mulps         %xmm2,%xmm14
+  .byte  68,15,89,245                        // mulps         %xmm5,%xmm14
   .byte  69,15,88,246                        // addps         %xmm14,%xmm14
   .byte  65,15,92,222                        // subps         %xmm14,%xmm3
-  .byte  102,15,56,20,221                    // blendvps      %xmm0,%xmm5,%xmm3
+  .byte  102,15,56,20,218                    // blendvps      %xmm0,%xmm2,%xmm3
   .byte  68,15,88,203                        // addps         %xmm3,%xmm9
   .byte  65,15,88,226                        // addps         %xmm10,%xmm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -18552,9 +18146,7 @@
 _sk_overlay_sse41:
   .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,23,50,0,0               // movaps        0x3217(%rip),%xmm10        # 3af0 <_sk_callback_sse41+0x1e5>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
@@ -18632,16 +18224,14 @@
   .byte  15,41,116,36,216                    // movaps        %xmm6,-0x28(%rsp)
   .byte  15,40,244                           // movaps        %xmm4,%xmm6
   .byte  15,41,84,36,232                     // movaps        %xmm2,-0x18(%rsp)
-  .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
+  .byte  15,41,76,36,200                     // movaps        %xmm1,-0x38(%rsp)
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  15,87,228                           // xorps         %xmm4,%xmm4
-  .byte  15,194,231,1                        // cmpltps       %xmm7,%xmm4
+  .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
+  .byte  68,15,194,207,1                     // cmpltps       %xmm7,%xmm9
   .byte  15,40,198                           // movaps        %xmm6,%xmm0
   .byte  15,94,199                           // divps         %xmm7,%xmm0
-  .byte  15,84,196                           // andps         %xmm4,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
+  .byte  65,15,84,193                        // andps         %xmm9,%xmm0
+  .byte  15,40,13,238,48,0,0                 // movaps        0x30ee(%rip),%xmm1        # 3b00 <_sk_callback_sse41+0x1f5>
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
   .byte  68,15,92,208                        // subps         %xmm0,%xmm10
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
@@ -18654,99 +18244,99 @@
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,89,210                           // mulps         %xmm2,%xmm2
   .byte  15,88,208                           // addps         %xmm0,%xmm2
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  69,15,88,201                        // addps         %xmm9,%xmm9
-  .byte  68,15,92,241                        // subps         %xmm1,%xmm14
+  .byte  68,15,40,45,204,48,0,0              // movaps        0x30cc(%rip),%xmm13        # 3b10 <_sk_callback_sse41+0x205>
+  .byte  69,15,88,245                        // addps         %xmm13,%xmm14
   .byte  68,15,89,242                        // mulps         %xmm2,%xmm14
-  .byte  184,0,0,224,64                      // mov           $0x40e00000,%eax
-  .byte  102,68,15,110,232                   // movd          %eax,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
-  .byte  69,15,89,253                        // mulps         %xmm13,%xmm15
+  .byte  68,15,40,37,204,48,0,0              // movaps        0x30cc(%rip),%xmm12        # 3b20 <_sk_callback_sse41+0x215>
+  .byte  69,15,89,252                        // mulps         %xmm12,%xmm15
   .byte  69,15,88,254                        // addps         %xmm14,%xmm15
   .byte  15,40,198                           // movaps        %xmm6,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,194,199,2                        // cmpleps       %xmm7,%xmm0
   .byte  102,69,15,56,20,223                 // blendvps      %xmm0,%xmm15,%xmm11
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
-  .byte  15,92,195                           // subps         %xmm3,%xmm0
-  .byte  68,15,89,208                        // mulps         %xmm0,%xmm10
-  .byte  68,15,88,211                        // addps         %xmm3,%xmm10
-  .byte  68,15,89,214                        // mulps         %xmm6,%xmm10
-  .byte  15,40,211                           // movaps        %xmm3,%xmm2
-  .byte  15,89,214                           // mulps         %xmm6,%xmm2
-  .byte  15,89,199                           // mulps         %xmm7,%xmm0
-  .byte  68,15,89,216                        // mulps         %xmm0,%xmm11
-  .byte  68,15,88,218                        // addps         %xmm2,%xmm11
-  .byte  68,15,194,203,2                     // cmpleps       %xmm3,%xmm9
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
-  .byte  102,69,15,56,20,218                 // blendvps      %xmm0,%xmm10,%xmm11
-  .byte  68,15,40,213                        // movaps        %xmm5,%xmm10
-  .byte  68,15,94,215                        // divps         %xmm7,%xmm10
-  .byte  68,15,84,212                        // andps         %xmm4,%xmm10
-  .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
-  .byte  69,15,92,202                        // subps         %xmm10,%xmm9
-  .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
-  .byte  15,88,210                           // addps         %xmm2,%xmm2
-  .byte  15,88,210                           // addps         %xmm2,%xmm2
-  .byte  15,40,194                           // movaps        %xmm2,%xmm0
-  .byte  15,89,192                           // mulps         %xmm0,%xmm0
-  .byte  15,88,194                           // addps         %xmm2,%xmm0
-  .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
-  .byte  15,92,209                           // subps         %xmm1,%xmm2
-  .byte  15,89,208                           // mulps         %xmm0,%xmm2
-  .byte  65,15,82,194                        // rsqrtps       %xmm10,%xmm0
-  .byte  68,15,83,240                        // rcpps         %xmm0,%xmm14
-  .byte  69,15,92,242                        // subps         %xmm10,%xmm14
-  .byte  69,15,89,213                        // mulps         %xmm13,%xmm10
-  .byte  68,15,88,210                        // addps         %xmm2,%xmm10
-  .byte  15,40,197                           // movaps        %xmm5,%xmm0
-  .byte  15,88,192                           // addps         %xmm0,%xmm0
-  .byte  15,88,192                           // addps         %xmm0,%xmm0
-  .byte  15,194,199,2                        // cmpleps       %xmm7,%xmm0
-  .byte  102,69,15,56,20,242                 // blendvps      %xmm0,%xmm10,%xmm14
-  .byte  65,15,40,196                        // movaps        %xmm12,%xmm0
+  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,92,211                           // subps         %xmm3,%xmm2
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
-  .byte  68,15,88,203                        // addps         %xmm3,%xmm9
-  .byte  15,41,108,36,200                    // movaps        %xmm5,-0x38(%rsp)
-  .byte  68,15,89,205                        // mulps         %xmm5,%xmm9
+  .byte  68,15,89,210                        // mulps         %xmm2,%xmm10
+  .byte  68,15,88,211                        // addps         %xmm3,%xmm10
+  .byte  68,15,89,214                        // mulps         %xmm6,%xmm10
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
-  .byte  68,15,89,242                        // mulps         %xmm2,%xmm14
+  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
   .byte  15,40,211                           // movaps        %xmm3,%xmm2
-  .byte  15,89,213                           // mulps         %xmm5,%xmm2
-  .byte  68,15,88,242                        // addps         %xmm2,%xmm14
-  .byte  68,15,40,249                        // movaps        %xmm1,%xmm15
+  .byte  15,89,214                           // mulps         %xmm6,%xmm2
+  .byte  68,15,88,218                        // addps         %xmm2,%xmm11
   .byte  15,194,195,2                        // cmpleps       %xmm3,%xmm0
-  .byte  102,69,15,56,20,241                 // blendvps      %xmm0,%xmm9,%xmm14
-  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
-  .byte  15,40,108,36,216                    // movaps        -0x28(%rsp),%xmm5
-  .byte  15,40,197                           // movaps        %xmm5,%xmm0
-  .byte  15,94,199                           // divps         %xmm7,%xmm0
-  .byte  15,84,196                           // andps         %xmm4,%xmm0
+  .byte  102,69,15,56,20,218                 // blendvps      %xmm0,%xmm10,%xmm11
+  .byte  68,15,40,213                        // movaps        %xmm5,%xmm10
+  .byte  68,15,94,215                        // divps         %xmm7,%xmm10
+  .byte  69,15,84,209                        // andps         %xmm9,%xmm10
+  .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
-  .byte  15,92,209                           // subps         %xmm1,%xmm2
-  .byte  15,92,200                           // subps         %xmm0,%xmm1
-  .byte  68,15,89,232                        // mulps         %xmm0,%xmm13
-  .byte  15,82,224                           // rsqrtps       %xmm0,%xmm4
-  .byte  68,15,83,204                        // rcpps         %xmm4,%xmm9
-  .byte  68,15,92,200                        // subps         %xmm0,%xmm9
-  .byte  15,88,192                           // addps         %xmm0,%xmm0
-  .byte  15,88,192                           // addps         %xmm0,%xmm0
-  .byte  15,40,224                           // movaps        %xmm0,%xmm4
-  .byte  15,89,228                           // mulps         %xmm4,%xmm4
-  .byte  15,88,224                           // addps         %xmm0,%xmm4
-  .byte  15,89,226                           // mulps         %xmm2,%xmm4
-  .byte  68,15,88,236                        // addps         %xmm4,%xmm13
+  .byte  15,89,210                           // mulps         %xmm2,%xmm2
+  .byte  15,88,208                           // addps         %xmm0,%xmm2
+  .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
+  .byte  65,15,88,197                        // addps         %xmm13,%xmm0
+  .byte  15,89,194                           // mulps         %xmm2,%xmm0
+  .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
+  .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
+  .byte  15,88,208                           // addps         %xmm0,%xmm2
+  .byte  65,15,82,194                        // rsqrtps       %xmm10,%xmm0
+  .byte  68,15,83,240                        // rcpps         %xmm0,%xmm14
+  .byte  69,15,92,242                        // subps         %xmm10,%xmm14
   .byte  15,40,197                           // movaps        %xmm5,%xmm0
+  .byte  15,40,229                           // movaps        %xmm5,%xmm4
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,194,199,2                        // cmpleps       %xmm7,%xmm0
-  .byte  102,69,15,56,20,205                 // blendvps      %xmm0,%xmm13,%xmm9
-  .byte  68,15,40,108,36,232                 // movaps        -0x18(%rsp),%xmm13
-  .byte  65,15,40,197                        // movaps        %xmm13,%xmm0
+  .byte  102,68,15,56,20,242                 // blendvps      %xmm0,%xmm2,%xmm14
+  .byte  68,15,40,249                        // movaps        %xmm1,%xmm15
+  .byte  69,15,92,250                        // subps         %xmm10,%xmm15
+  .byte  15,40,108,36,200                    // movaps        -0x38(%rsp),%xmm5
+  .byte  15,40,197                           // movaps        %xmm5,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,40,208                           // movaps        %xmm0,%xmm2
+  .byte  15,92,211                           // subps         %xmm3,%xmm2
+  .byte  68,15,89,250                        // mulps         %xmm2,%xmm15
+  .byte  15,89,215                           // mulps         %xmm7,%xmm2
+  .byte  68,15,89,242                        // mulps         %xmm2,%xmm14
+  .byte  15,40,211                           // movaps        %xmm3,%xmm2
+  .byte  15,41,100,36,184                    // movaps        %xmm4,-0x48(%rsp)
+  .byte  15,89,212                           // mulps         %xmm4,%xmm2
+  .byte  68,15,88,242                        // addps         %xmm2,%xmm14
+  .byte  68,15,88,251                        // addps         %xmm3,%xmm15
+  .byte  68,15,89,252                        // mulps         %xmm4,%xmm15
+  .byte  15,194,195,2                        // cmpleps       %xmm3,%xmm0
+  .byte  102,69,15,56,20,247                 // blendvps      %xmm0,%xmm15,%xmm14
+  .byte  68,15,40,249                        // movaps        %xmm1,%xmm15
+  .byte  15,40,100,36,216                    // movaps        -0x28(%rsp),%xmm4
+  .byte  15,40,196                           // movaps        %xmm4,%xmm0
+  .byte  15,94,199                           // divps         %xmm7,%xmm0
+  .byte  65,15,84,193                        // andps         %xmm9,%xmm0
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  15,92,200                           // subps         %xmm0,%xmm1
+  .byte  68,15,88,232                        // addps         %xmm0,%xmm13
+  .byte  68,15,89,224                        // mulps         %xmm0,%xmm12
+  .byte  15,82,208                           // rsqrtps       %xmm0,%xmm2
+  .byte  68,15,83,202                        // rcpps         %xmm2,%xmm9
+  .byte  68,15,92,200                        // subps         %xmm0,%xmm9
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,40,208                           // movaps        %xmm0,%xmm2
+  .byte  15,89,210                           // mulps         %xmm2,%xmm2
+  .byte  15,88,208                           // addps         %xmm0,%xmm2
+  .byte  68,15,89,234                        // mulps         %xmm2,%xmm13
+  .byte  69,15,88,229                        // addps         %xmm13,%xmm12
+  .byte  15,40,196                           // movaps        %xmm4,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,88,192                           // addps         %xmm0,%xmm0
+  .byte  15,194,199,2                        // cmpleps       %xmm7,%xmm0
+  .byte  102,69,15,56,20,204                 // blendvps      %xmm0,%xmm12,%xmm9
+  .byte  68,15,40,100,36,232                 // movaps        -0x18(%rsp),%xmm12
+  .byte  65,15,40,196                        // movaps        %xmm12,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,92,211                           // subps         %xmm3,%xmm2
@@ -18754,29 +18344,30 @@
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
   .byte  15,40,211                           // movaps        %xmm3,%xmm2
-  .byte  15,89,213                           // mulps         %xmm5,%xmm2
+  .byte  15,89,212                           // mulps         %xmm4,%xmm2
   .byte  68,15,88,202                        // addps         %xmm2,%xmm9
   .byte  15,88,203                           // addps         %xmm3,%xmm1
-  .byte  15,89,205                           // mulps         %xmm5,%xmm1
-  .byte  15,40,213                           // movaps        %xmm5,%xmm2
+  .byte  15,89,204                           // mulps         %xmm4,%xmm1
   .byte  15,194,195,2                        // cmpleps       %xmm3,%xmm0
   .byte  102,68,15,56,20,201                 // blendvps      %xmm0,%xmm1,%xmm9
   .byte  68,15,92,255                        // subps         %xmm7,%xmm15
   .byte  69,15,89,199                        // mulps         %xmm15,%xmm8
-  .byte  69,15,89,231                        // mulps         %xmm15,%xmm12
-  .byte  69,15,89,253                        // mulps         %xmm13,%xmm15
+  .byte  15,40,205                           // movaps        %xmm5,%xmm1
+  .byte  65,15,89,207                        // mulps         %xmm15,%xmm1
+  .byte  69,15,89,252                        // mulps         %xmm12,%xmm15
   .byte  68,15,92,211                        // subps         %xmm3,%xmm10
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  15,89,198                           // mulps         %xmm6,%xmm0
   .byte  68,15,88,192                        // addps         %xmm0,%xmm8
   .byte  69,15,88,195                        // addps         %xmm11,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
-  .byte  15,40,108,36,200                    // movaps        -0x38(%rsp),%xmm5
+  .byte  15,40,108,36,184                    // movaps        -0x48(%rsp),%xmm5
   .byte  15,89,197                           // mulps         %xmm5,%xmm0
-  .byte  68,15,88,224                        // addps         %xmm0,%xmm12
-  .byte  69,15,88,230                        // addps         %xmm14,%xmm12
+  .byte  15,88,200                           // addps         %xmm0,%xmm1
+  .byte  65,15,88,206                        // addps         %xmm14,%xmm1
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
-  .byte  15,89,194                           // mulps         %xmm2,%xmm0
+  .byte  15,89,196                           // mulps         %xmm4,%xmm0
+  .byte  15,40,212                           // movaps        %xmm4,%xmm2
   .byte  65,15,88,199                        // addps         %xmm15,%xmm0
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
   .byte  68,15,89,215                        // mulps         %xmm7,%xmm10
@@ -18785,7 +18376,6 @@
   .byte  15,40,230                           // movaps        %xmm6,%xmm4
   .byte  15,40,242                           // movaps        %xmm2,%xmm6
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
-  .byte  65,15,40,204                        // movaps        %xmm12,%xmm1
   .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
@@ -18805,9 +18395,7 @@
 .globl _sk_clamp_1_sse41
 FUNCTION(_sk_clamp_1_sse41)
 _sk_clamp_1_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,222,46,0,0               // movaps        0x2ede(%rip),%xmm8        # 3b30 <_sk_callback_sse41+0x225>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
   .byte  65,15,93,208                        // minps         %xmm8,%xmm2
@@ -18819,10 +18407,7 @@
 .globl _sk_clamp_a_sse41
 FUNCTION(_sk_clamp_a_sse41)
 _sk_clamp_a_sse41:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,216                        // minps         %xmm8,%xmm3
+  .byte  15,93,29,211,46,0,0                 // minps         0x2ed3(%rip),%xmm3        # 3b40 <_sk_callback_sse41+0x235>
   .byte  15,93,195                           // minps         %xmm3,%xmm0
   .byte  15,93,203                           // minps         %xmm3,%xmm1
   .byte  15,93,211                           // minps         %xmm3,%xmm2
@@ -18909,9 +18494,7 @@
 FUNCTION(_sk_unpremul_sse41)
 _sk_unpremul_sse41:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,62,46,0,0               // movaps        0x2e3e(%rip),%xmm9        # 3b50 <_sk_callback_sse41+0x245>
   .byte  68,15,94,203                        // divps         %xmm3,%xmm9
   .byte  68,15,194,195,4                     // cmpneqps      %xmm3,%xmm8
   .byte  69,15,84,193                        // andps         %xmm9,%xmm8
@@ -18925,58 +18508,48 @@
 .globl _sk_from_srgb_sse41
 FUNCTION(_sk_from_srgb_sse41)
 _sk_from_srgb_sse41:
-  .byte  184,145,131,158,61                  // mov           $0x3d9e8391,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
-  .byte  68,15,89,208                        // mulps         %xmm0,%xmm10
-  .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
-  .byte  69,15,89,246                        // mulps         %xmm14,%xmm14
-  .byte  184,154,153,153,62                  // mov           $0x3e99999a,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  184,92,143,50,63                    // mov           $0x3f328f5c,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
-  .byte  69,15,88,204                        // addps         %xmm12,%xmm9
-  .byte  184,10,215,35,59                    // mov           $0x3b23d70a,%eax
-  .byte  102,68,15,110,232                   // movd          %eax,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
-  .byte  69,15,89,206                        // mulps         %xmm14,%xmm9
-  .byte  69,15,88,205                        // addps         %xmm13,%xmm9
-  .byte  184,174,71,97,61                    // mov           $0x3d6147ae,%eax
-  .byte  102,68,15,110,240                   // movd          %eax,%xmm14
-  .byte  69,15,198,246,0                     // shufps        $0x0,%xmm14,%xmm14
-  .byte  65,15,194,198,1                     // cmpltps       %xmm14,%xmm0
-  .byte  102,69,15,56,20,202                 // blendvps      %xmm0,%xmm10,%xmm9
-  .byte  69,15,40,251                        // movaps        %xmm11,%xmm15
-  .byte  68,15,89,249                        // mulps         %xmm1,%xmm15
-  .byte  15,40,193                           // movaps        %xmm1,%xmm0
-  .byte  15,89,192                           // mulps         %xmm0,%xmm0
-  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
-  .byte  69,15,88,212                        // addps         %xmm12,%xmm10
-  .byte  68,15,89,208                        // mulps         %xmm0,%xmm10
-  .byte  69,15,88,213                        // addps         %xmm13,%xmm10
-  .byte  65,15,194,206,1                     // cmpltps       %xmm14,%xmm1
-  .byte  15,40,193                           // movaps        %xmm1,%xmm0
-  .byte  102,69,15,56,20,215                 // blendvps      %xmm0,%xmm15,%xmm10
-  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
-  .byte  15,40,194                           // movaps        %xmm2,%xmm0
-  .byte  15,89,192                           // mulps         %xmm0,%xmm0
-  .byte  68,15,89,194                        // mulps         %xmm2,%xmm8
-  .byte  69,15,88,196                        // addps         %xmm12,%xmm8
-  .byte  68,15,89,192                        // mulps         %xmm0,%xmm8
+  .byte  68,15,40,29,41,46,0,0               // movaps        0x2e29(%rip),%xmm11        # 3b60 <_sk_callback_sse41+0x255>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
+  .byte  68,15,40,208                        // movaps        %xmm0,%xmm10
+  .byte  69,15,89,210                        // mulps         %xmm10,%xmm10
+  .byte  68,15,40,37,33,46,0,0               // movaps        0x2e21(%rip),%xmm12        # 3b70 <_sk_callback_sse41+0x265>
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  69,15,89,196                        // mulps         %xmm12,%xmm8
+  .byte  68,15,40,45,33,46,0,0               // movaps        0x2e21(%rip),%xmm13        # 3b80 <_sk_callback_sse41+0x275>
   .byte  69,15,88,197                        // addps         %xmm13,%xmm8
-  .byte  65,15,194,214,1                     // cmpltps       %xmm14,%xmm2
+  .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
+  .byte  68,15,40,53,33,46,0,0               // movaps        0x2e21(%rip),%xmm14        # 3b90 <_sk_callback_sse41+0x285>
+  .byte  69,15,88,198                        // addps         %xmm14,%xmm8
+  .byte  68,15,40,61,37,46,0,0               // movaps        0x2e25(%rip),%xmm15        # 3ba0 <_sk_callback_sse41+0x295>
+  .byte  65,15,194,199,1                     // cmpltps       %xmm15,%xmm0
+  .byte  102,69,15,56,20,193                 // blendvps      %xmm0,%xmm9,%xmm8
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,211                        // mulps         %xmm11,%xmm10
+  .byte  15,40,193                           // movaps        %xmm1,%xmm0
+  .byte  15,89,192                           // mulps         %xmm0,%xmm0
+  .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
+  .byte  69,15,89,204                        // mulps         %xmm12,%xmm9
+  .byte  69,15,88,205                        // addps         %xmm13,%xmm9
+  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  69,15,88,206                        // addps         %xmm14,%xmm9
+  .byte  65,15,194,207,1                     // cmpltps       %xmm15,%xmm1
+  .byte  15,40,193                           // movaps        %xmm1,%xmm0
+  .byte  102,69,15,56,20,202                 // blendvps      %xmm0,%xmm10,%xmm9
+  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
+  .byte  68,15,40,210                        // movaps        %xmm2,%xmm10
+  .byte  69,15,89,210                        // mulps         %xmm10,%xmm10
+  .byte  68,15,89,226                        // mulps         %xmm2,%xmm12
+  .byte  69,15,88,229                        // addps         %xmm13,%xmm12
+  .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
+  .byte  69,15,88,214                        // addps         %xmm14,%xmm10
+  .byte  65,15,194,215,1                     // cmpltps       %xmm15,%xmm2
   .byte  15,40,194                           // movaps        %xmm2,%xmm0
-  .byte  102,69,15,56,20,195                 // blendvps      %xmm0,%xmm11,%xmm8
+  .byte  102,69,15,56,20,211                 // blendvps      %xmm0,%xmm11,%xmm10
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
-  .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
-  .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
+  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
+  .byte  65,15,40,201                        // movaps        %xmm9,%xmm1
+  .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_to_srgb_sse41
@@ -18992,57 +18565,44 @@
   .byte  15,40,209                           // movaps        %xmm1,%xmm2
   .byte  68,15,82,192                        // rsqrtps       %xmm0,%xmm8
   .byte  69,15,83,200                        // rcpps         %xmm8,%xmm9
-  .byte  69,15,82,248                        // rsqrtps       %xmm8,%xmm15
-  .byte  184,41,92,71,65                     // mov           $0x41475c29,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
-  .byte  68,15,89,208                        // mulps         %xmm0,%xmm10
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  184,194,135,210,62                  // mov           $0x3ed287c2,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  184,206,111,48,63                   // mov           $0x3f306fce,%eax
-  .byte  102,68,15,110,232                   // movd          %eax,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
-  .byte  184,168,87,202,61                   // mov           $0x3dca57a8,%eax
-  .byte  53,0,0,0,128                        // xor           $0x80000000,%eax
-  .byte  102,68,15,110,240                   // movd          %eax,%xmm14
-  .byte  69,15,198,246,0                     // shufps        $0x0,%xmm14,%xmm14
-  .byte  69,15,89,205                        // mulps         %xmm13,%xmm9
-  .byte  69,15,88,206                        // addps         %xmm14,%xmm9
-  .byte  69,15,89,252                        // mulps         %xmm12,%xmm15
-  .byte  69,15,88,249                        // addps         %xmm9,%xmm15
+  .byte  69,15,82,208                        // rsqrtps       %xmm8,%xmm10
+  .byte  68,15,40,29,149,45,0,0              // movaps        0x2d95(%rip),%xmm11        # 3bb0 <_sk_callback_sse41+0x2a5>
+  .byte  15,40,200                           // movaps        %xmm0,%xmm1
+  .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
+  .byte  68,15,40,37,150,45,0,0              // movaps        0x2d96(%rip),%xmm12        # 3bc0 <_sk_callback_sse41+0x2b5>
+  .byte  69,15,89,204                        // mulps         %xmm12,%xmm9
+  .byte  68,15,40,45,154,45,0,0              // movaps        0x2d9a(%rip),%xmm13        # 3bd0 <_sk_callback_sse41+0x2c5>
+  .byte  69,15,88,205                        // addps         %xmm13,%xmm9
+  .byte  68,15,40,53,158,45,0,0              // movaps        0x2d9e(%rip),%xmm14        # 3be0 <_sk_callback_sse41+0x2d5>
+  .byte  69,15,89,214                        // mulps         %xmm14,%xmm10
+  .byte  69,15,88,209                        // addps         %xmm9,%xmm10
+  .byte  68,15,40,5,158,45,0,0               // movaps        0x2d9e(%rip),%xmm8        # 3bf0 <_sk_callback_sse41+0x2e5>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  69,15,93,207                        // minps         %xmm15,%xmm9
-  .byte  184,4,231,140,59                    // mov           $0x3b8ce704,%eax
-  .byte  102,68,15,110,248                   // movd          %eax,%xmm15
-  .byte  69,15,198,255,0                     // shufps        $0x0,%xmm15,%xmm15
+  .byte  69,15,93,202                        // minps         %xmm10,%xmm9
+  .byte  68,15,40,61,158,45,0,0              // movaps        0x2d9e(%rip),%xmm15        # 3c00 <_sk_callback_sse41+0x2f5>
   .byte  65,15,194,199,1                     // cmpltps       %xmm15,%xmm0
-  .byte  102,69,15,56,20,202                 // blendvps      %xmm0,%xmm10,%xmm9
-  .byte  68,15,82,210                        // rsqrtps       %xmm2,%xmm10
-  .byte  65,15,83,194                        // rcpps         %xmm10,%xmm0
-  .byte  69,15,82,210                        // rsqrtps       %xmm10,%xmm10
-  .byte  65,15,89,197                        // mulps         %xmm13,%xmm0
-  .byte  65,15,88,198                        // addps         %xmm14,%xmm0
-  .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
-  .byte  68,15,88,208                        // addps         %xmm0,%xmm10
-  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
-  .byte  65,15,93,202                        // minps         %xmm10,%xmm1
-  .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
-  .byte  68,15,89,210                        // mulps         %xmm2,%xmm10
+  .byte  102,68,15,56,20,201                 // blendvps      %xmm0,%xmm1,%xmm9
+  .byte  15,82,194                           // rsqrtps       %xmm2,%xmm0
+  .byte  15,83,200                           // rcpps         %xmm0,%xmm1
+  .byte  15,82,192                           // rsqrtps       %xmm0,%xmm0
+  .byte  65,15,89,204                        // mulps         %xmm12,%xmm1
+  .byte  65,15,88,205                        // addps         %xmm13,%xmm1
+  .byte  65,15,89,198                        // mulps         %xmm14,%xmm0
+  .byte  15,88,193                           // addps         %xmm1,%xmm0
+  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
+  .byte  68,15,93,208                        // minps         %xmm0,%xmm10
+  .byte  15,40,202                           // movaps        %xmm2,%xmm1
+  .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  65,15,194,215,1                     // cmpltps       %xmm15,%xmm2
   .byte  15,40,194                           // movaps        %xmm2,%xmm0
-  .byte  102,65,15,56,20,202                 // blendvps      %xmm0,%xmm10,%xmm1
+  .byte  102,68,15,56,20,209                 // blendvps      %xmm0,%xmm1,%xmm10
   .byte  15,82,195                           // rsqrtps       %xmm3,%xmm0
-  .byte  15,83,208                           // rcpps         %xmm0,%xmm2
-  .byte  65,15,89,213                        // mulps         %xmm13,%xmm2
-  .byte  65,15,88,214                        // addps         %xmm14,%xmm2
+  .byte  15,83,200                           // rcpps         %xmm0,%xmm1
+  .byte  65,15,89,204                        // mulps         %xmm12,%xmm1
+  .byte  65,15,88,205                        // addps         %xmm13,%xmm1
   .byte  15,82,192                           // rsqrtps       %xmm0,%xmm0
-  .byte  65,15,89,196                        // mulps         %xmm12,%xmm0
-  .byte  15,88,194                           // addps         %xmm2,%xmm0
+  .byte  65,15,89,198                        // mulps         %xmm14,%xmm0
+  .byte  15,88,193                           // addps         %xmm1,%xmm0
   .byte  68,15,93,192                        // minps         %xmm0,%xmm8
   .byte  68,15,89,219                        // mulps         %xmm3,%xmm11
   .byte  65,15,194,223,1                     // cmpltps       %xmm15,%xmm3
@@ -19050,6 +18610,7 @@
   .byte  102,69,15,56,20,195                 // blendvps      %xmm0,%xmm11,%xmm8
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
   .byte  15,40,220                           // movaps        %xmm4,%xmm3
   .byte  15,40,229                           // movaps        %xmm5,%xmm4
@@ -19062,83 +18623,55 @@
 .globl _sk_rgb_to_hsl_sse41
 FUNCTION(_sk_rgb_to_hsl_sse41)
 _sk_rgb_to_hsl_sse41:
-  .byte  15,41,124,36,232                    // movaps        %xmm7,-0x18(%rsp)
-  .byte  15,40,254                           // movaps        %xmm6,%xmm7
-  .byte  15,40,245                           // movaps        %xmm5,%xmm6
-  .byte  15,40,236                           // movaps        %xmm4,%xmm5
-  .byte  15,40,227                           // movaps        %xmm3,%xmm4
-  .byte  15,40,218                           // movaps        %xmm2,%xmm3
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  65,184,171,170,42,62                // mov           $0x3e2aaaab,%r8d
-  .byte  65,185,0,0,192,64                   // mov           $0x40c00000,%r9d
-  .byte  184,0,0,0,64                        // mov           $0x40000000,%eax
-  .byte  185,0,0,128,64                      // mov           $0x40800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  68,15,40,224                        // movaps        %xmm0,%xmm12
-  .byte  68,15,95,225                        // maxps         %xmm1,%xmm12
-  .byte  68,15,95,227                        // maxps         %xmm3,%xmm12
-  .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
-  .byte  68,15,93,233                        // minps         %xmm1,%xmm13
-  .byte  68,15,93,235                        // minps         %xmm3,%xmm13
-  .byte  69,15,40,204                        // movaps        %xmm12,%xmm9
-  .byte  68,15,194,200,0                     // cmpeqps       %xmm0,%xmm9
-  .byte  68,15,40,241                        // movaps        %xmm1,%xmm14
-  .byte  68,15,92,243                        // subps         %xmm3,%xmm14
-  .byte  68,15,40,249                        // movaps        %xmm1,%xmm15
-  .byte  68,15,194,251,1                     // cmpltps       %xmm3,%xmm15
-  .byte  69,15,40,212                        // movaps        %xmm12,%xmm10
-  .byte  68,15,194,209,0                     // cmpeqps       %xmm1,%xmm10
-  .byte  15,92,216                           // subps         %xmm0,%xmm3
-  .byte  15,92,193                           // subps         %xmm1,%xmm0
-  .byte  65,15,40,212                        // movaps        %xmm12,%xmm2
-  .byte  65,15,92,213                        // subps         %xmm13,%xmm2
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  68,15,94,218                        // divps         %xmm2,%xmm11
-  .byte  65,15,89,195                        // mulps         %xmm11,%xmm0
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  68,15,88,192                        // addps         %xmm0,%xmm8
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  65,15,89,219                        // mulps         %xmm11,%xmm3
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,88,217                           // addps         %xmm1,%xmm3
-  .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
-  .byte  102,68,15,56,20,195                 // blendvps      %xmm0,%xmm3,%xmm8
-  .byte  69,15,89,243                        // mulps         %xmm11,%xmm14
-  .byte  102,65,15,110,217                   // movd          %r9d,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,84,223                        // andps         %xmm15,%xmm3
-  .byte  65,15,88,222                        // addps         %xmm14,%xmm3
-  .byte  184,0,0,0,63                        // mov           $0x3f000000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
-  .byte  102,68,15,56,20,195                 // blendvps      %xmm0,%xmm3,%xmm8
-  .byte  65,15,40,220                        // movaps        %xmm12,%xmm3
+  .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
+  .byte  69,15,95,217                        // maxps         %xmm9,%xmm11
+  .byte  68,15,95,218                        // maxps         %xmm2,%xmm11
+  .byte  69,15,40,224                        // movaps        %xmm8,%xmm12
+  .byte  69,15,93,225                        // minps         %xmm9,%xmm12
+  .byte  68,15,93,226                        // minps         %xmm2,%xmm12
+  .byte  65,15,40,203                        // movaps        %xmm11,%xmm1
   .byte  65,15,92,204                        // subps         %xmm12,%xmm1
-  .byte  69,15,88,229                        // addps         %xmm13,%xmm12
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,40,204                        // movaps        %xmm12,%xmm9
-  .byte  69,15,89,202                        // mulps         %xmm10,%xmm9
-  .byte  69,15,194,209,1                     // cmpltps       %xmm9,%xmm10
-  .byte  65,15,92,205                        // subps         %xmm13,%xmm1
+  .byte  68,15,40,53,239,44,0,0              // movaps        0x2cef(%rip),%xmm14        # 3c10 <_sk_callback_sse41+0x305>
+  .byte  68,15,94,241                        // divps         %xmm1,%xmm14
+  .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
+  .byte  69,15,194,208,0                     // cmpeqps       %xmm8,%xmm10
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  15,92,194                           // subps         %xmm2,%xmm0
+  .byte  65,15,89,198                        // mulps         %xmm14,%xmm0
+  .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
+  .byte  68,15,194,250,1                     // cmpltps       %xmm2,%xmm15
+  .byte  68,15,84,61,214,44,0,0              // andps         0x2cd6(%rip),%xmm15        # 3c20 <_sk_callback_sse41+0x315>
+  .byte  68,15,88,248                        // addps         %xmm0,%xmm15
+  .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
+  .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
+  .byte  65,15,92,208                        // subps         %xmm8,%xmm2
+  .byte  65,15,89,214                        // mulps         %xmm14,%xmm2
+  .byte  68,15,40,45,201,44,0,0              // movaps        0x2cc9(%rip),%xmm13        # 3c30 <_sk_callback_sse41+0x325>
+  .byte  65,15,88,213                        // addps         %xmm13,%xmm2
+  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
+  .byte  69,15,89,198                        // mulps         %xmm14,%xmm8
+  .byte  68,15,88,5,197,44,0,0               // addps         0x2cc5(%rip),%xmm8        # 3c40 <_sk_callback_sse41+0x335>
+  .byte  102,68,15,56,20,194                 // blendvps      %xmm0,%xmm2,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
-  .byte  102,68,15,56,20,225                 // blendvps      %xmm0,%xmm1,%xmm12
-  .byte  65,15,194,221,4                     // cmpneqps      %xmm13,%xmm3
-  .byte  102,65,15,110,192                   // movd          %r8d,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  68,15,84,195                        // andps         %xmm3,%xmm8
-  .byte  68,15,89,192                        // mulps         %xmm0,%xmm8
-  .byte  65,15,94,212                        // divps         %xmm12,%xmm2
-  .byte  15,84,211                           // andps         %xmm3,%xmm2
+  .byte  102,69,15,56,20,199                 // blendvps      %xmm0,%xmm15,%xmm8
+  .byte  68,15,89,5,189,44,0,0               // mulps         0x2cbd(%rip),%xmm8        # 3c50 <_sk_callback_sse41+0x345>
+  .byte  69,15,40,203                        // movaps        %xmm11,%xmm9
+  .byte  69,15,194,204,4                     // cmpneqps      %xmm12,%xmm9
+  .byte  69,15,84,193                        // andps         %xmm9,%xmm8
+  .byte  69,15,92,235                        // subps         %xmm11,%xmm13
+  .byte  69,15,88,220                        // addps         %xmm12,%xmm11
+  .byte  15,40,5,177,44,0,0                  // movaps        0x2cb1(%rip),%xmm0        # 3c60 <_sk_callback_sse41+0x355>
+  .byte  65,15,40,211                        // movaps        %xmm11,%xmm2
+  .byte  15,89,208                           // mulps         %xmm0,%xmm2
+  .byte  15,194,194,1                        // cmpltps       %xmm2,%xmm0
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  102,69,15,56,20,221                 // blendvps      %xmm0,%xmm13,%xmm11
+  .byte  65,15,94,203                        // divps         %xmm11,%xmm1
+  .byte  65,15,84,201                        // andps         %xmm9,%xmm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
-  .byte  15,40,202                           // movaps        %xmm2,%xmm1
-  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
-  .byte  15,40,220                           // movaps        %xmm4,%xmm3
-  .byte  15,40,229                           // movaps        %xmm5,%xmm4
-  .byte  15,40,238                           // movaps        %xmm6,%xmm5
-  .byte  15,40,247                           // movaps        %xmm7,%xmm6
-  .byte  15,40,124,36,232                    // movaps        -0x18(%rsp),%xmm7
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_hsl_to_rgb_sse41
@@ -19327,14 +18860,11 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,68,15,56,49,4,56                // pmovzxbd      (%rax,%rdi,1),%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
-  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
-  .byte  65,15,89,217                        // mulps         %xmm9,%xmm3
+  .byte  68,15,89,5,179,41,0,0               // mulps         0x29b3(%rip),%xmm8        # 3c70 <_sk_callback_sse41+0x365>
+  .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
+  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -19368,21 +18898,18 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,68,15,56,49,4,56                // pmovzxbd      (%rax,%rdi,1),%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,89,5,95,41,0,0                // mulps         0x295f(%rip),%xmm8        # 3c80 <_sk_callback_sse41+0x375>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
+  .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  15,92,205                           // subps         %xmm5,%xmm1
-  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
+  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  15,92,214                           // subps         %xmm6,%xmm2
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  15,88,214                           // addps         %xmm6,%xmm2
   .byte  15,92,223                           // subps         %xmm7,%xmm3
-  .byte  65,15,89,217                        // mulps         %xmm9,%xmm3
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
   .byte  15,88,223                           // addps         %xmm7,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -19394,39 +18921,28 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,68,15,56,51,4,120               // pmovzxwd      (%rax,%rdi,2),%xmm8
-  .byte  102,15,111,29,55,42,0,0             // movdqa        0x2a37(%rip),%xmm3        # 3ee0 <_sk_callback_sse41+0xf8>
+  .byte  102,15,111,29,47,41,0,0             // movdqa        0x292f(%rip),%xmm3        # 3c90 <_sk_callback_sse41+0x385>
   .byte  102,65,15,219,216                   // pand          %xmm8,%xmm3
   .byte  68,15,91,203                        // cvtdq2ps      %xmm3,%xmm9
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  102,15,111,29,35,42,0,0             // movdqa        0x2a23(%rip),%xmm3        # 3ef0 <_sk_callback_sse41+0x108>
+  .byte  68,15,89,13,46,41,0,0               // mulps         0x292e(%rip),%xmm9        # 3ca0 <_sk_callback_sse41+0x395>
+  .byte  102,15,111,29,54,41,0,0             // movdqa        0x2936(%rip),%xmm3        # 3cb0 <_sk_callback_sse41+0x3a5>
   .byte  102,65,15,219,216                   // pand          %xmm8,%xmm3
-  .byte  68,15,91,203                        // cvtdq2ps      %xmm3,%xmm9
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,89,217                        // mulps         %xmm9,%xmm11
-  .byte  102,68,15,219,5,14,42,0,0           // pand          0x2a0e(%rip),%xmm8        # 3f00 <_sk_callback_sse41+0x118>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,55,41,0,0                  // mulps         0x2937(%rip),%xmm3        # 3cc0 <_sk_callback_sse41+0x3b5>
+  .byte  102,68,15,219,5,62,41,0,0           // pand          0x293e(%rip),%xmm8        # 3cd0 <_sk_callback_sse41+0x3c5>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  68,15,89,5,66,41,0,0                // mulps         0x2942(%rip),%xmm8        # 3ce0 <_sk_callback_sse41+0x3d5>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
+  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  15,92,205                           // subps         %xmm5,%xmm1
-  .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
+  .byte  15,89,203                           // mulps         %xmm3,%xmm1
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  15,92,214                           // subps         %xmm6,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  15,88,214                           // addps         %xmm6,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,44,41,0,0                  // movaps        0x292c(%rip),%xmm3        # 3cf0 <_sk_callback_sse41+0x3e5>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_load_tables_sse41
@@ -19437,7 +18953,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,139,72,8                         // mov           0x8(%rax),%r9
   .byte  243,69,15,111,4,184                 // movdqu        (%r8,%rdi,4),%xmm8
-  .byte  102,15,111,5,196,41,0,0             // movdqa        0x29c4(%rip),%xmm0        # 3f10 <_sk_callback_sse41+0x128>
+  .byte  102,15,111,5,35,41,0,0              // movdqa        0x2923(%rip),%xmm0        # 3d00 <_sk_callback_sse41+0x3f5>
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,73,15,58,22,192,1               // pextrq        $0x1,%xmm0,%r8
   .byte  102,72,15,126,193                   // movq          %xmm0,%rcx
@@ -19452,7 +18968,7 @@
   .byte  102,15,58,33,193,48                 // insertps      $0x30,%xmm1,%xmm0
   .byte  76,139,64,16                        // mov           0x10(%rax),%r8
   .byte  102,65,15,111,200                   // movdqa        %xmm8,%xmm1
-  .byte  102,15,56,0,13,127,41,0,0           // pshufb        0x297f(%rip),%xmm1        # 3f20 <_sk_callback_sse41+0x138>
+  .byte  102,15,56,0,13,222,40,0,0           // pshufb        0x28de(%rip),%xmm1        # 3d10 <_sk_callback_sse41+0x405>
   .byte  102,73,15,58,22,201,1               // pextrq        $0x1,%xmm1,%r9
   .byte  102,72,15,126,201                   // movq          %xmm1,%rcx
   .byte  68,15,182,209                       // movzbl        %cl,%r10d
@@ -19467,7 +18983,7 @@
   .byte  102,15,58,33,202,48                 // insertps      $0x30,%xmm2,%xmm1
   .byte  76,139,64,24                        // mov           0x18(%rax),%r8
   .byte  102,65,15,111,208                   // movdqa        %xmm8,%xmm2
-  .byte  102,15,56,0,21,59,41,0,0            // pshufb        0x293b(%rip),%xmm2        # 3f30 <_sk_callback_sse41+0x148>
+  .byte  102,15,56,0,21,154,40,0,0           // pshufb        0x289a(%rip),%xmm2        # 3d20 <_sk_callback_sse41+0x415>
   .byte  102,72,15,58,22,209,1               // pextrq        $0x1,%xmm2,%rcx
   .byte  102,72,15,126,208                   // movq          %xmm2,%rax
   .byte  68,15,182,200                       // movzbl        %al,%r9d
@@ -19481,11 +18997,8 @@
   .byte  243,65,15,16,28,8                   // movss         (%r8,%rcx,1),%xmm3
   .byte  102,15,58,33,211,48                 // insertps      $0x30,%xmm3,%xmm2
   .byte  102,65,15,114,208,24                // psrld         $0x18,%xmm8
-  .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  65,15,91,216                        // cvtdq2ps      %xmm8,%xmm3
+  .byte  15,89,29,87,40,0,0                  // mulps         0x2857(%rip),%xmm3        # 3d30 <_sk_callback_sse41+0x425>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -19504,7 +19017,7 @@
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
-  .byte  102,68,15,111,5,177,40,0,0          // movdqa        0x28b1(%rip),%xmm8        # 3f40 <_sk_callback_sse41+0x158>
+  .byte  102,68,15,111,5,42,40,0,0           // movdqa        0x282a(%rip),%xmm8        # 3d40 <_sk_callback_sse41+0x435>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
@@ -19521,7 +19034,7 @@
   .byte  243,67,15,16,20,8                   // movss         (%r8,%r9,1),%xmm2
   .byte  102,15,58,33,194,48                 // insertps      $0x30,%xmm2,%xmm0
   .byte  76,139,64,16                        // mov           0x10(%rax),%r8
-  .byte  102,15,56,0,13,100,40,0,0           // pshufb        0x2864(%rip),%xmm1        # 3f50 <_sk_callback_sse41+0x168>
+  .byte  102,15,56,0,13,221,39,0,0           // pshufb        0x27dd(%rip),%xmm1        # 3d50 <_sk_callback_sse41+0x445>
   .byte  102,15,56,51,201                    // pmovzxwd      %xmm1,%xmm1
   .byte  102,73,15,58,22,201,1               // pextrq        $0x1,%xmm1,%r9
   .byte  102,72,15,126,201                   // movq          %xmm1,%rcx
@@ -19550,17 +19063,14 @@
   .byte  102,15,58,33,211,32                 // insertps      $0x20,%xmm3,%xmm2
   .byte  243,65,15,16,28,8                   // movss         (%r8,%rcx,1),%xmm3
   .byte  102,15,58,33,211,48                 // insertps      $0x30,%xmm3,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  102,65,15,112,217,78                // pshufd        $0x4e,%xmm9,%xmm3
-  .byte  102,68,15,111,203                   // movdqa        %xmm3,%xmm9
-  .byte  102,65,15,113,241,8                 // psllw         $0x8,%xmm9
+  .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
+  .byte  102,65,15,113,240,8                 // psllw         $0x8,%xmm8
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
-  .byte  102,65,15,235,217                   // por           %xmm9,%xmm3
+  .byte  102,65,15,235,216                   // por           %xmm8,%xmm3
   .byte  102,15,56,51,219                    // pmovzxwd      %xmm3,%xmm3
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  15,89,29,43,39,0,0                  // mulps         0x272b(%rip),%xmm3        # 3d60 <_sk_callback_sse41+0x455>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -19582,7 +19092,7 @@
   .byte  102,68,15,97,200                    // punpcklwd     %xmm0,%xmm9
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,97,201                    // punpcklwd     %xmm9,%xmm1
-  .byte  102,68,15,111,5,88,39,0,0           // movdqa        0x2758(%rip),%xmm8        # 3f60 <_sk_callback_sse41+0x178>
+  .byte  102,68,15,111,5,237,38,0,0          // movdqa        0x26ed(%rip),%xmm8        # 3d70 <_sk_callback_sse41+0x465>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
@@ -19599,7 +19109,7 @@
   .byte  243,67,15,16,28,8                   // movss         (%r8,%r9,1),%xmm3
   .byte  102,15,58,33,195,48                 // insertps      $0x30,%xmm3,%xmm0
   .byte  76,139,64,16                        // mov           0x10(%rax),%r8
-  .byte  102,15,56,0,13,11,39,0,0            // pshufb        0x270b(%rip),%xmm1        # 3f70 <_sk_callback_sse41+0x188>
+  .byte  102,15,56,0,13,160,38,0,0           // pshufb        0x26a0(%rip),%xmm1        # 3d80 <_sk_callback_sse41+0x475>
   .byte  102,15,56,51,201                    // pmovzxwd      %xmm1,%xmm1
   .byte  102,73,15,58,22,201,1               // pextrq        $0x1,%xmm1,%r9
   .byte  102,72,15,126,201                   // movq          %xmm1,%rcx
@@ -19629,10 +19139,8 @@
   .byte  102,15,58,33,211,32                 // insertps      $0x20,%xmm3,%xmm2
   .byte  243,65,15,16,28,8                   // movss         (%r8,%rcx,1),%xmm3
   .byte  102,15,58,33,211,48                 // insertps      $0x30,%xmm3,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,11,38,0,0                  // movaps        0x260b(%rip),%xmm3        # 3d90 <_sk_callback_sse41+0x485>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_byte_tables_sse41
@@ -19642,9 +19150,7 @@
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,12,38,0,0                // movaps        0x260c(%rip),%xmm8        # 3da0 <_sk_callback_sse41+0x495>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,91,192                       // cvtps2dq      %xmm0,%xmm0
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
@@ -19652,21 +19158,18 @@
   .byte  72,193,233,32                       // shr           $0x20,%rcx
   .byte  102,73,15,126,193                   // movq          %xmm0,%r9
   .byte  69,137,202                          // mov           %r9d,%r10d
-  .byte  77,137,203                          // mov           %r9,%r11
-  .byte  73,193,235,32                       // shr           $0x20,%r11
-  .byte  76,139,48                           // mov           (%rax),%r14
-  .byte  76,139,72,8                         // mov           0x8(%rax),%r9
-  .byte  102,67,15,58,32,4,22,0              // pinsrb        $0x0,(%r14,%r10,1),%xmm0
-  .byte  102,67,15,58,32,4,30,1              // pinsrb        $0x1,(%r14,%r11,1),%xmm0
-  .byte  67,15,182,28,6                      // movzbl        (%r14,%r8,1),%ebx
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  76,139,24                           // mov           (%rax),%r11
+  .byte  76,139,112,8                        // mov           0x8(%rax),%r14
+  .byte  102,67,15,58,32,4,19,0              // pinsrb        $0x0,(%r11,%r10,1),%xmm0
+  .byte  102,67,15,58,32,4,11,1              // pinsrb        $0x1,(%r11,%r9,1),%xmm0
+  .byte  67,15,182,28,3                      // movzbl        (%r11,%r8,1),%ebx
   .byte  102,15,58,32,195,2                  // pinsrb        $0x2,%ebx,%xmm0
-  .byte  65,15,182,12,14                     // movzbl        (%r14,%rcx,1),%ecx
+  .byte  65,15,182,12,11                     // movzbl        (%r11,%rcx,1),%ecx
   .byte  102,15,58,32,193,3                  // pinsrb        $0x3,%ecx,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  185,129,128,128,59                  // mov           $0x3b808081,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,189,37,0,0              // movaps        0x25bd(%rip),%xmm9        # 3db0 <_sk_callback_sse41+0x4a5>
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -19674,13 +19177,13 @@
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  72,193,233,32                       // shr           $0x20,%rcx
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
-  .byte  65,137,218                          // mov           %ebx,%r10d
+  .byte  65,137,217                          // mov           %ebx,%r9d
   .byte  72,193,235,32                       // shr           $0x20,%rbx
-  .byte  102,67,15,58,32,12,17,0             // pinsrb        $0x0,(%r9,%r10,1),%xmm1
-  .byte  102,65,15,58,32,12,25,1             // pinsrb        $0x1,(%r9,%rbx,1),%xmm1
-  .byte  67,15,182,28,1                      // movzbl        (%r9,%r8,1),%ebx
+  .byte  102,67,15,58,32,12,14,0             // pinsrb        $0x0,(%r14,%r9,1),%xmm1
+  .byte  102,65,15,58,32,12,30,1             // pinsrb        $0x1,(%r14,%rbx,1),%xmm1
+  .byte  67,15,182,28,6                      // movzbl        (%r14,%r8,1),%ebx
   .byte  102,15,58,32,203,2                  // pinsrb        $0x2,%ebx,%xmm1
-  .byte  65,15,182,12,9                      // movzbl        (%r9,%rcx,1),%ecx
+  .byte  65,15,182,12,14                     // movzbl        (%r14,%rcx,1),%ecx
   .byte  102,15,58,32,201,3                  // pinsrb        $0x3,%ecx,%xmm1
   .byte  102,15,56,49,201                    // pmovzxbd      %xmm1,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
@@ -19704,8 +19207,8 @@
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
-  .byte  102,65,15,91,216                    // cvtps2dq      %xmm8,%xmm3
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  102,15,91,219                       // cvtps2dq      %xmm3,%xmm3
   .byte  102,72,15,58,22,217,1               // pextrq        $0x1,%xmm3,%rcx
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  72,193,233,32                       // shr           $0x20,%rcx
@@ -19757,9 +19260,7 @@
   .byte  102,15,58,32,193,3                  // pinsrb        $0x3,%ecx,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  185,129,128,128,59                  // mov           $0x3b808081,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,69,36,0,0               // movaps        0x2445(%rip),%xmm9        # 3dc0 <_sk_callback_sse41+0x4b5>
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -19936,31 +19437,31 @@
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,194                        // cvtdq2ps      %xmm10,%xmm8
-  .byte  68,15,89,5,168,33,0,0               // mulps         0x21a8(%rip),%xmm8        # 3f80 <_sk_callback_sse41+0x198>
-  .byte  68,15,84,21,176,33,0,0              // andps         0x21b0(%rip),%xmm10        # 3f90 <_sk_callback_sse41+0x1a8>
-  .byte  68,15,86,21,184,33,0,0              // orps          0x21b8(%rip),%xmm10        # 3fa0 <_sk_callback_sse41+0x1b8>
-  .byte  68,15,88,5,192,33,0,0               // addps         0x21c0(%rip),%xmm8        # 3fb0 <_sk_callback_sse41+0x1c8>
-  .byte  68,15,40,37,200,33,0,0              // movaps        0x21c8(%rip),%xmm12        # 3fc0 <_sk_callback_sse41+0x1d8>
+  .byte  68,15,89,5,156,33,0,0               // mulps         0x219c(%rip),%xmm8        # 3dd0 <_sk_callback_sse41+0x4c5>
+  .byte  68,15,84,21,164,33,0,0              // andps         0x21a4(%rip),%xmm10        # 3de0 <_sk_callback_sse41+0x4d5>
+  .byte  68,15,86,21,172,33,0,0              // orps          0x21ac(%rip),%xmm10        # 3df0 <_sk_callback_sse41+0x4e5>
+  .byte  68,15,88,5,180,33,0,0               // addps         0x21b4(%rip),%xmm8        # 3e00 <_sk_callback_sse41+0x4f5>
+  .byte  68,15,40,37,188,33,0,0              // movaps        0x21bc(%rip),%xmm12        # 3e10 <_sk_callback_sse41+0x505>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,196                        // subps         %xmm12,%xmm8
-  .byte  68,15,88,21,200,33,0,0              // addps         0x21c8(%rip),%xmm10        # 3fd0 <_sk_callback_sse41+0x1e8>
-  .byte  68,15,40,37,208,33,0,0              // movaps        0x21d0(%rip),%xmm12        # 3fe0 <_sk_callback_sse41+0x1f8>
+  .byte  68,15,88,21,188,33,0,0              // addps         0x21bc(%rip),%xmm10        # 3e20 <_sk_callback_sse41+0x515>
+  .byte  68,15,40,37,196,33,0,0              // movaps        0x21c4(%rip),%xmm12        # 3e30 <_sk_callback_sse41+0x525>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,196                        // subps         %xmm12,%xmm8
   .byte  69,15,89,195                        // mulps         %xmm11,%xmm8
   .byte  102,69,15,58,8,208,1                // roundps       $0x1,%xmm8,%xmm10
   .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,5,189,33,0,0               // addps         0x21bd(%rip),%xmm8        # 3ff0 <_sk_callback_sse41+0x208>
-  .byte  68,15,40,21,197,33,0,0              // movaps        0x21c5(%rip),%xmm10        # 4000 <_sk_callback_sse41+0x218>
+  .byte  68,15,88,5,177,33,0,0               // addps         0x21b1(%rip),%xmm8        # 3e40 <_sk_callback_sse41+0x535>
+  .byte  68,15,40,21,185,33,0,0              // movaps        0x21b9(%rip),%xmm10        # 3e50 <_sk_callback_sse41+0x545>
   .byte  69,15,89,211                        // mulps         %xmm11,%xmm10
   .byte  69,15,92,194                        // subps         %xmm10,%xmm8
-  .byte  68,15,40,21,197,33,0,0              // movaps        0x21c5(%rip),%xmm10        # 4010 <_sk_callback_sse41+0x228>
+  .byte  68,15,40,21,185,33,0,0              // movaps        0x21b9(%rip),%xmm10        # 3e60 <_sk_callback_sse41+0x555>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  68,15,40,29,201,33,0,0              // movaps        0x21c9(%rip),%xmm11        # 4020 <_sk_callback_sse41+0x238>
+  .byte  68,15,40,29,189,33,0,0              // movaps        0x21bd(%rip),%xmm11        # 3e70 <_sk_callback_sse41+0x565>
   .byte  69,15,94,218                        // divps         %xmm10,%xmm11
   .byte  69,15,88,216                        // addps         %xmm8,%xmm11
-  .byte  68,15,89,29,201,33,0,0              // mulps         0x21c9(%rip),%xmm11        # 4030 <_sk_callback_sse41+0x248>
+  .byte  68,15,89,29,189,33,0,0              // mulps         0x21bd(%rip),%xmm11        # 3e80 <_sk_callback_sse41+0x575>
   .byte  102,69,15,91,211                    // cvtps2dq      %xmm11,%xmm10
   .byte  243,68,15,16,64,20                  // movss         0x14(%rax),%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
@@ -19968,10 +19469,7 @@
   .byte  102,69,15,56,20,193                 // blendvps      %xmm0,%xmm9,%xmm8
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  68,15,95,192                        // maxps         %xmm0,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  68,15,93,192                        // minps         %xmm0,%xmm8
+  .byte  68,15,93,5,164,33,0,0               // minps         0x21a4(%rip),%xmm8        # 3e90 <_sk_callback_sse41+0x585>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -20001,31 +19499,31 @@
   .byte  68,15,88,217                        // addps         %xmm1,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,56,33,0,0               // mulps         0x2138(%rip),%xmm12        # 4040 <_sk_callback_sse41+0x258>
-  .byte  68,15,84,29,64,33,0,0               // andps         0x2140(%rip),%xmm11        # 4050 <_sk_callback_sse41+0x268>
-  .byte  68,15,86,29,72,33,0,0               // orps          0x2148(%rip),%xmm11        # 4060 <_sk_callback_sse41+0x278>
-  .byte  68,15,88,37,80,33,0,0               // addps         0x2150(%rip),%xmm12        # 4070 <_sk_callback_sse41+0x288>
-  .byte  15,40,13,89,33,0,0                  // movaps        0x2159(%rip),%xmm1        # 4080 <_sk_callback_sse41+0x298>
+  .byte  68,15,89,37,69,33,0,0               // mulps         0x2145(%rip),%xmm12        # 3ea0 <_sk_callback_sse41+0x595>
+  .byte  68,15,84,29,77,33,0,0               // andps         0x214d(%rip),%xmm11        # 3eb0 <_sk_callback_sse41+0x5a5>
+  .byte  68,15,86,29,85,33,0,0               // orps          0x2155(%rip),%xmm11        # 3ec0 <_sk_callback_sse41+0x5b5>
+  .byte  68,15,88,37,93,33,0,0               // addps         0x215d(%rip),%xmm12        # 3ed0 <_sk_callback_sse41+0x5c5>
+  .byte  15,40,13,102,33,0,0                 // movaps        0x2166(%rip),%xmm1        # 3ee0 <_sk_callback_sse41+0x5d5>
   .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
-  .byte  68,15,88,29,89,33,0,0               // addps         0x2159(%rip),%xmm11        # 4090 <_sk_callback_sse41+0x2a8>
-  .byte  15,40,13,98,33,0,0                  // movaps        0x2162(%rip),%xmm1        # 40a0 <_sk_callback_sse41+0x2b8>
+  .byte  68,15,88,29,102,33,0,0              // addps         0x2166(%rip),%xmm11        # 3ef0 <_sk_callback_sse41+0x5e5>
+  .byte  15,40,13,111,33,0,0                 // movaps        0x216f(%rip),%xmm1        # 3f00 <_sk_callback_sse41+0x5f5>
   .byte  65,15,94,203                        // divps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,79,33,0,0               // addps         0x214f(%rip),%xmm12        # 40b0 <_sk_callback_sse41+0x2c8>
-  .byte  15,40,13,88,33,0,0                  // movaps        0x2158(%rip),%xmm1        # 40c0 <_sk_callback_sse41+0x2d8>
+  .byte  68,15,88,37,92,33,0,0               // addps         0x215c(%rip),%xmm12        # 3f10 <_sk_callback_sse41+0x605>
+  .byte  15,40,13,101,33,0,0                 // movaps        0x2165(%rip),%xmm1        # 3f20 <_sk_callback_sse41+0x615>
   .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
-  .byte  68,15,40,21,88,33,0,0               // movaps        0x2158(%rip),%xmm10        # 40d0 <_sk_callback_sse41+0x2e8>
+  .byte  68,15,40,21,101,33,0,0              // movaps        0x2165(%rip),%xmm10        # 3f30 <_sk_callback_sse41+0x625>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,13,93,33,0,0                  // movaps        0x215d(%rip),%xmm1        # 40e0 <_sk_callback_sse41+0x2f8>
+  .byte  15,40,13,106,33,0,0                 // movaps        0x216a(%rip),%xmm1        # 3f40 <_sk_callback_sse41+0x635>
   .byte  65,15,94,202                        // divps         %xmm10,%xmm1
   .byte  65,15,88,204                        // addps         %xmm12,%xmm1
-  .byte  15,89,13,94,33,0,0                  // mulps         0x215e(%rip),%xmm1        # 40f0 <_sk_callback_sse41+0x308>
+  .byte  15,89,13,107,33,0,0                 // mulps         0x216b(%rip),%xmm1        # 3f50 <_sk_callback_sse41+0x645>
   .byte  102,68,15,91,209                    // cvtps2dq      %xmm1,%xmm10
   .byte  243,15,16,72,20                     // movss         0x14(%rax),%xmm1
   .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
@@ -20033,10 +19531,7 @@
   .byte  102,65,15,56,20,201                 // blendvps      %xmm0,%xmm9,%xmm1
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,200                           // maxps         %xmm0,%xmm1
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,93,200                           // minps         %xmm0,%xmm1
+  .byte  15,93,13,86,33,0,0                  // minps         0x2156(%rip),%xmm1        # 3f60 <_sk_callback_sse41+0x655>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -20066,31 +19561,31 @@
   .byte  68,15,88,218                        // addps         %xmm2,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,209,32,0,0              // mulps         0x20d1(%rip),%xmm12        # 4100 <_sk_callback_sse41+0x318>
-  .byte  68,15,84,29,217,32,0,0              // andps         0x20d9(%rip),%xmm11        # 4110 <_sk_callback_sse41+0x328>
-  .byte  68,15,86,29,225,32,0,0              // orps          0x20e1(%rip),%xmm11        # 4120 <_sk_callback_sse41+0x338>
-  .byte  68,15,88,37,233,32,0,0              // addps         0x20e9(%rip),%xmm12        # 4130 <_sk_callback_sse41+0x348>
-  .byte  15,40,21,242,32,0,0                 // movaps        0x20f2(%rip),%xmm2        # 4140 <_sk_callback_sse41+0x358>
+  .byte  68,15,89,37,247,32,0,0              // mulps         0x20f7(%rip),%xmm12        # 3f70 <_sk_callback_sse41+0x665>
+  .byte  68,15,84,29,255,32,0,0              // andps         0x20ff(%rip),%xmm11        # 3f80 <_sk_callback_sse41+0x675>
+  .byte  68,15,86,29,7,33,0,0                // orps          0x2107(%rip),%xmm11        # 3f90 <_sk_callback_sse41+0x685>
+  .byte  68,15,88,37,15,33,0,0               // addps         0x210f(%rip),%xmm12        # 3fa0 <_sk_callback_sse41+0x695>
+  .byte  15,40,21,24,33,0,0                  // movaps        0x2118(%rip),%xmm2        # 3fb0 <_sk_callback_sse41+0x6a5>
   .byte  65,15,89,211                        // mulps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
-  .byte  68,15,88,29,242,32,0,0              // addps         0x20f2(%rip),%xmm11        # 4150 <_sk_callback_sse41+0x368>
-  .byte  15,40,21,251,32,0,0                 // movaps        0x20fb(%rip),%xmm2        # 4160 <_sk_callback_sse41+0x378>
+  .byte  68,15,88,29,24,33,0,0               // addps         0x2118(%rip),%xmm11        # 3fc0 <_sk_callback_sse41+0x6b5>
+  .byte  15,40,21,33,33,0,0                  // movaps        0x2121(%rip),%xmm2        # 3fd0 <_sk_callback_sse41+0x6c5>
   .byte  65,15,94,211                        // divps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,232,32,0,0              // addps         0x20e8(%rip),%xmm12        # 4170 <_sk_callback_sse41+0x388>
-  .byte  15,40,21,241,32,0,0                 // movaps        0x20f1(%rip),%xmm2        # 4180 <_sk_callback_sse41+0x398>
+  .byte  68,15,88,37,14,33,0,0               // addps         0x210e(%rip),%xmm12        # 3fe0 <_sk_callback_sse41+0x6d5>
+  .byte  15,40,21,23,33,0,0                  // movaps        0x2117(%rip),%xmm2        # 3ff0 <_sk_callback_sse41+0x6e5>
   .byte  65,15,89,211                        // mulps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
-  .byte  68,15,40,21,241,32,0,0              // movaps        0x20f1(%rip),%xmm10        # 4190 <_sk_callback_sse41+0x3a8>
+  .byte  68,15,40,21,23,33,0,0               // movaps        0x2117(%rip),%xmm10        # 4000 <_sk_callback_sse41+0x6f5>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,21,246,32,0,0                 // movaps        0x20f6(%rip),%xmm2        # 41a0 <_sk_callback_sse41+0x3b8>
+  .byte  15,40,21,28,33,0,0                  // movaps        0x211c(%rip),%xmm2        # 4010 <_sk_callback_sse41+0x705>
   .byte  65,15,94,210                        // divps         %xmm10,%xmm2
   .byte  65,15,88,212                        // addps         %xmm12,%xmm2
-  .byte  15,89,21,247,32,0,0                 // mulps         0x20f7(%rip),%xmm2        # 41b0 <_sk_callback_sse41+0x3c8>
+  .byte  15,89,21,29,33,0,0                  // mulps         0x211d(%rip),%xmm2        # 4020 <_sk_callback_sse41+0x715>
   .byte  102,68,15,91,210                    // cvtps2dq      %xmm2,%xmm10
   .byte  243,15,16,80,20                     // movss         0x14(%rax),%xmm2
   .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
@@ -20098,10 +19593,7 @@
   .byte  102,65,15,56,20,209                 // blendvps      %xmm0,%xmm9,%xmm2
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,208                           // maxps         %xmm0,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,93,208                           // minps         %xmm0,%xmm2
+  .byte  15,93,21,8,33,0,0                   // minps         0x2108(%rip),%xmm2        # 4030 <_sk_callback_sse41+0x725>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -20131,31 +19623,31 @@
   .byte  68,15,88,219                        // addps         %xmm3,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,106,32,0,0              // mulps         0x206a(%rip),%xmm12        # 41c0 <_sk_callback_sse41+0x3d8>
-  .byte  68,15,84,29,114,32,0,0              // andps         0x2072(%rip),%xmm11        # 41d0 <_sk_callback_sse41+0x3e8>
-  .byte  68,15,86,29,122,32,0,0              // orps          0x207a(%rip),%xmm11        # 41e0 <_sk_callback_sse41+0x3f8>
-  .byte  68,15,88,37,130,32,0,0              // addps         0x2082(%rip),%xmm12        # 41f0 <_sk_callback_sse41+0x408>
-  .byte  15,40,29,139,32,0,0                 // movaps        0x208b(%rip),%xmm3        # 4200 <_sk_callback_sse41+0x418>
+  .byte  68,15,89,37,169,32,0,0              // mulps         0x20a9(%rip),%xmm12        # 4040 <_sk_callback_sse41+0x735>
+  .byte  68,15,84,29,177,32,0,0              // andps         0x20b1(%rip),%xmm11        # 4050 <_sk_callback_sse41+0x745>
+  .byte  68,15,86,29,185,32,0,0              // orps          0x20b9(%rip),%xmm11        # 4060 <_sk_callback_sse41+0x755>
+  .byte  68,15,88,37,193,32,0,0              // addps         0x20c1(%rip),%xmm12        # 4070 <_sk_callback_sse41+0x765>
+  .byte  15,40,29,202,32,0,0                 // movaps        0x20ca(%rip),%xmm3        # 4080 <_sk_callback_sse41+0x775>
   .byte  65,15,89,219                        // mulps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
-  .byte  68,15,88,29,139,32,0,0              // addps         0x208b(%rip),%xmm11        # 4210 <_sk_callback_sse41+0x428>
-  .byte  15,40,29,148,32,0,0                 // movaps        0x2094(%rip),%xmm3        # 4220 <_sk_callback_sse41+0x438>
+  .byte  68,15,88,29,202,32,0,0              // addps         0x20ca(%rip),%xmm11        # 4090 <_sk_callback_sse41+0x785>
+  .byte  15,40,29,211,32,0,0                 // movaps        0x20d3(%rip),%xmm3        # 40a0 <_sk_callback_sse41+0x795>
   .byte  65,15,94,219                        // divps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,129,32,0,0              // addps         0x2081(%rip),%xmm12        # 4230 <_sk_callback_sse41+0x448>
-  .byte  15,40,29,138,32,0,0                 // movaps        0x208a(%rip),%xmm3        # 4240 <_sk_callback_sse41+0x458>
+  .byte  68,15,88,37,192,32,0,0              // addps         0x20c0(%rip),%xmm12        # 40b0 <_sk_callback_sse41+0x7a5>
+  .byte  15,40,29,201,32,0,0                 // movaps        0x20c9(%rip),%xmm3        # 40c0 <_sk_callback_sse41+0x7b5>
   .byte  65,15,89,219                        // mulps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
-  .byte  68,15,40,21,138,32,0,0              // movaps        0x208a(%rip),%xmm10        # 4250 <_sk_callback_sse41+0x468>
+  .byte  68,15,40,21,201,32,0,0              // movaps        0x20c9(%rip),%xmm10        # 40d0 <_sk_callback_sse41+0x7c5>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,29,143,32,0,0                 // movaps        0x208f(%rip),%xmm3        # 4260 <_sk_callback_sse41+0x478>
+  .byte  15,40,29,206,32,0,0                 // movaps        0x20ce(%rip),%xmm3        # 40e0 <_sk_callback_sse41+0x7d5>
   .byte  65,15,94,218                        // divps         %xmm10,%xmm3
   .byte  65,15,88,220                        // addps         %xmm12,%xmm3
-  .byte  15,89,29,144,32,0,0                 // mulps         0x2090(%rip),%xmm3        # 4270 <_sk_callback_sse41+0x488>
+  .byte  15,89,29,207,32,0,0                 // mulps         0x20cf(%rip),%xmm3        # 40f0 <_sk_callback_sse41+0x7e5>
   .byte  102,68,15,91,211                    // cvtps2dq      %xmm3,%xmm10
   .byte  243,15,16,88,20                     // movss         0x14(%rax),%xmm3
   .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
@@ -20163,10 +19655,7 @@
   .byte  102,65,15,56,20,217                 // blendvps      %xmm0,%xmm9,%xmm3
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,216                           // maxps         %xmm0,%xmm3
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,93,216                           // minps         %xmm0,%xmm3
+  .byte  15,93,29,186,32,0,0                 // minps         0x20ba(%rip),%xmm3        # 4100 <_sk_callback_sse41+0x7f5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -20175,82 +19664,53 @@
 .globl _sk_lab_to_xyz_sse41
 FUNCTION(_sk_lab_to_xyz_sse41)
 _sk_lab_to_xyz_sse41:
-  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
-  .byte  184,0,0,200,66                      // mov           $0x42c80000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
-  .byte  184,0,0,0,67                        // mov           $0x43000000,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  68,15,92,193                        // subps         %xmm1,%xmm8
-  .byte  68,15,89,210                        // mulps         %xmm2,%xmm10
-  .byte  68,15,92,209                        // subps         %xmm1,%xmm10
-  .byte  184,0,0,128,65                      // mov           $0x41800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,88,209                        // addps         %xmm9,%xmm2
-  .byte  184,203,61,13,60                    // mov           $0x3c0d3dcb,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  184,111,18,3,59                     // mov           $0x3b03126f,%eax
-  .byte  102,68,15,110,232                   // movd          %eax,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
-  .byte  69,15,89,232                        // mulps         %xmm8,%xmm13
-  .byte  68,15,88,233                        // addps         %xmm1,%xmm13
-  .byte  184,10,215,163,59                   // mov           $0x3ba3d70a,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
-  .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
-  .byte  68,15,92,200                        // subps         %xmm0,%xmm9
-  .byte  69,15,40,221                        // movaps        %xmm13,%xmm11
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  68,15,89,5,182,32,0,0               // mulps         0x20b6(%rip),%xmm8        # 4110 <_sk_callback_sse41+0x805>
+  .byte  68,15,40,13,190,32,0,0              // movaps        0x20be(%rip),%xmm9        # 4120 <_sk_callback_sse41+0x815>
+  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
+  .byte  15,40,5,195,32,0,0                  // movaps        0x20c3(%rip),%xmm0        # 4130 <_sk_callback_sse41+0x825>
+  .byte  15,88,200                           // addps         %xmm0,%xmm1
+  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
+  .byte  15,88,208                           // addps         %xmm0,%xmm2
+  .byte  68,15,88,5,193,32,0,0               // addps         0x20c1(%rip),%xmm8        # 4140 <_sk_callback_sse41+0x835>
+  .byte  68,15,89,5,201,32,0,0               // mulps         0x20c9(%rip),%xmm8        # 4150 <_sk_callback_sse41+0x845>
+  .byte  15,89,13,210,32,0,0                 // mulps         0x20d2(%rip),%xmm1        # 4160 <_sk_callback_sse41+0x855>
+  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
+  .byte  15,89,21,215,32,0,0                 // mulps         0x20d7(%rip),%xmm2        # 4170 <_sk_callback_sse41+0x865>
+  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
+  .byte  68,15,92,210                        // subps         %xmm2,%xmm10
+  .byte  68,15,40,217                        // movaps        %xmm1,%xmm11
   .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
-  .byte  69,15,89,221                        // mulps         %xmm13,%xmm11
-  .byte  184,194,24,17,60                    // mov           $0x3c1118c2,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
+  .byte  68,15,89,217                        // mulps         %xmm1,%xmm11
+  .byte  68,15,40,13,203,32,0,0              // movaps        0x20cb(%rip),%xmm9        # 4180 <_sk_callback_sse41+0x875>
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  65,15,194,195,1                     // cmpltps       %xmm11,%xmm0
-  .byte  184,203,61,13,62                    // mov           $0x3e0d3dcb,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,92,234                        // subps         %xmm10,%xmm13
-  .byte  184,80,128,3,62                     // mov           $0x3e038050,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
-  .byte  102,69,15,56,20,235                 // blendvps      %xmm0,%xmm11,%xmm13
-  .byte  15,40,209                           // movaps        %xmm1,%xmm2
-  .byte  15,89,210                           // mulps         %xmm2,%xmm2
-  .byte  15,89,209                           // mulps         %xmm1,%xmm2
-  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
-  .byte  15,194,194,1                        // cmpltps       %xmm2,%xmm0
-  .byte  65,15,92,202                        // subps         %xmm10,%xmm1
+  .byte  15,40,21,203,32,0,0                 // movaps        0x20cb(%rip),%xmm2        # 4190 <_sk_callback_sse41+0x885>
+  .byte  15,88,202                           // addps         %xmm2,%xmm1
+  .byte  68,15,40,37,208,32,0,0              // movaps        0x20d0(%rip),%xmm12        # 41a0 <_sk_callback_sse41+0x895>
   .byte  65,15,89,204                        // mulps         %xmm12,%xmm1
-  .byte  102,15,56,20,202                    // blendvps      %xmm0,%xmm2,%xmm1
-  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
-  .byte  15,89,210                           // mulps         %xmm2,%xmm2
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
-  .byte  68,15,194,194,1                     // cmpltps       %xmm2,%xmm8
-  .byte  69,15,92,202                        // subps         %xmm10,%xmm9
-  .byte  69,15,89,204                        // mulps         %xmm12,%xmm9
-  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
-  .byte  102,68,15,56,20,202                 // blendvps      %xmm0,%xmm2,%xmm9
-  .byte  184,31,215,118,63                   // mov           $0x3f76d71f,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  65,15,89,197                        // mulps         %xmm13,%xmm0
-  .byte  184,246,64,83,63                    // mov           $0x3f5340f6,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
+  .byte  102,65,15,56,20,203                 // blendvps      %xmm0,%xmm11,%xmm1
+  .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
+  .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
+  .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  65,15,194,195,1                     // cmpltps       %xmm11,%xmm0
+  .byte  68,15,88,194                        // addps         %xmm2,%xmm8
+  .byte  69,15,89,196                        // mulps         %xmm12,%xmm8
+  .byte  102,69,15,56,20,195                 // blendvps      %xmm0,%xmm11,%xmm8
+  .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
+  .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
+  .byte  69,15,89,218                        // mulps         %xmm10,%xmm11
+  .byte  69,15,194,203,1                     // cmpltps       %xmm11,%xmm9
+  .byte  65,15,88,210                        // addps         %xmm10,%xmm2
+  .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  102,65,15,56,20,211                 // blendvps      %xmm0,%xmm11,%xmm2
+  .byte  15,89,13,137,32,0,0                 // mulps         0x2089(%rip),%xmm1        # 41b0 <_sk_callback_sse41+0x8a5>
+  .byte  15,89,21,146,32,0,0                 // mulps         0x2092(%rip),%xmm2        # 41c0 <_sk_callback_sse41+0x8b5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,193                           // movaps        %xmm1,%xmm0
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_load_a8_sse41
@@ -20260,11 +19720,8 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,15,56,49,4,56                   // pmovzxbd      (%rax,%rdi,1),%xmm0
-  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
+  .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
+  .byte  15,89,29,130,32,0,0                 // mulps         0x2082(%rip),%xmm3        # 41d0 <_sk_callback_sse41+0x8c5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
@@ -20296,11 +19753,8 @@
   .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
   .byte  102,15,58,32,192,3                  // pinsrb        $0x3,%eax,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
-  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
+  .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
+  .byte  15,89,29,22,32,0,0                  // mulps         0x2016(%rip),%xmm3        # 41e0 <_sk_callback_sse41+0x8d5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -20313,9 +19767,7 @@
 _sk_store_a8_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,10,32,0,0                // movaps        0x200a(%rip),%xmm8        # 41f0 <_sk_callback_sse41+0x8e5>
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,69,15,56,43,192                 // packusdw      %xmm8,%xmm8
@@ -20331,15 +19783,10 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,15,56,49,4,56                   // pmovzxbd      (%rax,%rdi,1),%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,231,31,0,0                  // mulps         0x1fe7(%rip),%xmm0        # 4200 <_sk_callback_sse41+0x8f5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,238,31,0,0                 // movaps        0x1fee(%rip),%xmm3        # 4210 <_sk_callback_sse41+0x905>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -20369,15 +19816,10 @@
   .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
   .byte  102,15,58,32,192,3                  // pinsrb        $0x3,%eax,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,135,31,0,0                  // mulps         0x1f87(%rip),%xmm0        # 4220 <_sk_callback_sse41+0x915>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,142,31,0,0                 // movaps        0x1f8e(%rip),%xmm3        # 4230 <_sk_callback_sse41+0x925>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -20389,9 +19831,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  73,137,192                          // mov           %rax,%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  116,5                               // je            2517 <_sk_gather_i8_sse41+0xf>
+  .byte  116,5                               // je            22b9 <_sk_gather_i8_sse41+0xf>
   .byte  76,137,192                          // mov           %r8,%rax
-  .byte  235,2                               // jmp           2519 <_sk_gather_i8_sse41+0x11>
+  .byte  235,2                               // jmp           22bb <_sk_gather_i8_sse41+0x11>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  243,15,91,201                       // cvttps2dq     %xmm1,%xmm1
@@ -20422,19 +19864,17 @@
   .byte  102,15,58,34,28,8,1                 // pinsrd        $0x1,(%rax,%rcx,1),%xmm3
   .byte  102,66,15,58,34,28,144,2            // pinsrd        $0x2,(%rax,%r10,4),%xmm3
   .byte  102,66,15,58,34,28,8,3              // pinsrd        $0x3,(%rax,%r9,1),%xmm3
-  .byte  102,15,111,5,199,28,0,0             // movdqa        0x1cc7(%rip),%xmm0        # 4280 <_sk_callback_sse41+0x498>
+  .byte  102,15,111,5,229,30,0,0             // movdqa        0x1ee5(%rip),%xmm0        # 4240 <_sk_callback_sse41+0x935>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,230,30,0,0               // movaps        0x1ee6(%rip),%xmm8        # 4250 <_sk_callback_sse41+0x945>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
-  .byte  102,15,56,0,13,176,28,0,0           // pshufb        0x1cb0(%rip),%xmm1        # 4290 <_sk_callback_sse41+0x4a8>
+  .byte  102,15,56,0,13,229,30,0,0           // pshufb        0x1ee5(%rip),%xmm1        # 4260 <_sk_callback_sse41+0x955>
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,211                      // movdqa        %xmm3,%xmm2
-  .byte  102,15,56,0,21,172,28,0,0           // pshufb        0x1cac(%rip),%xmm2        # 42a0 <_sk_callback_sse41+0x4b8>
+  .byte  102,15,56,0,21,225,30,0,0           // pshufb        0x1ee1(%rip),%xmm2        # 4270 <_sk_callback_sse41+0x965>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -20450,30 +19890,19 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,15,56,51,20,120                 // pmovzxwd      (%rax,%rdi,2),%xmm2
-  .byte  102,15,111,5,146,28,0,0             // movdqa        0x1c92(%rip),%xmm0        # 42b0 <_sk_callback_sse41+0x4c8>
+  .byte  102,15,111,5,199,30,0,0             // movdqa        0x1ec7(%rip),%xmm0        # 4280 <_sk_callback_sse41+0x975>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,131,28,0,0            // movdqa        0x1c83(%rip),%xmm1        # 42c0 <_sk_callback_sse41+0x4d8>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,201,30,0,0                  // mulps         0x1ec9(%rip),%xmm0        # 4290 <_sk_callback_sse41+0x985>
+  .byte  102,15,111,13,209,30,0,0            // movdqa        0x1ed1(%rip),%xmm1        # 42a0 <_sk_callback_sse41+0x995>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
-  .byte  15,91,217                           // cvtdq2ps      %xmm1,%xmm3
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,203                           // mulps         %xmm3,%xmm1
-  .byte  102,15,219,21,116,28,0,0            // pand          0x1c74(%rip),%xmm2        # 42d0 <_sk_callback_sse41+0x4e8>
-  .byte  15,91,218                           // cvtdq2ps      %xmm2,%xmm3
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,211,30,0,0                 // mulps         0x1ed3(%rip),%xmm1        # 42b0 <_sk_callback_sse41+0x9a5>
+  .byte  102,15,219,21,219,30,0,0            // pand          0x1edb(%rip),%xmm2        # 42c0 <_sk_callback_sse41+0x9b5>
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,225,30,0,0                 // mulps         0x1ee1(%rip),%xmm2        # 42d0 <_sk_callback_sse41+0x9c5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,232,30,0,0                 // movaps        0x1ee8(%rip),%xmm3        # 42e0 <_sk_callback_sse41+0x9d5>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_gather_565_sse41
@@ -20501,30 +19930,19 @@
   .byte  65,15,183,4,65                      // movzwl        (%r9,%rax,2),%eax
   .byte  102,15,196,192,3                    // pinsrw        $0x3,%eax,%xmm0
   .byte  102,15,56,51,208                    // pmovzxwd      %xmm0,%xmm2
-  .byte  102,15,111,5,247,27,0,0             // movdqa        0x1bf7(%rip),%xmm0        # 42e0 <_sk_callback_sse41+0x4f8>
+  .byte  102,15,111,5,141,30,0,0             // movdqa        0x1e8d(%rip),%xmm0        # 42f0 <_sk_callback_sse41+0x9e5>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,232,27,0,0            // movdqa        0x1be8(%rip),%xmm1        # 42f0 <_sk_callback_sse41+0x508>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,143,30,0,0                  // mulps         0x1e8f(%rip),%xmm0        # 4300 <_sk_callback_sse41+0x9f5>
+  .byte  102,15,111,13,151,30,0,0            // movdqa        0x1e97(%rip),%xmm1        # 4310 <_sk_callback_sse41+0xa05>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
-  .byte  15,91,217                           // cvtdq2ps      %xmm1,%xmm3
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,203                           // mulps         %xmm3,%xmm1
-  .byte  102,15,219,21,217,27,0,0            // pand          0x1bd9(%rip),%xmm2        # 4300 <_sk_callback_sse41+0x518>
-  .byte  15,91,218                           // cvtdq2ps      %xmm2,%xmm3
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,153,30,0,0                 // mulps         0x1e99(%rip),%xmm1        # 4320 <_sk_callback_sse41+0xa15>
+  .byte  102,15,219,21,161,30,0,0            // pand          0x1ea1(%rip),%xmm2        # 4330 <_sk_callback_sse41+0xa25>
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,167,30,0,0                 // mulps         0x1ea7(%rip),%xmm2        # 4340 <_sk_callback_sse41+0xa35>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,174,30,0,0                 // movaps        0x1eae(%rip),%xmm3        # 4350 <_sk_callback_sse41+0xa45>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_565_sse41
@@ -20533,16 +19951,12 @@
 _sk_store_565_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,248,65                      // mov           $0x41f80000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,175,30,0,0               // movaps        0x1eaf(%rip),%xmm8        # 4360 <_sk_callback_sse41+0xa55>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,11                // pslld         $0xb,%xmm9
-  .byte  185,0,0,124,66                      // mov           $0x427c0000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,164,30,0,0              // movaps        0x1ea4(%rip),%xmm10        # 4370 <_sk_callback_sse41+0xa65>
   .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,5                 // pslld         $0x5,%xmm10
@@ -20562,33 +19976,21 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  102,15,56,51,28,120                 // pmovzxwd      (%rax,%rdi,2),%xmm3
-  .byte  102,15,111,5,74,27,0,0              // movdqa        0x1b4a(%rip),%xmm0        # 4310 <_sk_callback_sse41+0x528>
+  .byte  102,15,111,5,111,30,0,0             // movdqa        0x1e6f(%rip),%xmm0        # 4380 <_sk_callback_sse41+0xa75>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,59,27,0,0             // movdqa        0x1b3b(%rip),%xmm1        # 4320 <_sk_callback_sse41+0x538>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,113,30,0,0                  // mulps         0x1e71(%rip),%xmm0        # 4390 <_sk_callback_sse41+0xa85>
+  .byte  102,15,111,13,121,30,0,0            // movdqa        0x1e79(%rip),%xmm1        # 43a0 <_sk_callback_sse41+0xa95>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
-  .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  102,15,111,21,44,27,0,0             // movdqa        0x1b2c(%rip),%xmm2        # 4330 <_sk_callback_sse41+0x548>
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,123,30,0,0                 // mulps         0x1e7b(%rip),%xmm1        # 43b0 <_sk_callback_sse41+0xaa5>
+  .byte  102,15,111,21,131,30,0,0            // movdqa        0x1e83(%rip),%xmm2        # 43c0 <_sk_callback_sse41+0xab5>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
-  .byte  68,15,91,194                        // cvtdq2ps      %xmm2,%xmm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  102,15,219,29,27,27,0,0             // pand          0x1b1b(%rip),%xmm3        # 4340 <_sk_callback_sse41+0x558>
-  .byte  68,15,91,195                        // cvtdq2ps      %xmm3,%xmm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,133,30,0,0                 // mulps         0x1e85(%rip),%xmm2        # 43d0 <_sk_callback_sse41+0xac5>
+  .byte  102,15,219,29,141,30,0,0            // pand          0x1e8d(%rip),%xmm3        # 43e0 <_sk_callback_sse41+0xad5>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,147,30,0,0                 // mulps         0x1e93(%rip),%xmm3        # 43f0 <_sk_callback_sse41+0xae5>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -20617,33 +20019,21 @@
   .byte  65,15,183,4,65                      // movzwl        (%r9,%rax,2),%eax
   .byte  102,15,196,192,3                    // pinsrw        $0x3,%eax,%xmm0
   .byte  102,15,56,51,216                    // pmovzxwd      %xmm0,%xmm3
-  .byte  102,15,111,5,169,26,0,0             // movdqa        0x1aa9(%rip),%xmm0        # 4350 <_sk_callback_sse41+0x568>
+  .byte  102,15,111,5,54,30,0,0              // movdqa        0x1e36(%rip),%xmm0        # 4400 <_sk_callback_sse41+0xaf5>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,154,26,0,0            // movdqa        0x1a9a(%rip),%xmm1        # 4360 <_sk_callback_sse41+0x578>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,56,30,0,0                   // mulps         0x1e38(%rip),%xmm0        # 4410 <_sk_callback_sse41+0xb05>
+  .byte  102,15,111,13,64,30,0,0             // movdqa        0x1e40(%rip),%xmm1        # 4420 <_sk_callback_sse41+0xb15>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
-  .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  102,15,111,21,139,26,0,0            // movdqa        0x1a8b(%rip),%xmm2        # 4370 <_sk_callback_sse41+0x588>
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,66,30,0,0                  // mulps         0x1e42(%rip),%xmm1        # 4430 <_sk_callback_sse41+0xb25>
+  .byte  102,15,111,21,74,30,0,0             // movdqa        0x1e4a(%rip),%xmm2        # 4440 <_sk_callback_sse41+0xb35>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
-  .byte  68,15,91,194                        // cvtdq2ps      %xmm2,%xmm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  102,15,219,29,122,26,0,0            // pand          0x1a7a(%rip),%xmm3        # 4380 <_sk_callback_sse41+0x598>
-  .byte  68,15,91,195                        // cvtdq2ps      %xmm3,%xmm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,76,30,0,0                  // mulps         0x1e4c(%rip),%xmm2        # 4450 <_sk_callback_sse41+0xb45>
+  .byte  102,15,219,29,84,30,0,0             // pand          0x1e54(%rip),%xmm3        # 4460 <_sk_callback_sse41+0xb55>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,90,30,0,0                  // mulps         0x1e5a(%rip),%xmm3        # 4470 <_sk_callback_sse41+0xb65>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -20653,20 +20043,18 @@
 _sk_store_4444_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,112,65                      // mov           $0x41700000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,89,30,0,0                // movaps        0x1e59(%rip),%xmm8        # 4480 <_sk_callback_sse41+0xb75>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,12                // pslld         $0xc,%xmm9
-  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,8                 // pslld         $0x8,%xmm10
   .byte  102,69,15,235,209                   // por           %xmm9,%xmm10
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,4                 // pslld         $0x4,%xmm9
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
@@ -20685,19 +20073,17 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  15,16,28,184                        // movups        (%rax,%rdi,4),%xmm3
-  .byte  15,40,5,236,25,0,0                  // movaps        0x19ec(%rip),%xmm0        # 4390 <_sk_callback_sse41+0x5a8>
+  .byte  15,40,5,248,29,0,0                  // movaps        0x1df8(%rip),%xmm0        # 4490 <_sk_callback_sse41+0xb85>
   .byte  15,84,195                           // andps         %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,250,29,0,0               // movaps        0x1dfa(%rip),%xmm8        # 44a0 <_sk_callback_sse41+0xb95>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,40,203                           // movaps        %xmm3,%xmm1
-  .byte  102,15,56,0,13,215,25,0,0           // pshufb        0x19d7(%rip),%xmm1        # 43a0 <_sk_callback_sse41+0x5b8>
+  .byte  102,15,56,0,13,250,29,0,0           // pshufb        0x1dfa(%rip),%xmm1        # 44b0 <_sk_callback_sse41+0xba5>
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  15,40,211                           // movaps        %xmm3,%xmm2
-  .byte  102,15,56,0,21,212,25,0,0           // pshufb        0x19d4(%rip),%xmm2        # 43b0 <_sk_callback_sse41+0x5c8>
+  .byte  102,15,56,0,21,247,29,0,0           // pshufb        0x1df7(%rip),%xmm2        # 44c0 <_sk_callback_sse41+0xbb5>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -20728,19 +20114,17 @@
   .byte  102,65,15,58,34,28,129,1            // pinsrd        $0x1,(%r9,%rax,4),%xmm3
   .byte  102,67,15,58,34,28,145,2            // pinsrd        $0x2,(%r9,%r10,4),%xmm3
   .byte  102,65,15,58,34,28,137,3            // pinsrd        $0x3,(%r9,%rcx,4),%xmm3
-  .byte  102,15,111,5,109,25,0,0             // movdqa        0x196d(%rip),%xmm0        # 43c0 <_sk_callback_sse41+0x5d8>
+  .byte  102,15,111,5,144,29,0,0             // movdqa        0x1d90(%rip),%xmm0        # 44d0 <_sk_callback_sse41+0xbc5>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,145,29,0,0               // movaps        0x1d91(%rip),%xmm8        # 44e0 <_sk_callback_sse41+0xbd5>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
-  .byte  102,15,56,0,13,86,25,0,0            // pshufb        0x1956(%rip),%xmm1        # 43d0 <_sk_callback_sse41+0x5e8>
+  .byte  102,15,56,0,13,144,29,0,0           // pshufb        0x1d90(%rip),%xmm1        # 44f0 <_sk_callback_sse41+0xbe5>
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,211                      // movdqa        %xmm3,%xmm2
-  .byte  102,15,56,0,21,82,25,0,0            // pshufb        0x1952(%rip),%xmm2        # 43e0 <_sk_callback_sse41+0x5f8>
+  .byte  102,15,56,0,21,140,29,0,0           // pshufb        0x1d8c(%rip),%xmm2        # 4500 <_sk_callback_sse41+0xbf5>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -20755,19 +20139,17 @@
 _sk_store_8888_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,120,29,0,0               // movaps        0x1d78(%rip),%xmm8        # 4510 <_sk_callback_sse41+0xc05>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
-  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,8                 // pslld         $0x8,%xmm10
   .byte  102,69,15,235,209                   // por           %xmm9,%xmm10
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,16                // pslld         $0x10,%xmm9
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
@@ -20794,18 +20176,18 @@
   .byte  102,68,15,97,216                    // punpcklwd     %xmm0,%xmm11
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
   .byte  102,65,15,56,51,203                 // pmovzxwd      %xmm11,%xmm1
-  .byte  102,68,15,111,5,160,24,0,0          // movdqa        0x18a0(%rip),%xmm8        # 43f0 <_sk_callback_sse41+0x608>
+  .byte  102,68,15,111,5,241,28,0,0          // movdqa        0x1cf1(%rip),%xmm8        # 4520 <_sk_callback_sse41+0xc15>
   .byte  102,15,111,209                      // movdqa        %xmm1,%xmm2
   .byte  102,65,15,219,208                   // pand          %xmm8,%xmm2
   .byte  102,15,239,202                      // pxor          %xmm2,%xmm1
-  .byte  102,15,111,29,155,24,0,0            // movdqa        0x189b(%rip),%xmm3        # 4400 <_sk_callback_sse41+0x618>
+  .byte  102,15,111,29,236,28,0,0            // movdqa        0x1cec(%rip),%xmm3        # 4530 <_sk_callback_sse41+0xc25>
   .byte  102,15,114,242,16                   // pslld         $0x10,%xmm2
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,15,56,63,195                    // pmaxud        %xmm3,%xmm0
   .byte  102,15,118,193                      // pcmpeqd       %xmm1,%xmm0
   .byte  102,15,114,241,13                   // pslld         $0xd,%xmm1
   .byte  102,15,235,202                      // por           %xmm2,%xmm1
-  .byte  102,68,15,111,21,135,24,0,0         // movdqa        0x1887(%rip),%xmm10        # 4410 <_sk_callback_sse41+0x628>
+  .byte  102,68,15,111,21,216,28,0,0         // movdqa        0x1cd8(%rip),%xmm10        # 4540 <_sk_callback_sse41+0xc35>
   .byte  102,65,15,254,202                   // paddd         %xmm10,%xmm1
   .byte  102,15,219,193                      // pand          %xmm1,%xmm0
   .byte  102,65,15,115,219,8                 // psrldq        $0x8,%xmm11
@@ -20878,18 +20260,18 @@
   .byte  102,68,15,97,218                    // punpcklwd     %xmm2,%xmm11
   .byte  102,68,15,105,202                   // punpckhwd     %xmm2,%xmm9
   .byte  102,65,15,56,51,203                 // pmovzxwd      %xmm11,%xmm1
-  .byte  102,68,15,111,5,69,23,0,0           // movdqa        0x1745(%rip),%xmm8        # 4420 <_sk_callback_sse41+0x638>
+  .byte  102,68,15,111,5,150,27,0,0          // movdqa        0x1b96(%rip),%xmm8        # 4550 <_sk_callback_sse41+0xc45>
   .byte  102,15,111,209                      // movdqa        %xmm1,%xmm2
   .byte  102,65,15,219,208                   // pand          %xmm8,%xmm2
   .byte  102,15,239,202                      // pxor          %xmm2,%xmm1
-  .byte  102,15,111,29,64,23,0,0             // movdqa        0x1740(%rip),%xmm3        # 4430 <_sk_callback_sse41+0x648>
+  .byte  102,15,111,29,145,27,0,0            // movdqa        0x1b91(%rip),%xmm3        # 4560 <_sk_callback_sse41+0xc55>
   .byte  102,15,114,242,16                   // pslld         $0x10,%xmm2
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,15,56,63,195                    // pmaxud        %xmm3,%xmm0
   .byte  102,15,118,193                      // pcmpeqd       %xmm1,%xmm0
   .byte  102,15,114,241,13                   // pslld         $0xd,%xmm1
   .byte  102,15,235,202                      // por           %xmm2,%xmm1
-  .byte  102,68,15,111,21,44,23,0,0          // movdqa        0x172c(%rip),%xmm10        # 4440 <_sk_callback_sse41+0x658>
+  .byte  102,68,15,111,21,125,27,0,0         // movdqa        0x1b7d(%rip),%xmm10        # 4570 <_sk_callback_sse41+0xc65>
   .byte  102,65,15,254,202                   // paddd         %xmm10,%xmm1
   .byte  102,15,219,193                      // pand          %xmm1,%xmm0
   .byte  102,65,15,115,219,8                 // psrldq        $0x8,%xmm11
@@ -20937,17 +20319,17 @@
 _sk_store_f16_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  102,68,15,111,21,98,22,0,0          // movdqa        0x1662(%rip),%xmm10        # 4450 <_sk_callback_sse41+0x668>
+  .byte  102,68,15,111,21,179,26,0,0         // movdqa        0x1ab3(%rip),%xmm10        # 4580 <_sk_callback_sse41+0xc75>
   .byte  102,68,15,111,224                   // movdqa        %xmm0,%xmm12
   .byte  102,68,15,111,232                   // movdqa        %xmm0,%xmm13
   .byte  102,69,15,219,234                   // pand          %xmm10,%xmm13
   .byte  102,69,15,239,229                   // pxor          %xmm13,%xmm12
-  .byte  102,68,15,111,13,85,22,0,0          // movdqa        0x1655(%rip),%xmm9        # 4460 <_sk_callback_sse41+0x678>
+  .byte  102,68,15,111,13,166,26,0,0         // movdqa        0x1aa6(%rip),%xmm9        # 4590 <_sk_callback_sse41+0xc85>
   .byte  102,65,15,114,213,16                // psrld         $0x10,%xmm13
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,69,15,102,196                   // pcmpgtd       %xmm12,%xmm8
   .byte  102,65,15,114,212,13                // psrld         $0xd,%xmm12
-  .byte  102,68,15,111,29,70,22,0,0          // movdqa        0x1646(%rip),%xmm11        # 4470 <_sk_callback_sse41+0x688>
+  .byte  102,68,15,111,29,151,26,0,0         // movdqa        0x1a97(%rip),%xmm11        # 45a0 <_sk_callback_sse41+0xc95>
   .byte  102,69,15,235,235                   // por           %xmm11,%xmm13
   .byte  102,69,15,254,236                   // paddd         %xmm12,%xmm13
   .byte  102,69,15,223,197                   // pandn         %xmm13,%xmm8
@@ -21010,9 +20392,6 @@
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,15,105,208                      // punpckhwd     %xmm0,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,15,113,240,8                    // psllw         $0x8,%xmm0
   .byte  102,15,112,217,78                   // pshufd        $0x4e,%xmm1,%xmm3
@@ -21020,6 +20399,7 @@
   .byte  102,15,235,200                      // por           %xmm0,%xmm1
   .byte  102,15,56,51,193                    // pmovzxwd      %xmm1,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  68,15,40,5,102,25,0,0               // movaps        0x1966(%rip),%xmm8        # 45b0 <_sk_callback_sse41+0xca5>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -21065,15 +20445,13 @@
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
   .byte  102,15,112,216,78                   // pshufd        $0x4e,%xmm0,%xmm3
   .byte  102,15,105,209                      // punpckhwd     %xmm1,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,235,193                      // por           %xmm1,%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  68,15,40,5,167,24,0,0               // movaps        0x18a7(%rip),%xmm8        # 45c0 <_sk_callback_sse41+0xcb5>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -21089,10 +20467,8 @@
   .byte  102,15,56,51,210                    // pmovzxwd      %xmm2,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,110,24,0,0                 // movaps        0x186e(%rip),%xmm3        # 45d0 <_sk_callback_sse41+0xcc5>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_u16_be_sse41
@@ -21101,27 +20477,25 @@
 _sk_store_u16_be_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,255,127,71                    // mov           $0x477fff00,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
-  .byte  68,15,89,192                        // mulps         %xmm0,%xmm8
+  .byte  68,15,40,13,111,24,0,0              // movaps        0x186f(%rip),%xmm9        # 45e0 <_sk_callback_sse41+0xcd5>
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,69,15,56,43,192                 // packusdw      %xmm8,%xmm8
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
   .byte  102,65,15,113,242,8                 // psllw         $0x8,%xmm10
   .byte  102,65,15,113,208,8                 // psrlw         $0x8,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
-  .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,69,15,56,43,210                 // packusdw      %xmm10,%xmm10
   .byte  102,69,15,111,218                   // movdqa        %xmm10,%xmm11
   .byte  102,65,15,113,243,8                 // psllw         $0x8,%xmm11
   .byte  102,65,15,113,210,8                 // psrlw         $0x8,%xmm10
   .byte  102,69,15,235,211                   // por           %xmm11,%xmm10
-  .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
-  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
+  .byte  68,15,40,218                        // movaps        %xmm2,%xmm11
+  .byte  69,15,89,217                        // mulps         %xmm9,%xmm11
   .byte  102,69,15,91,219                    // cvtps2dq      %xmm11,%xmm11
   .byte  102,69,15,56,43,219                 // packusdw      %xmm11,%xmm11
   .byte  102,69,15,111,227                   // movdqa        %xmm11,%xmm12
@@ -21325,20 +20699,12 @@
 .globl _sk_luminance_to_alpha_sse41
 FUNCTION(_sk_luminance_to_alpha_sse41)
 _sk_luminance_to_alpha_sse41:
-  .byte  184,208,179,89,62                   // mov           $0x3e59b3d0,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
-  .byte  184,89,23,55,63                     // mov           $0x3f371759,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  15,88,195                           // addps         %xmm3,%xmm0
-  .byte  184,152,221,147,61                  // mov           $0x3d93dd98,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,218                           // mulps         %xmm2,%xmm3
-  .byte  15,88,216                           // addps         %xmm0,%xmm3
+  .byte  15,40,218                           // movaps        %xmm2,%xmm3
+  .byte  15,89,5,141,21,0,0                  // mulps         0x158d(%rip),%xmm0        # 45f0 <_sk_callback_sse41+0xce5>
+  .byte  15,89,13,150,21,0,0                 // mulps         0x1596(%rip),%xmm1        # 4600 <_sk_callback_sse41+0xcf5>
+  .byte  15,88,200                           // addps         %xmm0,%xmm1
+  .byte  15,89,29,156,21,0,0                 // mulps         0x159c(%rip),%xmm3        # 4610 <_sk_callback_sse41+0xd05>
+  .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
@@ -21570,7 +20936,7 @@
   .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
   .byte  72,139,8                            // mov           (%rax),%rcx
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,132,254,0,0,0                    // je            386a <_sk_linear_gradient_sse41+0x138>
+  .byte  15,132,254,0,0,0                    // je            3516 <_sk_linear_gradient_sse41+0x138>
   .byte  15,41,100,36,168                    // movaps        %xmm4,-0x58(%rsp)
   .byte  15,41,108,36,184                    // movaps        %xmm5,-0x48(%rsp)
   .byte  15,41,116,36,200                    // movaps        %xmm6,-0x38(%rsp)
@@ -21620,12 +20986,12 @@
   .byte  15,40,196                           // movaps        %xmm4,%xmm0
   .byte  72,131,192,36                       // add           $0x24,%rax
   .byte  72,255,201                          // dec           %rcx
-  .byte  15,133,65,255,255,255               // jne           3795 <_sk_linear_gradient_sse41+0x63>
+  .byte  15,133,65,255,255,255               // jne           3441 <_sk_linear_gradient_sse41+0x63>
   .byte  15,40,124,36,216                    // movaps        -0x28(%rsp),%xmm7
   .byte  15,40,116,36,200                    // movaps        -0x38(%rsp),%xmm6
   .byte  15,40,108,36,184                    // movaps        -0x48(%rsp),%xmm5
   .byte  15,40,100,36,168                    // movaps        -0x58(%rsp),%xmm4
-  .byte  235,13                              // jmp           3877 <_sk_linear_gradient_sse41+0x145>
+  .byte  235,13                              // jmp           3523 <_sk_linear_gradient_sse41+0x145>
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
@@ -21680,17 +21046,15 @@
 FUNCTION(_sk_save_xy_sse41)
 _sk_save_xy_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,88,200                        // addps         %xmm0,%xmm9
+  .byte  68,15,40,5,94,16,0,0                // movaps        0x105e(%rip),%xmm8        # 4620 <_sk_callback_sse41+0xd15>
+  .byte  15,17,0                             // movups        %xmm0,(%rax)
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,88,200                        // addps         %xmm8,%xmm9
   .byte  102,69,15,58,8,209,1                // roundps       $0x1,%xmm9,%xmm10
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  68,15,88,193                        // addps         %xmm1,%xmm8
   .byte  102,69,15,58,8,208,1                // roundps       $0x1,%xmm8,%xmm10
   .byte  69,15,92,194                        // subps         %xmm10,%xmm8
-  .byte  15,17,0                             // movups        %xmm0,(%rax)
   .byte  15,17,72,32                         // movups        %xmm1,0x20(%rax)
   .byte  68,15,17,72,64                      // movups        %xmm9,0x40(%rax)
   .byte  68,15,17,64,96                      // movups        %xmm8,0x60(%rax)
@@ -21724,17 +21088,12 @@
 FUNCTION(_sk_bilinear_nx_sse41)
 _sk_bilinear_nx_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,224,15,0,0                  // addps         0xfe0(%rip),%xmm0        # 4630 <_sk_callback_sse41+0xd25>
+  .byte  68,15,40,13,232,15,0,0              // movaps        0xfe8(%rip),%xmm9        # 4640 <_sk_callback_sse41+0xd35>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21743,13 +21102,10 @@
 FUNCTION(_sk_bilinear_px_sse41)
 _sk_bilinear_px_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,215,15,0,0                  // addps         0xfd7(%rip),%xmm0        # 4650 <_sk_callback_sse41+0xd45>
+  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21758,17 +21114,12 @@
 FUNCTION(_sk_bilinear_ny_sse41)
 _sk_bilinear_ny_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,201,15,0,0                 // addps         0xfc9(%rip),%xmm1        # 4660 <_sk_callback_sse41+0xd55>
+  .byte  68,15,40,13,209,15,0,0              // movaps        0xfd1(%rip),%xmm9        # 4670 <_sk_callback_sse41+0xd65>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21777,13 +21128,10 @@
 FUNCTION(_sk_bilinear_py_sse41)
 _sk_bilinear_py_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,191,15,0,0                 // addps         0xfbf(%rip),%xmm1        # 4680 <_sk_callback_sse41+0xd75>
+  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21792,25 +21140,15 @@
 FUNCTION(_sk_bicubic_n3x_sse41)
 _sk_bicubic_n3x_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,191                     // mov           $0xbfc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,178,15,0,0                  // addps         0xfb2(%rip),%xmm0        # 4690 <_sk_callback_sse41+0xd85>
+  .byte  68,15,40,13,186,15,0,0              // movaps        0xfba(%rip),%xmm9        # 46a0 <_sk_callback_sse41+0xd95>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
+  .byte  68,15,89,13,182,15,0,0              // mulps         0xfb6(%rip),%xmm9        # 46b0 <_sk_callback_sse41+0xda5>
+  .byte  68,15,88,13,190,15,0,0              // addps         0xfbe(%rip),%xmm9        # 46c0 <_sk_callback_sse41+0xdb5>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -21821,35 +21159,19 @@
 FUNCTION(_sk_bicubic_n1x_sse41)
 _sk_bicubic_n1x_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,173,15,0,0                  // addps         0xfad(%rip),%xmm0        # 46d0 <_sk_callback_sse41+0xdc5>
+  .byte  68,15,40,13,181,15,0,0              // movaps        0xfb5(%rip),%xmm9        # 46e0 <_sk_callback_sse41+0xdd5>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,40,5,185,15,0,0               // movaps        0xfb9(%rip),%xmm8        # 46f0 <_sk_callback_sse41+0xde5>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,189,15,0,0               // addps         0xfbd(%rip),%xmm8        # 4700 <_sk_callback_sse41+0xdf5>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,193,15,0,0               // addps         0xfc1(%rip),%xmm8        # 4710 <_sk_callback_sse41+0xe05>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,197,15,0,0               // addps         0xfc5(%rip),%xmm8        # 4720 <_sk_callback_sse41+0xe15>
+  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21858,27 +21180,17 @@
 FUNCTION(_sk_bicubic_p1x_sse41)
 _sk_bicubic_p1x_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,191,15,0,0               // movaps        0xfbf(%rip),%xmm8        # 4730 <_sk_callback_sse41+0xe25>
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,217                   // movd          %ecx,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
+  .byte  68,15,40,21,187,15,0,0              // movaps        0xfbb(%rip),%xmm10        # 4740 <_sk_callback_sse41+0xe35>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,211                        // addps         %xmm11,%xmm10
+  .byte  68,15,88,21,191,15,0,0              // addps         0xfbf(%rip),%xmm10        # 4750 <_sk_callback_sse41+0xe45>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,208                        // addps         %xmm8,%xmm10
+  .byte  68,15,88,21,187,15,0,0              // addps         0xfbb(%rip),%xmm10        # 4760 <_sk_callback_sse41+0xe55>
   .byte  68,15,17,144,128,0,0,0              // movups        %xmm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21888,21 +21200,13 @@
 FUNCTION(_sk_bicubic_p3x_sse41)
 _sk_bicubic_p3x_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,174,15,0,0                  // addps         0xfae(%rip),%xmm0        # 4770 <_sk_callback_sse41+0xe65>
+  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,88,194                        // addps         %xmm10,%xmm8
+  .byte  68,15,89,5,174,15,0,0               // mulps         0xfae(%rip),%xmm8        # 4780 <_sk_callback_sse41+0xe75>
+  .byte  68,15,88,5,182,15,0,0               // addps         0xfb6(%rip),%xmm8        # 4790 <_sk_callback_sse41+0xe85>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -21913,25 +21217,15 @@
 FUNCTION(_sk_bicubic_n3y_sse41)
 _sk_bicubic_n3y_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,191                     // mov           $0xbfc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,164,15,0,0                 // addps         0xfa4(%rip),%xmm1        # 47a0 <_sk_callback_sse41+0xe95>
+  .byte  68,15,40,13,172,15,0,0              // movaps        0xfac(%rip),%xmm9        # 47b0 <_sk_callback_sse41+0xea5>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
+  .byte  68,15,89,13,168,15,0,0              // mulps         0xfa8(%rip),%xmm9        # 47c0 <_sk_callback_sse41+0xeb5>
+  .byte  68,15,88,13,176,15,0,0              // addps         0xfb0(%rip),%xmm9        # 47d0 <_sk_callback_sse41+0xec5>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -21942,35 +21236,19 @@
 FUNCTION(_sk_bicubic_n1y_sse41)
 _sk_bicubic_n1y_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,158,15,0,0                 // addps         0xf9e(%rip),%xmm1        # 47e0 <_sk_callback_sse41+0xed5>
+  .byte  68,15,40,13,166,15,0,0              // movaps        0xfa6(%rip),%xmm9        # 47f0 <_sk_callback_sse41+0xee5>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,40,5,170,15,0,0               // movaps        0xfaa(%rip),%xmm8        # 4800 <_sk_callback_sse41+0xef5>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,174,15,0,0               // addps         0xfae(%rip),%xmm8        # 4810 <_sk_callback_sse41+0xf05>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,178,15,0,0               // addps         0xfb2(%rip),%xmm8        # 4820 <_sk_callback_sse41+0xf15>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,182,15,0,0               // addps         0xfb6(%rip),%xmm8        # 4830 <_sk_callback_sse41+0xf25>
+  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -21979,27 +21257,17 @@
 FUNCTION(_sk_bicubic_p1y_sse41)
 _sk_bicubic_p1y_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,176,15,0,0               // movaps        0xfb0(%rip),%xmm8        # 4840 <_sk_callback_sse41+0xf35>
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
   .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,217                   // movd          %ecx,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
+  .byte  68,15,40,21,171,15,0,0              // movaps        0xfab(%rip),%xmm10        # 4850 <_sk_callback_sse41+0xf45>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,211                        // addps         %xmm11,%xmm10
+  .byte  68,15,88,21,175,15,0,0              // addps         0xfaf(%rip),%xmm10        # 4860 <_sk_callback_sse41+0xf55>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,208                        // addps         %xmm8,%xmm10
+  .byte  68,15,88,21,171,15,0,0              // addps         0xfab(%rip),%xmm10        # 4870 <_sk_callback_sse41+0xf65>
   .byte  68,15,17,144,160,0,0,0              // movups        %xmm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -22009,21 +21277,13 @@
 FUNCTION(_sk_bicubic_p3y_sse41)
 _sk_bicubic_p3y_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,157,15,0,0                 // addps         0xf9d(%rip),%xmm1        # 4880 <_sk_callback_sse41+0xf75>
+  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,88,194                        // addps         %xmm10,%xmm8
+  .byte  68,15,89,5,157,15,0,0               // mulps         0xf9d(%rip),%xmm8        # 4890 <_sk_callback_sse41+0xf85>
+  .byte  68,15,88,5,165,15,0,0               // addps         0xfa5(%rip),%xmm8        # 48a0 <_sk_callback_sse41+0xf95>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -22113,6 +21373,249 @@
   .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,191,0,0,128,191,0               // cmpb          $0x0,-0x40800000(%rdi)
+  .byte  0,128,191,0,0,128                   // add           %al,-0x7fffff41(%rax)
+  .byte  191,0,0,224,64                      // mov           $0x40e00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3b68 <.literal16+0x188>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3b6c <.literal16+0x18c>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3b70 <.literal16+0x190>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  145                                 // xchg          %eax,%ecx
+  .byte  131,158,61,145,131,158,61           // sbbl          $0x3d,-0x617c6ec3(%rsi)
+  .byte  145                                 // xchg          %eax,%ecx
+  .byte  131,158,61,145,131,158,61           // sbbl          $0x3d,-0x617c6ec3(%rsi)
+  .byte  154                                 // (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,92                               // ds            pop %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,174,71,97,61                     // cmp           $0x3d6147ae,%eax
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,174,71,97,61                     // cmp           $0x3d6147ae,%eax
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  168,87                              // test          $0x57,%al
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,194                         // lret          $0xc2bd
+  .byte  135,210                             // xchg          %edx,%edx
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,4                            // cmpb          $0x4,(%rdi)
+  .byte  231,140                             // out           %eax,$0x8c
+  .byte  59,4,231                            // cmp           (%rdi,%riz,8),%eax
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  4,231                               // add           $0xe7,%al
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  4,231                               // add           $0xe7,%al
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,171,170                      // addb          $0xaa,-0x55(%rax)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
@@ -22121,14 +21624,30 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        3ef9 <.literal16+0x39>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        3cb9 <.literal16+0x2d9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        3efd <.literal16+0x3d>
+  .byte  224,7                               // loopne        3cbd <.literal16+0x2dd>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        3f01 <.literal16+0x41>
+  .byte  224,7                               // loopne        3cc1 <.literal16+0x2e1>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        3f05 <.literal16+0x45>
+  .byte  224,7                               // loopne        3cc5 <.literal16+0x2e5>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -22137,7 +21656,18 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,255                          // cmpb          $0xff,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,255                               // add           %bh,%bh
   .byte  0,0                                 // add           %al,(%rax)
@@ -22148,10 +21678,10 @@
   .byte  0,1                                 // add           %al,(%rcx)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a003f28 <_sk_callback_sse41+0xa000140>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a003d18 <_sk_callback_sse41+0xa00040d>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 3003f30 <_sk_callback_sse41+0x3000148>
+  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 3003d20 <_sk_callback_sse41+0x3000415>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -22163,10 +21693,9 @@
   .byte  255,14                              // decl          (%rsi)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,0                               // incl          (%rax)
-  .byte  255,0                               // incl          (%rax)
-  .byte  255,0                               // incl          (%rax)
+  .byte  255,129,128,128,59,129              // incl          -0x7ec47f80(%rcx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,255,0,255,0,255,0    // addl          $0xff00ff,0xff3b80(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22180,24 +21709,45 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
+  .byte  0,128,0,128,55,128                  // add           %al,-0x7fc88000(%rax)
+  .byte  0,128,55,128,0,128                  // add           %al,-0x7fff7fc9(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,8                                 // add           %cl,(%rax)
-  .byte  128,10,128                          // orb           $0x80,(%rdx)
-  .byte  12,128                              // or            $0x80,%al
+  .byte  8,128,10,128,12,128                 // or            %al,-0x7ff37ff6(%rax)
   .byte  14                                  // (bad)
   .byte  128,0,0                             // addb          $0x0,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,52,0                              // add           %dh,(%rax,%rax,1)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            3deb <.literal16+0x40b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            3def <.literal16+0x40f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            3df3 <.literal16+0x413>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22205,16 +21755,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            3f94 <.literal16+0xd4>
+  .byte  127,0                               // jg            3de4 <.literal16+0x404>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            3f98 <.literal16+0xd8>
+  .byte  127,0                               // jg            3de8 <.literal16+0x408>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            3f9c <.literal16+0xdc>
+  .byte  127,0                               // jg            3dec <.literal16+0x40c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            3fa0 <.literal16+0xe0>
+  .byte  127,0                               // jg            3df0 <.literal16+0x410>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22223,7 +21773,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4025 <.literal16+0x165>
+  .byte  119,115                             // ja            3e75 <.literal16+0x495>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -22234,7 +21784,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           3f89 <.literal16+0xc9>
+  .byte  117,191                             // jne           3dd9 <.literal16+0x3f9>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -22246,7 +21796,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a37fca <_sk_callback_sse41+0xffffffffe9a341e2>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a37e1a <_sk_callback_sse41+0xffffffffe9a3450f>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  81                                  // push          %rcx
   .byte  140,242                             // mov           %?,%edx
@@ -22287,7 +21837,13 @@
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  75,0,0                              // rex.WXB       add %al,(%r8)
-  .byte  0,52,0                              // add           %dh,(%rax,%rax,1)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22295,16 +21851,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4054 <.literal16+0x194>
+  .byte  127,0                               // jg            3eb4 <.literal16+0x4d4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4058 <.literal16+0x198>
+  .byte  127,0                               // jg            3eb8 <.literal16+0x4d8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            405c <.literal16+0x19c>
+  .byte  127,0                               // jg            3ebc <.literal16+0x4dc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4060 <.literal16+0x1a0>
+  .byte  127,0                               // jg            3ec0 <.literal16+0x4e0>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22313,7 +21869,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            40e5 <.literal16+0x225>
+  .byte  119,115                             // ja            3f45 <.literal16+0x565>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -22324,7 +21880,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           4049 <.literal16+0x189>
+  .byte  117,191                             // jne           3ea9 <.literal16+0x4c9>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -22336,7 +21892,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3808a <_sk_callback_sse41+0xffffffffe9a342a2>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a37eea <_sk_callback_sse41+0xffffffffe9a345df>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  81                                  // push          %rcx
   .byte  140,242                             // mov           %?,%edx
@@ -22377,7 +21933,13 @@
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  75,0,0                              // rex.WXB       add %al,(%r8)
-  .byte  0,52,0                              // add           %dh,(%rax,%rax,1)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22385,16 +21947,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4114 <.literal16+0x254>
+  .byte  127,0                               // jg            3f84 <.literal16+0x5a4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4118 <.literal16+0x258>
+  .byte  127,0                               // jg            3f88 <.literal16+0x5a8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            411c <.literal16+0x25c>
+  .byte  127,0                               // jg            3f8c <.literal16+0x5ac>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4120 <.literal16+0x260>
+  .byte  127,0                               // jg            3f90 <.literal16+0x5b0>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22403,7 +21965,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            41a5 <.literal16+0x2e5>
+  .byte  119,115                             // ja            4015 <.literal16+0x635>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -22414,7 +21976,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           4109 <.literal16+0x249>
+  .byte  117,191                             // jne           3f79 <.literal16+0x599>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -22426,7 +21988,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3814a <_sk_callback_sse41+0xffffffffe9a34362>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a37fba <_sk_callback_sse41+0xffffffffe9a346af>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  81                                  // push          %rcx
   .byte  140,242                             // mov           %?,%edx
@@ -22467,7 +22029,13 @@
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  75,0,0                              // rex.WXB       add %al,(%r8)
-  .byte  0,52,0                              // add           %dh,(%rax,%rax,1)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22475,16 +22043,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            41d4 <.literal16+0x314>
+  .byte  127,0                               // jg            4054 <.literal16+0x674>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            41d8 <.literal16+0x318>
+  .byte  127,0                               // jg            4058 <.literal16+0x678>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            41dc <.literal16+0x31c>
+  .byte  127,0                               // jg            405c <.literal16+0x67c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            41e0 <.literal16+0x320>
+  .byte  127,0                               // jg            4060 <.literal16+0x680>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22493,7 +22061,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4265 <.literal16+0x3a5>
+  .byte  119,115                             // ja            40e5 <.literal16+0x705>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -22504,7 +22072,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           41c9 <.literal16+0x309>
+  .byte  117,191                             // jne           4049 <.literal16+0x669>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -22516,7 +22084,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3820a <_sk_callback_sse41+0xffffffffe9a34422>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3808a <_sk_callback_sse41+0xffffffffe9a3477f>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  81                                  // push          %rcx
   .byte  140,242                             // mov           %?,%edx
@@ -22556,7 +22124,111 @@
   .byte  75,0,0                              // rex.WXB       add %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  75,255,0                            // rex.WXB       incq (%r8)
+  .byte  75,0,0                              // rex.WXB       add %al,(%r8)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,200                               // add           %cl,%al
+  .byte  66,0,0                              // rex.X         add %al,(%rax)
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  127,67                              // jg            4167 <.literal16+0x787>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            416b <.literal16+0x78b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            416f <.literal16+0x78f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            4173 <.literal16+0x793>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,203,61                       // addb          $0x3d,-0x35(%rcx)
+  .byte  13,60,203,61,13                     // or            $0xd3dcb3c,%eax
+  .byte  60,203                              // cmp           $0xcb,%al
+  .byte  61,13,60,203,61                     // cmp           $0x3dcb3c0d,%eax
+  .byte  13,60,111,18,3                      // or            $0x3126f3c,%eax
+  .byte  59,111,18                           // cmp           0x12(%rdi),%ebp
+  .byte  3,59                                // add           (%rbx),%edi
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  18,3                                // adc           (%rbx),%al
+  .byte  59,111,18                           // cmp           0x12(%rdi),%ebp
+  .byte  3,59                                // add           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  163,59,10,215,163,59,10,215,163     // movabs        %eax,0xa3d70a3ba3d70a3b
+  .byte  59,10                               // cmp           (%rdx),%ecx
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  163,59,194,24,17,60,194,24,17       // movabs        %eax,0x1118c23c1118c23b
+  .byte  60,194                              // cmp           $0xc2,%al
+  .byte  24,17                               // sbb           %dl,(%rcx)
+  .byte  60,194                              // cmp           $0xc2,%al
+  .byte  24,17                               // sbb           %dl,(%rcx)
+  .byte  60,203                              // cmp           $0xcb,%al
+  .byte  61,13,190,203,61                    // cmp           $0x3dcbbe0d,%eax
+  .byte  13,190,203,61,13                    // or            $0xd3dcbbe,%eax
+  .byte  190,203,61,13,190                   // mov           $0xbe0d3dcb,%esi
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           41f3 <.literal16+0x813>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           41f7 <.literal16+0x817>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           41fb <.literal16+0x81b>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           41ff <.literal16+0x81f>
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            423b <.literal16+0x85b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            423f <.literal16+0x85f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            4243 <.literal16+0x863>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,0,128,63               // addb          $0x3f,-0x7fffffc5(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,0,128,63               // addb          $0x3f,-0x7fffffc5(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22564,12 +22236,13 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  1,255                               // add           %edi,%edi
-  .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a004298 <_sk_callback_sse41+0xa0004b0>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,1,255,255,255            // addb          $0xff,-0xfec5(%rax)
+  .byte  5,255,255,255,9                     // add           $0x9ffffff,%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 30042a0 <_sk_callback_sse41+0x30004b8>
+  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 3004270 <_sk_callback_sse41+0x3000965>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -22590,14 +22263,30 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42c9 <.literal16+0x409>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        42a9 <.literal16+0x8c9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42cd <.literal16+0x40d>
+  .byte  224,7                               // loopne        42ad <.literal16+0x8cd>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42d1 <.literal16+0x411>
+  .byte  224,7                               // loopne        42b1 <.literal16+0x8d1>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42d5 <.literal16+0x415>
+  .byte  224,7                               // loopne        42b5 <.literal16+0x8d5>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -22606,7 +22295,18 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
@@ -22615,14 +22315,30 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42f9 <.literal16+0x439>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        4319 <.literal16+0x939>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42fd <.literal16+0x43d>
+  .byte  224,7                               // loopne        431d <.literal16+0x93d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        4301 <.literal16+0x441>
+  .byte  224,7                               // loopne        4321 <.literal16+0x941>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        4305 <.literal16+0x445>
+  .byte  224,7                               // loopne        4325 <.literal16+0x945>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -22631,7 +22347,57 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,248                               // add           %bh,%al
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  124,66                              // jl            43b6 <.literal16+0x9d6>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            43ba <.literal16+0x9da>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            43be <.literal16+0x9de>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            43c2 <.literal16+0x9e2>
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
   .byte  240,0,0                             // lock          add %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22639,6 +22405,31 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,59,137                // add           %cl,-0x76c47778(%rcx)
+  .byte  136,136,59,137,136,136              // mov           %cl,-0x777776c5(%rax)
+  .byte  59,137,136,136,59,15                // cmp           0xf3b8888(%rcx),%ecx
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,61,137                // add           %cl,-0x76c27778(%rcx)
+  .byte  136,136,61,137,136,136              // mov           %cl,-0x777776c3(%rax)
+  .byte  61,137,136,136,61                   // cmp           $0x3d888889,%eax
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
@@ -22647,6 +22438,10 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
   .byte  240,0,0                             // lock          add %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -22654,7 +22449,9 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,137,136,136,59,137                // add           %cl,-0x76c47778(%rcx)
+  .byte  136,136,59,137,136,136              // mov           %cl,-0x777776c5(%rax)
+  .byte  59,137,136,136,59,15                // cmp           0xf3b8888(%rcx),%ecx
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22662,52 +22459,32 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,61,137                // add           %cl,-0x76c27778(%rcx)
+  .byte  136,136,61,137,136,136              // mov           %cl,-0x777776c3(%rax)
+  .byte  61,137,136,136,61                   // cmp           $0x3d888889,%eax
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            44c5 <.literal16+0xae5>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            44c9 <.literal16+0xae9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            44cd <.literal16+0xaed>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  112,65                              // jo            44d1 <.literal16+0xaf1>
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,1                                 // add           %al,(%rcx)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,1,255,255,255            // addb          $0xff,-0xfec5(%rax)
+  .byte  5,255,255,255,9                     // add           $0x9ffffff,%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0043a8 <_sk_callback_sse41+0xa0005c0>
-  .byte  255                                 // (bad)
-  .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 30043b0 <_sk_callback_sse41+0x30005c8>
+  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 30044c0 <_sk_callback_sse41+0x3000bb5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -22728,12 +22505,13 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  1,255                               // add           %edi,%edi
-  .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0043d8 <_sk_callback_sse41+0xa0005f0>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,1,255,255,255            // addb          $0xff,-0xfec5(%rax)
+  .byte  5,255,255,255,9                     // add           $0x9ffffff,%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 30043e0 <_sk_callback_sse41+0x30005f8>
+  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 3004500 <_sk_callback_sse41+0x3000bf5>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -22746,10 +22524,16 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,0                               // incl          (%rax)
-  .byte  128,0,0                             // addb          $0x0,(%rax)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            455b <.literal16+0xb7b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            455f <.literal16+0xb7f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            4563 <.literal16+0xb83>
   .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,128,0,0,0,4                       // add           %al,0x4000000(%rax)
+  .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,4,0                               // add           %al,(%rax,%rax,1)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22757,6 +22541,8 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  4,0                                 // add           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  4,0                                 // add           $0x0,%al
+  .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  56,0                                // cmp           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
@@ -22800,7 +22586,325 @@
   .byte  64,254                              // rex           (bad)
   .byte  255,0                               // incl          (%rax)
   .byte  64,254                              // rex           (bad)
-  .byte  255                                 // .byte         0xff
+  .byte  255,128,0,128,55,128                // incl          -0x7fc88000(%rax)
+  .byte  0,128,55,128,0,128                  // add           %al,-0x7fff7fc9(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  255                                 // (bad)
+  .byte  127,71                              // jg            462b <.literal16+0xc4b>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            462f <.literal16+0xc4f>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            4633 <.literal16+0xc53>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            4637 <.literal16+0xc57>
+  .byte  208                                 // (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,89                               // ds            pop %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  152                                 // cwtl
+  .byte  221,147,61,152,221,147              // fstl          -0x6c2267c3(%rbx)
+  .byte  61,152,221,147,61                   // cmp           $0x3d93dd98,%eax
+  .byte  152                                 // cwtl
+  .byte  221,147,61,0,0,0                    // fstl          0x3d(%rbx)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,192,191,0               // sarb          $0x0,-0x40400000(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  191,0,0,192,191                     // mov           $0xbfc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,114                          // cmpb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,114,28                           // jb,pt         46d2 <.literal16+0xcf2>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         46d6 <.literal16+0xcf6>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         46da <.literal16+0xcfa>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d565 <_sk_callback_sse41+0x3d639c5a>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d5a5 <_sk_callback_sse41+0x3d639c9a>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  114,28                              // jb            479e <.literal16+0xdbe>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         47a2 <.literal16+0xdc2>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         47a6 <.literal16+0xdc6>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         47aa <.literal16+0xdca>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,192,191,0               // sarb          $0x0,-0x40400000(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  191,0,0,192,191                     // mov           $0xbfc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,114                          // cmpb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,114,28                           // jb,pt         47e2 <.literal16+0xe02>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         47e6 <.literal16+0xe06>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         47ea <.literal16+0xe0a>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d675 <_sk_callback_sse41+0x3d639d6a>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d6b5 <_sk_callback_sse41+0x3d639daa>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  114,28                              // jb            48ae <.literal16+0xece>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         48b2 <_sk_callback_sse41+0xfa7>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         48b6 <_sk_callback_sse41+0xfab>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         48ba <_sk_callback_sse41+0xfaf>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
 BALIGN32
 
 HIDDEN _sk_start_pipeline_sse2
@@ -22861,7 +22965,7 @@
   .byte  102,15,110,199                      // movd          %edi,%xmm0
   .byte  102,15,112,192,0                    // pshufd        $0x0,%xmm0,%xmm0
   .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  15,40,21,52,66,0,0                  // movaps        0x4234(%rip),%xmm2        # 42b0 <_sk_callback_sse2+0xd9>
+  .byte  15,40,21,100,61,0,0                 // movaps        0x3d64(%rip),%xmm2        # 3de0 <_sk_callback_sse2+0xd8>
   .byte  15,88,202                           // addps         %xmm2,%xmm1
   .byte  15,16,2                             // movups        (%rdx),%xmm0
   .byte  15,88,193                           // addps         %xmm1,%xmm0
@@ -22870,7 +22974,7 @@
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  15,88,202                           // addps         %xmm2,%xmm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,21,35,66,0,0                  // movaps        0x4223(%rip),%xmm2        # 42c0 <_sk_callback_sse2+0xe9>
+  .byte  15,40,21,83,61,0,0                  // movaps        0x3d53(%rip),%xmm2        # 3df0 <_sk_callback_sse2+0xe8>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  15,87,237                           // xorps         %xmm5,%xmm5
@@ -22910,9 +23014,7 @@
 FUNCTION(_sk_srcatop_sse2)
 _sk_srcatop_sse2:
   .byte  15,89,199                           // mulps         %xmm7,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,14,61,0,0                // movaps        0x3d0e(%rip),%xmm8        # 3e00 <_sk_callback_sse2+0xf8>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -22937,9 +23039,7 @@
 _sk_dstatop_sse2:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,209,60,0,0              // movaps        0x3cd1(%rip),%xmm9        # 3e10 <_sk_callback_sse2+0x108>
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
@@ -22986,9 +23086,7 @@
 .globl _sk_srcout_sse2
 FUNCTION(_sk_srcout_sse2)
 _sk_srcout_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,117,60,0,0               // movaps        0x3c75(%rip),%xmm8        # 3e20 <_sk_callback_sse2+0x118>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
@@ -23001,9 +23099,7 @@
 .globl _sk_dstout_sse2
 FUNCTION(_sk_dstout_sse2)
 _sk_dstout_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,101,60,0,0               // movaps        0x3c65(%rip),%xmm8        # 3e30 <_sk_callback_sse2+0x128>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,89,196                           // mulps         %xmm4,%xmm0
@@ -23020,9 +23116,7 @@
 .globl _sk_srcover_sse2
 FUNCTION(_sk_srcover_sse2)
 _sk_srcover_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,72,60,0,0                // movaps        0x3c48(%rip),%xmm8        # 3e40 <_sk_callback_sse2+0x138>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -23042,9 +23136,7 @@
 .globl _sk_dstover_sse2
 FUNCTION(_sk_dstover_sse2)
 _sk_dstover_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,28,60,0,0                // movaps        0x3c1c(%rip),%xmm8        # 3e50 <_sk_callback_sse2+0x148>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -23072,9 +23164,7 @@
 .globl _sk_multiply_sse2
 FUNCTION(_sk_multiply_sse2)
 _sk_multiply_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,240,59,0,0               // movaps        0x3bf0(%rip),%xmm8        # 3e60 <_sk_callback_sse2+0x158>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
@@ -23150,9 +23240,7 @@
 FUNCTION(_sk_xor__sse2)
 _sk_xor__sse2:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,40,29,33,59,0,0                  // movaps        0x3b21(%rip),%xmm3        # 3e70 <_sk_callback_sse2+0x168>
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
@@ -23200,9 +23288,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,95,209                        // maxps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,140,58,0,0                 // movaps        0x3a8c(%rip),%xmm2        # 3e80 <_sk_callback_sse2+0x178>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -23236,9 +23322,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,49,58,0,0                  // movaps        0x3a31(%rip),%xmm2        # 3e90 <_sk_callback_sse2+0x188>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -23275,9 +23359,7 @@
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  15,40,21,203,57,0,0                 // movaps        0x39cb(%rip),%xmm2        # 3ea0 <_sk_callback_sse2+0x198>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -23289,126 +23371,122 @@
 .globl _sk_exclusion_sse2
 FUNCTION(_sk_exclusion_sse2)
 _sk_exclusion_sse2:
-  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
-  .byte  15,40,200                           // movaps        %xmm0,%xmm1
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  15,88,196                           // addps         %xmm4,%xmm0
-  .byte  15,89,204                           // mulps         %xmm4,%xmm1
-  .byte  15,88,201                           // addps         %xmm1,%xmm1
-  .byte  15,92,193                           // subps         %xmm1,%xmm0
-  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
-  .byte  15,88,205                           // addps         %xmm5,%xmm1
-  .byte  68,15,89,197                        // mulps         %xmm5,%xmm8
+  .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
   .byte  69,15,88,192                        // addps         %xmm8,%xmm8
-  .byte  65,15,92,200                        // subps         %xmm8,%xmm1
-  .byte  68,15,40,194                        // movaps        %xmm2,%xmm8
-  .byte  68,15,88,198                        // addps         %xmm6,%xmm8
+  .byte  65,15,92,192                        // subps         %xmm8,%xmm0
+  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
+  .byte  68,15,88,197                        // addps         %xmm5,%xmm8
+  .byte  15,89,205                           // mulps         %xmm5,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  68,15,92,193                        // subps         %xmm1,%xmm8
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  68,15,88,206                        // addps         %xmm6,%xmm9
   .byte  15,89,214                           // mulps         %xmm6,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
-  .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,92,211                           // subps         %xmm3,%xmm2
-  .byte  15,89,215                           // mulps         %xmm7,%xmm2
-  .byte  15,88,218                           // addps         %xmm2,%xmm3
+  .byte  68,15,92,202                        // subps         %xmm2,%xmm9
+  .byte  15,40,13,140,57,0,0                 // movaps        0x398c(%rip),%xmm1        # 3eb0 <_sk_callback_sse2+0x1a8>
+  .byte  15,92,203                           // subps         %xmm3,%xmm1
+  .byte  15,89,207                           // mulps         %xmm7,%xmm1
+  .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
+  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_colorburn_sse2
 .globl _sk_colorburn_sse2
 FUNCTION(_sk_colorburn_sse2)
 _sk_colorburn_sse2:
-  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
-  .byte  68,15,40,224                        // movaps        %xmm0,%xmm12
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  68,15,40,21,123,57,0,0              // movaps        0x397b(%rip),%xmm10        # 3ec0 <_sk_callback_sse2+0x1b8>
+  .byte  69,15,40,202                        // movaps        %xmm10,%xmm9
+  .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
-  .byte  68,15,92,223                        // subps         %xmm7,%xmm11
-  .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
-  .byte  65,15,89,196                        // mulps         %xmm12,%xmm0
-  .byte  69,15,87,210                        // xorps         %xmm10,%xmm10
-  .byte  15,40,207                           // movaps        %xmm7,%xmm1
-  .byte  15,92,204                           // subps         %xmm4,%xmm1
-  .byte  15,89,203                           // mulps         %xmm3,%xmm1
-  .byte  65,15,94,204                        // divps         %xmm12,%xmm1
+  .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
+  .byte  15,40,199                           // movaps        %xmm7,%xmm0
+  .byte  15,92,196                           // subps         %xmm4,%xmm0
+  .byte  15,89,195                           // mulps         %xmm3,%xmm0
+  .byte  65,15,94,192                        // divps         %xmm8,%xmm0
+  .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
+  .byte  68,15,93,224                        // minps         %xmm0,%xmm12
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
-  .byte  68,15,93,233                        // minps         %xmm1,%xmm13
-  .byte  68,15,40,247                        // movaps        %xmm7,%xmm14
-  .byte  69,15,92,245                        // subps         %xmm13,%xmm14
-  .byte  65,15,40,204                        // movaps        %xmm12,%xmm1
-  .byte  65,15,194,202,0                     // cmpeqps       %xmm10,%xmm1
-  .byte  68,15,92,203                        // subps         %xmm3,%xmm9
-  .byte  68,15,89,243                        // mulps         %xmm3,%xmm14
-  .byte  68,15,88,240                        // addps         %xmm0,%xmm14
-  .byte  68,15,84,225                        // andps         %xmm1,%xmm12
-  .byte  65,15,85,206                        // andnps        %xmm14,%xmm1
-  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
-  .byte  68,15,89,236                        // mulps         %xmm4,%xmm13
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
+  .byte  69,15,88,235                        // addps         %xmm11,%xmm13
+  .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
-  .byte  65,15,86,204                        // orps          %xmm12,%xmm1
-  .byte  68,15,40,228                        // movaps        %xmm4,%xmm12
-  .byte  68,15,194,231,0                     // cmpeqps       %xmm7,%xmm12
-  .byte  65,15,88,205                        // addps         %xmm13,%xmm1
-  .byte  65,15,84,196                        // andps         %xmm12,%xmm0
-  .byte  68,15,85,225                        // andnps        %xmm1,%xmm12
-  .byte  65,15,86,196                        // orps          %xmm12,%xmm0
-  .byte  65,15,40,203                        // movaps        %xmm11,%xmm1
-  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
+  .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
+  .byte  69,15,40,224                        // movaps        %xmm8,%xmm12
+  .byte  69,15,194,227,0                     // cmpeqps       %xmm11,%xmm12
+  .byte  68,15,92,211                        // subps         %xmm3,%xmm10
+  .byte  69,15,84,196                        // andps         %xmm12,%xmm8
+  .byte  69,15,85,229                        // andnps        %xmm13,%xmm12
+  .byte  69,15,40,234                        // movaps        %xmm10,%xmm13
+  .byte  68,15,89,236                        // mulps         %xmm4,%xmm13
+  .byte  69,15,86,224                        // orps          %xmm8,%xmm12
+  .byte  68,15,40,196                        // movaps        %xmm4,%xmm8
+  .byte  68,15,194,199,0                     // cmpeqps       %xmm7,%xmm8
+  .byte  69,15,88,229                        // addps         %xmm13,%xmm12
+  .byte  65,15,84,192                        // andps         %xmm8,%xmm0
+  .byte  69,15,85,196                        // andnps        %xmm12,%xmm8
+  .byte  65,15,86,192                        // orps          %xmm8,%xmm0
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
+  .byte  68,15,89,193                        // mulps         %xmm1,%xmm8
   .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
   .byte  68,15,92,229                        // subps         %xmm5,%xmm12
   .byte  68,15,89,227                        // mulps         %xmm3,%xmm12
-  .byte  69,15,94,224                        // divps         %xmm8,%xmm12
+  .byte  68,15,94,225                        // divps         %xmm1,%xmm12
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
   .byte  69,15,93,236                        // minps         %xmm12,%xmm13
   .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  69,15,40,232                        // movaps        %xmm8,%xmm13
-  .byte  69,15,194,234,0                     // cmpeqps       %xmm10,%xmm13
+  .byte  68,15,40,233                        // movaps        %xmm1,%xmm13
+  .byte  69,15,194,235,0                     // cmpeqps       %xmm11,%xmm13
   .byte  68,15,89,227                        // mulps         %xmm3,%xmm12
-  .byte  68,15,88,225                        // addps         %xmm1,%xmm12
-  .byte  69,15,84,197                        // andps         %xmm13,%xmm8
+  .byte  69,15,88,224                        // addps         %xmm8,%xmm12
+  .byte  65,15,84,205                        // andps         %xmm13,%xmm1
   .byte  69,15,85,236                        // andnps        %xmm12,%xmm13
-  .byte  69,15,86,232                        // orps          %xmm8,%xmm13
-  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
-  .byte  68,15,89,197                        // mulps         %xmm5,%xmm8
-  .byte  15,88,205                           // addps         %xmm5,%xmm1
-  .byte  69,15,88,232                        // addps         %xmm8,%xmm13
-  .byte  68,15,40,197                        // movaps        %xmm5,%xmm8
-  .byte  68,15,194,199,0                     // cmpeqps       %xmm7,%xmm8
-  .byte  65,15,84,200                        // andps         %xmm8,%xmm1
-  .byte  69,15,85,197                        // andnps        %xmm13,%xmm8
-  .byte  65,15,86,200                        // orps          %xmm8,%xmm1
-  .byte  68,15,40,199                        // movaps        %xmm7,%xmm8
-  .byte  68,15,92,198                        // subps         %xmm6,%xmm8
-  .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
-  .byte  68,15,94,194                        // divps         %xmm2,%xmm8
+  .byte  68,15,88,197                        // addps         %xmm5,%xmm8
+  .byte  68,15,86,233                        // orps          %xmm1,%xmm13
+  .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
+  .byte  15,89,205                           // mulps         %xmm5,%xmm1
+  .byte  68,15,88,233                        // addps         %xmm1,%xmm13
+  .byte  15,40,205                           // movaps        %xmm5,%xmm1
+  .byte  15,194,207,0                        // cmpeqps       %xmm7,%xmm1
+  .byte  68,15,84,193                        // andps         %xmm1,%xmm8
+  .byte  65,15,85,205                        // andnps        %xmm13,%xmm1
+  .byte  68,15,86,193                        // orps          %xmm1,%xmm8
+  .byte  15,40,207                           // movaps        %xmm7,%xmm1
+  .byte  15,92,206                           // subps         %xmm6,%xmm1
+  .byte  15,89,203                           // mulps         %xmm3,%xmm1
+  .byte  15,94,202                           // divps         %xmm2,%xmm1
   .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
-  .byte  69,15,93,224                        // minps         %xmm8,%xmm12
-  .byte  68,15,40,199                        // movaps        %xmm7,%xmm8
-  .byte  69,15,92,196                        // subps         %xmm12,%xmm8
-  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
-  .byte  68,15,194,210,0                     // cmpeqps       %xmm2,%xmm10
-  .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
-  .byte  69,15,88,195                        // addps         %xmm11,%xmm8
-  .byte  65,15,84,210                        // andps         %xmm10,%xmm2
-  .byte  69,15,85,208                        // andnps        %xmm8,%xmm10
-  .byte  69,15,40,195                        // movaps        %xmm11,%xmm8
-  .byte  68,15,88,198                        // addps         %xmm6,%xmm8
-  .byte  68,15,86,210                        // orps          %xmm2,%xmm10
-  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
-  .byte  15,89,214                           // mulps         %xmm6,%xmm2
-  .byte  68,15,88,210                        // addps         %xmm2,%xmm10
-  .byte  15,40,214                           // movaps        %xmm6,%xmm2
-  .byte  15,194,215,0                        // cmpeqps       %xmm7,%xmm2
-  .byte  68,15,84,194                        // andps         %xmm2,%xmm8
-  .byte  65,15,85,210                        // andnps        %xmm10,%xmm2
-  .byte  68,15,86,194                        // orps          %xmm2,%xmm8
-  .byte  68,15,89,207                        // mulps         %xmm7,%xmm9
-  .byte  65,15,88,217                        // addps         %xmm9,%xmm3
+  .byte  68,15,93,225                        // minps         %xmm1,%xmm12
+  .byte  15,40,207                           // movaps        %xmm7,%xmm1
+  .byte  65,15,92,204                        // subps         %xmm12,%xmm1
+  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
+  .byte  68,15,194,218,0                     // cmpeqps       %xmm2,%xmm11
+  .byte  15,89,203                           // mulps         %xmm3,%xmm1
+  .byte  65,15,88,201                        // addps         %xmm9,%xmm1
+  .byte  65,15,84,211                        // andps         %xmm11,%xmm2
+  .byte  68,15,85,217                        // andnps        %xmm1,%xmm11
+  .byte  68,15,88,206                        // addps         %xmm6,%xmm9
+  .byte  68,15,86,218                        // orps          %xmm2,%xmm11
+  .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
+  .byte  15,89,206                           // mulps         %xmm6,%xmm1
+  .byte  68,15,88,217                        // addps         %xmm1,%xmm11
+  .byte  15,40,206                           // movaps        %xmm6,%xmm1
+  .byte  15,194,207,0                        // cmpeqps       %xmm7,%xmm1
+  .byte  68,15,84,201                        // andps         %xmm1,%xmm9
+  .byte  65,15,85,203                        // andnps        %xmm11,%xmm1
+  .byte  68,15,86,201                        // orps          %xmm1,%xmm9
+  .byte  68,15,89,215                        // mulps         %xmm7,%xmm10
+  .byte  65,15,88,218                        // addps         %xmm10,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
+  .byte  65,15,40,209                        // movaps        %xmm9,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_colordodge_sse2
@@ -23416,62 +23494,62 @@
 FUNCTION(_sk_colordodge_sse2)
 _sk_colordodge_sse2:
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,49,56,0,0               // movaps        0x3831(%rip),%xmm10        # 3ed0 <_sk_callback_sse2+0x1c8>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
-  .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
+  .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
+  .byte  69,15,89,225                        // mulps         %xmm9,%xmm12
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
-  .byte  69,15,92,225                        // subps         %xmm9,%xmm12
-  .byte  69,15,94,196                        // divps         %xmm12,%xmm8
-  .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
+  .byte  15,40,195                           // movaps        %xmm3,%xmm0
+  .byte  65,15,92,193                        // subps         %xmm9,%xmm0
+  .byte  68,15,94,192                        // divps         %xmm0,%xmm8
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
-  .byte  69,15,93,232                        // minps         %xmm8,%xmm13
+  .byte  15,40,199                           // movaps        %xmm7,%xmm0
+  .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
   .byte  68,15,194,243,0                     // cmpeqps       %xmm3,%xmm14
-  .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
-  .byte  68,15,88,232                        // addps         %xmm0,%xmm13
+  .byte  15,89,195                           // mulps         %xmm3,%xmm0
+  .byte  65,15,88,196                        // addps         %xmm12,%xmm0
   .byte  69,15,84,206                        // andps         %xmm14,%xmm9
-  .byte  69,15,85,245                        // andnps        %xmm13,%xmm14
+  .byte  68,15,85,240                        // andnps        %xmm0,%xmm14
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
+  .byte  65,15,40,196                        // movaps        %xmm12,%xmm0
+  .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  68,15,92,211                        // subps         %xmm3,%xmm10
   .byte  69,15,86,241                        // orps          %xmm9,%xmm14
   .byte  69,15,40,202                        // movaps        %xmm10,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
-  .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  69,15,88,241                        // addps         %xmm9,%xmm14
   .byte  68,15,40,204                        // movaps        %xmm4,%xmm9
   .byte  69,15,194,200,0                     // cmpeqps       %xmm8,%xmm9
   .byte  65,15,84,193                        // andps         %xmm9,%xmm0
   .byte  69,15,85,206                        // andnps        %xmm14,%xmm9
   .byte  65,15,86,193                        // orps          %xmm9,%xmm0
-  .byte  68,15,40,235                        // movaps        %xmm3,%xmm13
-  .byte  68,15,89,237                        // mulps         %xmm5,%xmm13
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
-  .byte  68,15,92,201                        // subps         %xmm1,%xmm9
-  .byte  69,15,94,233                        // divps         %xmm9,%xmm13
-  .byte  69,15,40,203                        // movaps        %xmm11,%xmm9
-  .byte  68,15,89,201                        // mulps         %xmm1,%xmm9
-  .byte  69,15,93,229                        // minps         %xmm13,%xmm12
-  .byte  68,15,40,233                        // movaps        %xmm1,%xmm13
-  .byte  68,15,194,235,0                     // cmpeqps       %xmm3,%xmm13
-  .byte  68,15,89,227                        // mulps         %xmm3,%xmm12
-  .byte  69,15,88,225                        // addps         %xmm9,%xmm12
-  .byte  65,15,84,205                        // andps         %xmm13,%xmm1
-  .byte  69,15,85,236                        // andnps        %xmm12,%xmm13
-  .byte  68,15,86,233                        // orps          %xmm1,%xmm13
+  .byte  68,15,89,205                        // mulps         %xmm5,%xmm9
+  .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
+  .byte  68,15,92,225                        // subps         %xmm1,%xmm12
+  .byte  69,15,94,204                        // divps         %xmm12,%xmm9
+  .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
+  .byte  68,15,89,225                        // mulps         %xmm1,%xmm12
+  .byte  69,15,93,233                        // minps         %xmm9,%xmm13
+  .byte  68,15,40,241                        // movaps        %xmm1,%xmm14
+  .byte  68,15,194,243,0                     // cmpeqps       %xmm3,%xmm14
+  .byte  68,15,89,235                        // mulps         %xmm3,%xmm13
+  .byte  69,15,88,236                        // addps         %xmm12,%xmm13
+  .byte  65,15,84,206                        // andps         %xmm14,%xmm1
+  .byte  69,15,85,245                        // andnps        %xmm13,%xmm14
+  .byte  69,15,40,204                        // movaps        %xmm12,%xmm9
+  .byte  68,15,88,205                        // addps         %xmm5,%xmm9
+  .byte  68,15,86,241                        // orps          %xmm1,%xmm14
   .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  15,89,205                           // mulps         %xmm5,%xmm1
-  .byte  68,15,88,205                        // addps         %xmm5,%xmm9
-  .byte  68,15,88,233                        // addps         %xmm1,%xmm13
+  .byte  68,15,88,241                        // addps         %xmm1,%xmm14
   .byte  15,40,205                           // movaps        %xmm5,%xmm1
   .byte  65,15,194,200,0                     // cmpeqps       %xmm8,%xmm1
   .byte  68,15,84,201                        // andps         %xmm1,%xmm9
-  .byte  65,15,85,205                        // andnps        %xmm13,%xmm1
+  .byte  65,15,85,206                        // andnps        %xmm14,%xmm1
   .byte  68,15,86,201                        // orps          %xmm1,%xmm9
   .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
   .byte  68,15,89,230                        // mulps         %xmm6,%xmm12
@@ -23510,9 +23588,7 @@
   .byte  15,41,116,36,232                    // movaps        %xmm6,-0x18(%rsp)
   .byte  15,40,245                           // movaps        %xmm5,%xmm6
   .byte  15,40,236                           // movaps        %xmm4,%xmm5
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
+  .byte  68,15,40,29,230,54,0,0              // movaps        0x36e6(%rip),%xmm11        # 3ee0 <_sk_callback_sse2+0x1d8>
   .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
   .byte  68,15,92,215                        // subps         %xmm7,%xmm10
   .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
@@ -23598,64 +23674,64 @@
 .globl _sk_overlay_sse2
 FUNCTION(_sk_overlay_sse2)
 _sk_overlay_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,92,207                        // subps         %xmm7,%xmm9
+  .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
+  .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
+  .byte  68,15,40,13,180,53,0,0              // movaps        0x35b4(%rip),%xmm9        # 3ef0 <_sk_callback_sse2+0x1e8>
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
-  .byte  68,15,89,208                        // mulps         %xmm0,%xmm10
-  .byte  68,15,92,195                        // subps         %xmm3,%xmm8
-  .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
-  .byte  68,15,89,220                        // mulps         %xmm4,%xmm11
-  .byte  69,15,88,218                        // addps         %xmm10,%xmm11
-  .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
-  .byte  68,15,92,224                        // subps         %xmm0,%xmm12
+  .byte  68,15,92,215                        // subps         %xmm7,%xmm10
+  .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
+  .byte  69,15,89,221                        // mulps         %xmm13,%xmm11
+  .byte  68,15,92,203                        // subps         %xmm3,%xmm9
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,196                           // mulps         %xmm4,%xmm0
-  .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
-  .byte  68,15,92,236                        // subps         %xmm4,%xmm13
-  .byte  68,15,40,244                        // movaps        %xmm4,%xmm14
-  .byte  69,15,88,246                        // addps         %xmm14,%xmm14
-  .byte  68,15,194,247,2                     // cmpleps       %xmm7,%xmm14
-  .byte  15,88,192                           // addps         %xmm0,%xmm0
-  .byte  68,15,40,211                        // movaps        %xmm3,%xmm10
-  .byte  68,15,89,215                        // mulps         %xmm7,%xmm10
-  .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
-  .byte  69,15,88,237                        // addps         %xmm13,%xmm13
-  .byte  69,15,40,226                        // movaps        %xmm10,%xmm12
-  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  65,15,84,198                        // andps         %xmm14,%xmm0
-  .byte  69,15,85,244                        // andnps        %xmm12,%xmm14
-  .byte  65,15,86,198                        // orps          %xmm14,%xmm0
   .byte  65,15,88,195                        // addps         %xmm11,%xmm0
-  .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
-  .byte  68,15,89,217                        // mulps         %xmm1,%xmm11
-  .byte  69,15,40,224                        // movaps        %xmm8,%xmm12
-  .byte  68,15,89,229                        // mulps         %xmm5,%xmm12
-  .byte  69,15,88,227                        // addps         %xmm11,%xmm12
+  .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  68,15,89,236                        // mulps         %xmm4,%xmm13
+  .byte  68,15,40,247                        // movaps        %xmm7,%xmm14
+  .byte  68,15,92,244                        // subps         %xmm4,%xmm14
+  .byte  15,40,204                           // movaps        %xmm4,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  15,194,207,2                        // cmpleps       %xmm7,%xmm1
+  .byte  69,15,88,237                        // addps         %xmm13,%xmm13
   .byte  68,15,40,219                        // movaps        %xmm3,%xmm11
-  .byte  68,15,92,217                        // subps         %xmm1,%xmm11
+  .byte  68,15,89,223                        // mulps         %xmm7,%xmm11
+  .byte  69,15,89,244                        // mulps         %xmm12,%xmm14
+  .byte  69,15,88,246                        // addps         %xmm14,%xmm14
+  .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
+  .byte  69,15,92,230                        // subps         %xmm14,%xmm12
+  .byte  68,15,84,233                        // andps         %xmm1,%xmm13
+  .byte  65,15,85,204                        // andnps        %xmm12,%xmm1
+  .byte  65,15,86,205                        // orps          %xmm13,%xmm1
+  .byte  15,88,193                           // addps         %xmm1,%xmm0
+  .byte  69,15,40,226                        // movaps        %xmm10,%xmm12
+  .byte  69,15,89,224                        // mulps         %xmm8,%xmm12
+  .byte  65,15,40,201                        // movaps        %xmm9,%xmm1
   .byte  15,89,205                           // mulps         %xmm5,%xmm1
+  .byte  65,15,88,204                        // addps         %xmm12,%xmm1
+  .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
+  .byte  69,15,92,224                        // subps         %xmm8,%xmm12
+  .byte  68,15,89,197                        // mulps         %xmm5,%xmm8
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
   .byte  68,15,92,237                        // subps         %xmm5,%xmm13
   .byte  68,15,40,245                        // movaps        %xmm5,%xmm14
   .byte  69,15,88,246                        // addps         %xmm14,%xmm14
   .byte  68,15,194,247,2                     // cmpleps       %xmm7,%xmm14
-  .byte  15,88,201                           // addps         %xmm1,%xmm1
-  .byte  69,15,89,235                        // mulps         %xmm11,%xmm13
+  .byte  69,15,88,192                        // addps         %xmm8,%xmm8
+  .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
   .byte  69,15,88,237                        // addps         %xmm13,%xmm13
-  .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
-  .byte  69,15,92,221                        // subps         %xmm13,%xmm11
-  .byte  65,15,84,206                        // andps         %xmm14,%xmm1
-  .byte  69,15,85,243                        // andnps        %xmm11,%xmm14
-  .byte  65,15,86,206                        // orps          %xmm14,%xmm1
-  .byte  65,15,88,204                        // addps         %xmm12,%xmm1
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
-  .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
-  .byte  68,15,89,222                        // mulps         %xmm6,%xmm11
-  .byte  69,15,88,217                        // addps         %xmm9,%xmm11
-  .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
-  .byte  68,15,92,202                        // subps         %xmm2,%xmm9
+  .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  69,15,84,198                        // andps         %xmm14,%xmm8
+  .byte  69,15,85,244                        // andnps        %xmm12,%xmm14
+  .byte  69,15,86,240                        // orps          %xmm8,%xmm14
+  .byte  65,15,88,206                        // addps         %xmm14,%xmm1
+  .byte  68,15,89,210                        // mulps         %xmm2,%xmm10
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
+  .byte  68,15,89,198                        // mulps         %xmm6,%xmm8
+  .byte  69,15,88,194                        // addps         %xmm10,%xmm8
+  .byte  68,15,40,211                        // movaps        %xmm3,%xmm10
+  .byte  68,15,92,210                        // subps         %xmm2,%xmm10
   .byte  15,89,214                           // mulps         %xmm6,%xmm2
   .byte  68,15,40,231                        // movaps        %xmm7,%xmm12
   .byte  68,15,92,230                        // subps         %xmm6,%xmm12
@@ -23663,158 +23739,154 @@
   .byte  69,15,88,237                        // addps         %xmm13,%xmm13
   .byte  68,15,194,239,2                     // cmpleps       %xmm7,%xmm13
   .byte  15,88,210                           // addps         %xmm2,%xmm2
-  .byte  69,15,89,225                        // mulps         %xmm9,%xmm12
+  .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,88,228                        // addps         %xmm12,%xmm12
-  .byte  69,15,92,212                        // subps         %xmm12,%xmm10
+  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
   .byte  65,15,84,213                        // andps         %xmm13,%xmm2
-  .byte  69,15,85,234                        // andnps        %xmm10,%xmm13
-  .byte  65,15,86,213                        // orps          %xmm13,%xmm2
-  .byte  65,15,88,211                        // addps         %xmm11,%xmm2
-  .byte  68,15,89,199                        // mulps         %xmm7,%xmm8
-  .byte  65,15,88,216                        // addps         %xmm8,%xmm3
+  .byte  69,15,85,235                        // andnps        %xmm11,%xmm13
+  .byte  68,15,86,234                        // orps          %xmm2,%xmm13
+  .byte  69,15,88,197                        // addps         %xmm13,%xmm8
+  .byte  68,15,89,207                        // mulps         %xmm7,%xmm9
+  .byte  65,15,88,217                        // addps         %xmm9,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_softlight_sse2
 .globl _sk_softlight_sse2
 FUNCTION(_sk_softlight_sse2)
 _sk_softlight_sse2:
+  .byte  15,41,116,36,216                    // movaps        %xmm6,-0x28(%rsp)
+  .byte  15,40,245                           // movaps        %xmm5,%xmm6
+  .byte  15,40,236                           // movaps        %xmm4,%xmm5
   .byte  15,41,84,36,232                     // movaps        %xmm2,-0x18(%rsp)
   .byte  15,40,209                           // movaps        %xmm1,%xmm2
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  69,15,87,228                        // xorps         %xmm12,%xmm12
   .byte  68,15,194,231,1                     // cmpltps       %xmm7,%xmm12
-  .byte  68,15,40,212                        // movaps        %xmm4,%xmm10
+  .byte  68,15,40,213                        // movaps        %xmm5,%xmm10
   .byte  68,15,94,215                        // divps         %xmm7,%xmm10
   .byte  69,15,84,212                        // andps         %xmm12,%xmm10
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
-  .byte  69,15,92,242                        // subps         %xmm10,%xmm14
+  .byte  68,15,40,13,113,52,0,0              // movaps        0x3471(%rip),%xmm9        # 3f00 <_sk_callback_sse2+0x1f8>
+  .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
+  .byte  69,15,92,250                        // subps         %xmm10,%xmm15
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  69,15,40,234                        // movaps        %xmm10,%xmm13
   .byte  65,15,82,194                        // rsqrtps       %xmm10,%xmm0
-  .byte  68,15,83,248                        // rcpps         %xmm0,%xmm15
-  .byte  69,15,92,250                        // subps         %xmm10,%xmm15
+  .byte  15,83,200                           // rcpps         %xmm0,%xmm1
+  .byte  65,15,92,202                        // subps         %xmm10,%xmm1
   .byte  69,15,88,210                        // addps         %xmm10,%xmm10
   .byte  69,15,88,210                        // addps         %xmm10,%xmm10
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  65,15,88,194                        // addps         %xmm10,%xmm0
-  .byte  69,15,92,217                        // subps         %xmm9,%xmm11
+  .byte  68,15,40,53,75,52,0,0               // movaps        0x344b(%rip),%xmm14        # 3f10 <_sk_callback_sse2+0x208>
+  .byte  69,15,88,222                        // addps         %xmm14,%xmm11
   .byte  68,15,89,216                        // mulps         %xmm0,%xmm11
-  .byte  184,0,0,224,64                      // mov           $0x40e00000,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,75,52,0,0               // movaps        0x344b(%rip),%xmm10        # 3f20 <_sk_callback_sse2+0x218>
   .byte  69,15,89,234                        // mulps         %xmm10,%xmm13
   .byte  69,15,88,235                        // addps         %xmm11,%xmm13
-  .byte  68,15,40,219                        // movaps        %xmm3,%xmm11
-  .byte  15,40,204                           // movaps        %xmm4,%xmm1
-  .byte  68,15,89,217                        // mulps         %xmm1,%xmm11
   .byte  15,88,228                           // addps         %xmm4,%xmm4
   .byte  15,88,228                           // addps         %xmm4,%xmm4
   .byte  15,194,231,2                        // cmpleps       %xmm7,%xmm4
   .byte  68,15,84,236                        // andps         %xmm4,%xmm13
-  .byte  65,15,85,231                        // andnps        %xmm15,%xmm4
+  .byte  15,85,225                           // andnps        %xmm1,%xmm4
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,88,192                           // addps         %xmm0,%xmm0
   .byte  65,15,86,229                        // orps          %xmm13,%xmm4
-  .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
-  .byte  68,15,92,235                        // subps         %xmm3,%xmm13
-  .byte  69,15,89,245                        // mulps         %xmm13,%xmm14
-  .byte  68,15,89,239                        // mulps         %xmm7,%xmm13
-  .byte  65,15,89,229                        // mulps         %xmm13,%xmm4
-  .byte  65,15,88,227                        // addps         %xmm11,%xmm4
+  .byte  15,40,200                           // movaps        %xmm0,%xmm1
+  .byte  15,92,203                           // subps         %xmm3,%xmm1
+  .byte  68,15,89,249                        // mulps         %xmm1,%xmm15
+  .byte  15,89,207                           // mulps         %xmm7,%xmm1
+  .byte  15,89,225                           // mulps         %xmm1,%xmm4
+  .byte  15,40,203                           // movaps        %xmm3,%xmm1
+  .byte  15,89,205                           // mulps         %xmm5,%xmm1
+  .byte  15,88,225                           // addps         %xmm1,%xmm4
   .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
   .byte  68,15,92,219                        // subps         %xmm3,%xmm11
-  .byte  69,15,40,251                        // movaps        %xmm11,%xmm15
-  .byte  15,41,76,36,216                     // movaps        %xmm1,-0x28(%rsp)
-  .byte  68,15,89,249                        // mulps         %xmm1,%xmm15
+  .byte  65,15,40,203                        // movaps        %xmm11,%xmm1
+  .byte  15,89,205                           // mulps         %xmm5,%xmm1
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  68,15,92,239                        // subps         %xmm7,%xmm13
   .byte  69,15,89,197                        // mulps         %xmm13,%xmm8
-  .byte  69,15,88,199                        // addps         %xmm15,%xmm8
-  .byte  68,15,88,243                        // addps         %xmm3,%xmm14
-  .byte  68,15,89,241                        // mulps         %xmm1,%xmm14
+  .byte  68,15,88,193                        // addps         %xmm1,%xmm8
+  .byte  68,15,88,251                        // addps         %xmm3,%xmm15
+  .byte  68,15,89,253                        // mulps         %xmm5,%xmm15
   .byte  15,194,195,2                        // cmpleps       %xmm3,%xmm0
-  .byte  68,15,84,240                        // andps         %xmm0,%xmm14
+  .byte  68,15,84,248                        // andps         %xmm0,%xmm15
   .byte  15,85,196                           // andnps        %xmm4,%xmm0
-  .byte  65,15,86,198                        // orps          %xmm14,%xmm0
+  .byte  65,15,86,199                        // orps          %xmm15,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  15,41,108,36,200                    // movaps        %xmm5,-0x38(%rsp)
-  .byte  68,15,40,197                        // movaps        %xmm5,%xmm8
+  .byte  68,15,40,198                        // movaps        %xmm6,%xmm8
   .byte  68,15,94,199                        // divps         %xmm7,%xmm8
   .byte  69,15,84,196                        // andps         %xmm12,%xmm8
-  .byte  69,15,40,240                        // movaps        %xmm8,%xmm14
-  .byte  69,15,88,246                        // addps         %xmm14,%xmm14
-  .byte  69,15,88,246                        // addps         %xmm14,%xmm14
-  .byte  65,15,40,230                        // movaps        %xmm14,%xmm4
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  15,40,225                           // movaps        %xmm1,%xmm4
   .byte  15,89,228                           // mulps         %xmm4,%xmm4
-  .byte  65,15,88,230                        // addps         %xmm14,%xmm4
-  .byte  69,15,40,248                        // movaps        %xmm8,%xmm15
-  .byte  69,15,92,249                        // subps         %xmm9,%xmm15
-  .byte  68,15,89,252                        // mulps         %xmm4,%xmm15
-  .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
-  .byte  69,15,92,240                        // subps         %xmm8,%xmm14
+  .byte  15,88,225                           // addps         %xmm1,%xmm4
+  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
+  .byte  65,15,88,206                        // addps         %xmm14,%xmm1
+  .byte  15,89,204                           // mulps         %xmm4,%xmm1
+  .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
+  .byte  69,15,92,248                        // subps         %xmm8,%xmm15
   .byte  65,15,82,224                        // rsqrtps       %xmm8,%xmm4
   .byte  15,83,228                           // rcpps         %xmm4,%xmm4
   .byte  65,15,92,224                        // subps         %xmm8,%xmm4
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
-  .byte  69,15,88,199                        // addps         %xmm15,%xmm8
-  .byte  68,15,40,253                        // movaps        %xmm5,%xmm15
-  .byte  69,15,88,255                        // addps         %xmm15,%xmm15
-  .byte  69,15,88,255                        // addps         %xmm15,%xmm15
-  .byte  68,15,194,255,2                     // cmpleps       %xmm7,%xmm15
-  .byte  69,15,84,199                        // andps         %xmm15,%xmm8
-  .byte  68,15,85,252                        // andnps        %xmm4,%xmm15
-  .byte  69,15,86,248                        // orps          %xmm8,%xmm15
+  .byte  68,15,88,193                        // addps         %xmm1,%xmm8
+  .byte  15,40,206                           // movaps        %xmm6,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  15,88,201                           // addps         %xmm1,%xmm1
+  .byte  15,194,207,2                        // cmpleps       %xmm7,%xmm1
+  .byte  68,15,84,193                        // andps         %xmm1,%xmm8
+  .byte  15,85,204                           // andnps        %xmm4,%xmm1
+  .byte  65,15,86,200                        // orps          %xmm8,%xmm1
   .byte  68,15,40,194                        // movaps        %xmm2,%xmm8
   .byte  69,15,88,192                        // addps         %xmm8,%xmm8
   .byte  65,15,40,224                        // movaps        %xmm8,%xmm4
   .byte  15,92,227                           // subps         %xmm3,%xmm4
-  .byte  68,15,89,244                        // mulps         %xmm4,%xmm14
-  .byte  15,89,231                           // mulps         %xmm7,%xmm4
   .byte  68,15,89,252                        // mulps         %xmm4,%xmm15
+  .byte  15,89,231                           // mulps         %xmm7,%xmm4
+  .byte  15,89,204                           // mulps         %xmm4,%xmm1
   .byte  15,40,227                           // movaps        %xmm3,%xmm4
-  .byte  15,89,229                           // mulps         %xmm5,%xmm4
-  .byte  68,15,88,252                        // addps         %xmm4,%xmm15
+  .byte  15,89,230                           // mulps         %xmm6,%xmm4
+  .byte  15,88,204                           // addps         %xmm4,%xmm1
   .byte  65,15,40,227                        // movaps        %xmm11,%xmm4
-  .byte  15,89,229                           // mulps         %xmm5,%xmm4
+  .byte  15,89,230                           // mulps         %xmm6,%xmm4
   .byte  65,15,89,213                        // mulps         %xmm13,%xmm2
   .byte  15,88,212                           // addps         %xmm4,%xmm2
-  .byte  68,15,88,243                        // addps         %xmm3,%xmm14
-  .byte  68,15,89,245                        // mulps         %xmm5,%xmm14
+  .byte  68,15,88,251                        // addps         %xmm3,%xmm15
+  .byte  68,15,89,254                        // mulps         %xmm6,%xmm15
   .byte  68,15,194,195,2                     // cmpleps       %xmm3,%xmm8
-  .byte  69,15,84,240                        // andps         %xmm8,%xmm14
-  .byte  69,15,85,199                        // andnps        %xmm15,%xmm8
-  .byte  69,15,86,198                        // orps          %xmm14,%xmm8
+  .byte  69,15,84,248                        // andps         %xmm8,%xmm15
+  .byte  68,15,85,193                        // andnps        %xmm1,%xmm8
+  .byte  69,15,86,199                        // orps          %xmm15,%xmm8
   .byte  68,15,88,194                        // addps         %xmm2,%xmm8
-  .byte  68,15,40,246                        // movaps        %xmm6,%xmm14
-  .byte  65,15,40,206                        // movaps        %xmm14,%xmm1
+  .byte  68,15,40,124,36,216                 // movaps        -0x28(%rsp),%xmm15
+  .byte  65,15,40,207                        // movaps        %xmm15,%xmm1
   .byte  15,94,207                           // divps         %xmm7,%xmm1
   .byte  65,15,84,204                        // andps         %xmm12,%xmm1
-  .byte  15,40,225                           // movaps        %xmm1,%xmm4
-  .byte  65,15,92,225                        // subps         %xmm9,%xmm4
   .byte  68,15,92,201                        // subps         %xmm1,%xmm9
+  .byte  68,15,88,241                        // addps         %xmm1,%xmm14
   .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
-  .byte  15,82,241                           // rsqrtps       %xmm1,%xmm6
-  .byte  15,83,246                           // rcpps         %xmm6,%xmm6
-  .byte  15,92,241                           // subps         %xmm1,%xmm6
+  .byte  15,82,209                           // rsqrtps       %xmm1,%xmm2
+  .byte  15,83,210                           // rcpps         %xmm2,%xmm2
+  .byte  15,92,209                           // subps         %xmm1,%xmm2
   .byte  15,88,201                           // addps         %xmm1,%xmm1
   .byte  15,88,201                           // addps         %xmm1,%xmm1
-  .byte  15,40,233                           // movaps        %xmm1,%xmm5
-  .byte  15,89,237                           // mulps         %xmm5,%xmm5
-  .byte  15,88,233                           // addps         %xmm1,%xmm5
-  .byte  15,89,236                           // mulps         %xmm4,%xmm5
-  .byte  68,15,88,213                        // addps         %xmm5,%xmm10
-  .byte  65,15,40,238                        // movaps        %xmm14,%xmm5
-  .byte  15,40,205                           // movaps        %xmm5,%xmm1
+  .byte  15,40,225                           // movaps        %xmm1,%xmm4
+  .byte  15,89,228                           // mulps         %xmm4,%xmm4
+  .byte  15,88,225                           // addps         %xmm1,%xmm4
+  .byte  68,15,89,244                        // mulps         %xmm4,%xmm14
+  .byte  69,15,88,214                        // addps         %xmm14,%xmm10
+  .byte  65,15,40,207                        // movaps        %xmm15,%xmm1
   .byte  15,88,201                           // addps         %xmm1,%xmm1
   .byte  15,88,201                           // addps         %xmm1,%xmm1
   .byte  15,194,207,2                        // cmpleps       %xmm7,%xmm1
   .byte  68,15,84,209                        // andps         %xmm1,%xmm10
-  .byte  15,85,206                           // andnps        %xmm6,%xmm1
+  .byte  15,85,202                           // andnps        %xmm2,%xmm1
   .byte  15,40,84,36,232                     // movaps        -0x18(%rsp),%xmm2
   .byte  68,15,89,234                        // mulps         %xmm2,%xmm13
   .byte  15,88,210                           // addps         %xmm2,%xmm2
@@ -23825,14 +23897,14 @@
   .byte  15,89,231                           // mulps         %xmm7,%xmm4
   .byte  15,89,204                           // mulps         %xmm4,%xmm1
   .byte  15,40,227                           // movaps        %xmm3,%xmm4
-  .byte  15,89,229                           // mulps         %xmm5,%xmm4
+  .byte  65,15,89,231                        // mulps         %xmm15,%xmm4
   .byte  15,88,204                           // addps         %xmm4,%xmm1
   .byte  65,15,40,227                        // movaps        %xmm11,%xmm4
-  .byte  15,89,229                           // mulps         %xmm5,%xmm4
+  .byte  65,15,89,231                        // mulps         %xmm15,%xmm4
   .byte  65,15,88,229                        // addps         %xmm13,%xmm4
   .byte  68,15,88,203                        // addps         %xmm3,%xmm9
-  .byte  68,15,89,205                        // mulps         %xmm5,%xmm9
-  .byte  15,40,245                           // movaps        %xmm5,%xmm6
+  .byte  69,15,89,207                        // mulps         %xmm15,%xmm9
+  .byte  69,15,40,215                        // movaps        %xmm15,%xmm10
   .byte  15,194,211,2                        // cmpleps       %xmm3,%xmm2
   .byte  68,15,84,202                        // andps         %xmm2,%xmm9
   .byte  15,85,209                           // andnps        %xmm1,%xmm2
@@ -23841,8 +23913,9 @@
   .byte  68,15,89,223                        // mulps         %xmm7,%xmm11
   .byte  65,15,88,219                        // addps         %xmm11,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,100,36,216                    // movaps        -0x28(%rsp),%xmm4
-  .byte  15,40,108,36,200                    // movaps        -0x38(%rsp),%xmm5
+  .byte  15,40,229                           // movaps        %xmm5,%xmm4
+  .byte  15,40,238                           // movaps        %xmm6,%xmm5
+  .byte  65,15,40,242                        // movaps        %xmm10,%xmm6
   .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
   .byte  255,224                             // jmpq          *%rax
 
@@ -23862,9 +23935,7 @@
 .globl _sk_clamp_1_sse2
 FUNCTION(_sk_clamp_1_sse2)
 _sk_clamp_1_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,90,50,0,0                // movaps        0x325a(%rip),%xmm8        # 3f30 <_sk_callback_sse2+0x228>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
   .byte  65,15,93,208                        // minps         %xmm8,%xmm2
@@ -23876,10 +23947,7 @@
 .globl _sk_clamp_a_sse2
 FUNCTION(_sk_clamp_a_sse2)
 _sk_clamp_a_sse2:
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,216                        // minps         %xmm8,%xmm3
+  .byte  15,93,29,79,50,0,0                  // minps         0x324f(%rip),%xmm3        # 3f40 <_sk_callback_sse2+0x238>
   .byte  15,93,195                           // minps         %xmm3,%xmm0
   .byte  15,93,203                           // minps         %xmm3,%xmm1
   .byte  15,93,211                           // minps         %xmm3,%xmm2
@@ -23966,9 +24034,7 @@
 FUNCTION(_sk_unpremul_sse2)
 _sk_unpremul_sse2:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
+  .byte  68,15,40,13,186,49,0,0              // movaps        0x31ba(%rip),%xmm9        # 3f50 <_sk_callback_sse2+0x248>
   .byte  68,15,94,203                        // divps         %xmm3,%xmm9
   .byte  68,15,194,195,4                     // cmpneqps      %xmm3,%xmm8
   .byte  69,15,84,193                        // andps         %xmm9,%xmm8
@@ -23982,40 +24048,30 @@
 .globl _sk_from_srgb_sse2
 FUNCTION(_sk_from_srgb_sse2)
 _sk_from_srgb_sse2:
-  .byte  184,145,131,158,61                  // mov           $0x3d9e8391,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,232                        // movaps        %xmm8,%xmm13
-  .byte  68,15,89,232                        // mulps         %xmm0,%xmm13
-  .byte  68,15,40,224                        // movaps        %xmm0,%xmm12
-  .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
-  .byte  184,154,153,153,62                  // mov           $0x3e99999a,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  184,92,143,50,63                    // mov           $0x3f328f5c,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
-  .byte  68,15,89,240                        // mulps         %xmm0,%xmm14
+  .byte  68,15,40,5,165,49,0,0               // movaps        0x31a5(%rip),%xmm8        # 3f60 <_sk_callback_sse2+0x258>
+  .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
+  .byte  69,15,89,232                        // mulps         %xmm8,%xmm13
+  .byte  68,15,40,216                        // movaps        %xmm0,%xmm11
+  .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
+  .byte  68,15,40,13,157,49,0,0              // movaps        0x319d(%rip),%xmm9        # 3f70 <_sk_callback_sse2+0x268>
+  .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
+  .byte  69,15,89,241                        // mulps         %xmm9,%xmm14
+  .byte  68,15,40,21,157,49,0,0              // movaps        0x319d(%rip),%xmm10        # 3f80 <_sk_callback_sse2+0x278>
   .byte  69,15,88,242                        // addps         %xmm10,%xmm14
-  .byte  184,10,215,35,59                    // mov           $0x3b23d70a,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,89,244                        // mulps         %xmm12,%xmm14
+  .byte  69,15,89,243                        // mulps         %xmm11,%xmm14
+  .byte  68,15,40,29,157,49,0,0              // movaps        0x319d(%rip),%xmm11        # 3f90 <_sk_callback_sse2+0x288>
   .byte  69,15,88,243                        // addps         %xmm11,%xmm14
-  .byte  184,174,71,97,61                    // mov           $0x3d6147ae,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
+  .byte  68,15,40,37,161,49,0,0              // movaps        0x31a1(%rip),%xmm12        # 3fa0 <_sk_callback_sse2+0x298>
   .byte  65,15,194,196,1                     // cmpltps       %xmm12,%xmm0
   .byte  68,15,84,232                        // andps         %xmm0,%xmm13
   .byte  65,15,85,198                        // andnps        %xmm14,%xmm0
   .byte  65,15,86,197                        // orps          %xmm13,%xmm0
-  .byte  69,15,40,232                        // movaps        %xmm8,%xmm13
-  .byte  68,15,89,233                        // mulps         %xmm1,%xmm13
+  .byte  68,15,40,233                        // movaps        %xmm1,%xmm13
+  .byte  69,15,89,232                        // mulps         %xmm8,%xmm13
   .byte  68,15,40,241                        // movaps        %xmm1,%xmm14
   .byte  69,15,89,246                        // mulps         %xmm14,%xmm14
-  .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
-  .byte  68,15,89,249                        // mulps         %xmm1,%xmm15
+  .byte  68,15,40,249                        // movaps        %xmm1,%xmm15
+  .byte  69,15,89,249                        // mulps         %xmm9,%xmm15
   .byte  69,15,88,250                        // addps         %xmm10,%xmm15
   .byte  69,15,89,254                        // mulps         %xmm14,%xmm15
   .byte  69,15,88,251                        // addps         %xmm11,%xmm15
@@ -24042,35 +24098,22 @@
 FUNCTION(_sk_to_srgb_sse2)
 _sk_to_srgb_sse2:
   .byte  68,15,82,192                        // rsqrtps       %xmm0,%xmm8
-  .byte  69,15,83,248                        // rcpps         %xmm8,%xmm15
+  .byte  69,15,83,200                        // rcpps         %xmm8,%xmm9
   .byte  69,15,82,232                        // rsqrtps       %xmm8,%xmm13
-  .byte  184,41,92,71,65                     // mov           $0x41475c29,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,240                        // movaps        %xmm8,%xmm14
-  .byte  68,15,89,240                        // mulps         %xmm0,%xmm14
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  184,194,135,210,62                  // mov           $0x3ed287c2,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  184,206,111,48,63                   // mov           $0x3f306fce,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  184,168,87,202,61                   // mov           $0x3dca57a8,%eax
-  .byte  53,0,0,0,128                        // xor           $0x80000000,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  69,15,89,251                        // mulps         %xmm11,%xmm15
-  .byte  69,15,88,252                        // addps         %xmm12,%xmm15
-  .byte  69,15,89,234                        // mulps         %xmm10,%xmm13
-  .byte  69,15,88,239                        // addps         %xmm15,%xmm13
+  .byte  68,15,40,5,38,49,0,0                // movaps        0x3126(%rip),%xmm8        # 3fb0 <_sk_callback_sse2+0x2a8>
+  .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
+  .byte  69,15,89,240                        // mulps         %xmm8,%xmm14
+  .byte  68,15,40,21,38,49,0,0               // movaps        0x3126(%rip),%xmm10        # 3fc0 <_sk_callback_sse2+0x2b8>
+  .byte  69,15,89,202                        // mulps         %xmm10,%xmm9
+  .byte  68,15,40,29,42,49,0,0               // movaps        0x312a(%rip),%xmm11        # 3fd0 <_sk_callback_sse2+0x2c8>
+  .byte  69,15,88,203                        // addps         %xmm11,%xmm9
+  .byte  68,15,40,37,46,49,0,0               // movaps        0x312e(%rip),%xmm12        # 3fe0 <_sk_callback_sse2+0x2d8>
+  .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  68,15,40,13,46,49,0,0               // movaps        0x312e(%rip),%xmm9        # 3ff0 <_sk_callback_sse2+0x2e8>
   .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
   .byte  69,15,93,253                        // minps         %xmm13,%xmm15
-  .byte  184,4,231,140,59                    // mov           $0x3b8ce704,%eax
-  .byte  102,68,15,110,232                   // movd          %eax,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
+  .byte  68,15,40,45,46,49,0,0               // movaps        0x312e(%rip),%xmm13        # 4000 <_sk_callback_sse2+0x2f8>
   .byte  65,15,194,197,1                     // cmpltps       %xmm13,%xmm0
   .byte  68,15,84,240                        // andps         %xmm0,%xmm14
   .byte  65,15,85,199                        // andnps        %xmm15,%xmm0
@@ -24078,26 +24121,26 @@
   .byte  68,15,82,241                        // rsqrtps       %xmm1,%xmm14
   .byte  69,15,83,254                        // rcpps         %xmm14,%xmm15
   .byte  69,15,82,246                        // rsqrtps       %xmm14,%xmm14
-  .byte  69,15,89,251                        // mulps         %xmm11,%xmm15
-  .byte  69,15,88,252                        // addps         %xmm12,%xmm15
-  .byte  69,15,89,242                        // mulps         %xmm10,%xmm14
+  .byte  69,15,89,250                        // mulps         %xmm10,%xmm15
+  .byte  69,15,88,251                        // addps         %xmm11,%xmm15
+  .byte  69,15,89,244                        // mulps         %xmm12,%xmm14
   .byte  69,15,88,247                        // addps         %xmm15,%xmm14
   .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
   .byte  69,15,93,254                        // minps         %xmm14,%xmm15
-  .byte  69,15,40,240                        // movaps        %xmm8,%xmm14
-  .byte  68,15,89,241                        // mulps         %xmm1,%xmm14
+  .byte  68,15,40,241                        // movaps        %xmm1,%xmm14
+  .byte  69,15,89,240                        // mulps         %xmm8,%xmm14
   .byte  65,15,194,205,1                     // cmpltps       %xmm13,%xmm1
   .byte  68,15,84,241                        // andps         %xmm1,%xmm14
   .byte  65,15,85,207                        // andnps        %xmm15,%xmm1
   .byte  65,15,86,206                        // orps          %xmm14,%xmm1
   .byte  68,15,82,242                        // rsqrtps       %xmm2,%xmm14
   .byte  69,15,83,254                        // rcpps         %xmm14,%xmm15
-  .byte  69,15,89,251                        // mulps         %xmm11,%xmm15
-  .byte  69,15,88,252                        // addps         %xmm12,%xmm15
-  .byte  69,15,82,222                        // rsqrtps       %xmm14,%xmm11
-  .byte  69,15,89,218                        // mulps         %xmm10,%xmm11
-  .byte  69,15,88,223                        // addps         %xmm15,%xmm11
-  .byte  69,15,93,203                        // minps         %xmm11,%xmm9
+  .byte  69,15,89,250                        // mulps         %xmm10,%xmm15
+  .byte  69,15,88,251                        // addps         %xmm11,%xmm15
+  .byte  69,15,82,214                        // rsqrtps       %xmm14,%xmm10
+  .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
+  .byte  69,15,88,215                        // addps         %xmm15,%xmm10
+  .byte  69,15,93,202                        // minps         %xmm10,%xmm9
   .byte  68,15,89,194                        // mulps         %xmm2,%xmm8
   .byte  65,15,194,213,1                     // cmpltps       %xmm13,%xmm2
   .byte  68,15,84,194                        // andps         %xmm2,%xmm8
@@ -24120,63 +24163,48 @@
   .byte  68,15,93,218                        // minps         %xmm2,%xmm11
   .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  65,15,92,203                        // subps         %xmm11,%xmm1
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  68,15,94,225                        // divps         %xmm1,%xmm12
-  .byte  65,184,171,170,42,62                // mov           $0x3e2aaaab,%r8d
+  .byte  68,15,40,45,135,48,0,0              // movaps        0x3087(%rip),%xmm13        # 4010 <_sk_callback_sse2+0x308>
+  .byte  68,15,94,233                        // divps         %xmm1,%xmm13
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,194,192,0                     // cmpeqps       %xmm8,%xmm0
+  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
+  .byte  68,15,92,226                        // subps         %xmm2,%xmm12
+  .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
   .byte  68,15,194,242,1                     // cmpltps       %xmm2,%xmm14
-  .byte  185,0,0,192,64                      // mov           $0x40c00000,%ecx
-  .byte  102,68,15,110,233                   // movd          %ecx,%xmm13
-  .byte  69,15,198,237,0                     // shufps        $0x0,%xmm13,%xmm13
-  .byte  69,15,84,238                        // andps         %xmm14,%xmm13
-  .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
-  .byte  68,15,92,242                        // subps         %xmm2,%xmm14
-  .byte  69,15,89,244                        // mulps         %xmm12,%xmm14
-  .byte  69,15,88,238                        // addps         %xmm14,%xmm13
-  .byte  69,15,40,242                        // movaps        %xmm10,%xmm14
-  .byte  69,15,194,241,0                     // cmpeqps       %xmm9,%xmm14
+  .byte  68,15,84,53,109,48,0,0              // andps         0x306d(%rip),%xmm14        # 4020 <_sk_callback_sse2+0x318>
+  .byte  69,15,88,244                        // addps         %xmm12,%xmm14
+  .byte  69,15,40,250                        // movaps        %xmm10,%xmm15
+  .byte  69,15,194,249,0                     // cmpeqps       %xmm9,%xmm15
   .byte  65,15,92,208                        // subps         %xmm8,%xmm2
+  .byte  65,15,89,213                        // mulps         %xmm13,%xmm2
+  .byte  68,15,40,37,96,48,0,0               // movaps        0x3060(%rip),%xmm12        # 4030 <_sk_callback_sse2+0x328>
+  .byte  65,15,88,212                        // addps         %xmm12,%xmm2
   .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
-  .byte  185,0,0,0,64                        // mov           $0x40000000,%ecx
-  .byte  69,15,89,196                        // mulps         %xmm12,%xmm8
-  .byte  184,0,0,128,64                      // mov           $0x40800000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,88,200                        // addps         %xmm8,%xmm9
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,88,208                        // addps         %xmm8,%xmm2
-  .byte  65,15,84,214                        // andps         %xmm14,%xmm2
-  .byte  69,15,85,241                        // andnps        %xmm9,%xmm14
-  .byte  68,15,86,242                        // orps          %xmm2,%xmm14
-  .byte  68,15,84,232                        // andps         %xmm0,%xmm13
-  .byte  65,15,85,198                        // andnps        %xmm14,%xmm0
-  .byte  102,65,15,110,208                   // movd          %r8d,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,86,197                        // orps          %xmm13,%xmm0
-  .byte  69,15,40,202                        // movaps        %xmm10,%xmm9
-  .byte  69,15,194,203,4                     // cmpneqps      %xmm11,%xmm9
-  .byte  65,15,84,193                        // andps         %xmm9,%xmm0
-  .byte  15,89,194                           // mulps         %xmm2,%xmm0
-  .byte  69,15,92,194                        // subps         %xmm10,%xmm8
+  .byte  69,15,89,197                        // mulps         %xmm13,%xmm8
+  .byte  68,15,88,5,92,48,0,0                // addps         0x305c(%rip),%xmm8        # 4040 <_sk_callback_sse2+0x338>
+  .byte  65,15,84,215                        // andps         %xmm15,%xmm2
+  .byte  69,15,85,248                        // andnps        %xmm8,%xmm15
+  .byte  68,15,86,250                        // orps          %xmm2,%xmm15
+  .byte  68,15,84,240                        // andps         %xmm0,%xmm14
+  .byte  65,15,85,199                        // andnps        %xmm15,%xmm0
+  .byte  65,15,86,198                        // orps          %xmm14,%xmm0
+  .byte  15,89,5,77,48,0,0                   // mulps         0x304d(%rip),%xmm0        # 4050 <_sk_callback_sse2+0x348>
+  .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
+  .byte  69,15,194,195,4                     // cmpneqps      %xmm11,%xmm8
+  .byte  65,15,84,192                        // andps         %xmm8,%xmm0
+  .byte  69,15,92,226                        // subps         %xmm10,%xmm12
   .byte  69,15,88,211                        // addps         %xmm11,%xmm10
-  .byte  184,0,0,0,63                        // mov           $0x3f000000,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  69,15,92,195                        // subps         %xmm11,%xmm8
+  .byte  68,15,40,13,64,48,0,0               // movaps        0x3040(%rip),%xmm9        # 4060 <_sk_callback_sse2+0x358>
   .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
-  .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
-  .byte  68,15,194,226,1                     // cmpltps       %xmm2,%xmm12
-  .byte  69,15,84,196                        // andps         %xmm12,%xmm8
-  .byte  69,15,85,226                        // andnps        %xmm10,%xmm12
-  .byte  69,15,86,224                        // orps          %xmm8,%xmm12
-  .byte  65,15,94,204                        // divps         %xmm12,%xmm1
-  .byte  65,15,84,201                        // andps         %xmm9,%xmm1
+  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
+  .byte  68,15,194,202,1                     // cmpltps       %xmm2,%xmm9
+  .byte  69,15,92,227                        // subps         %xmm11,%xmm12
+  .byte  69,15,84,225                        // andps         %xmm9,%xmm12
+  .byte  69,15,85,202                        // andnps        %xmm10,%xmm9
+  .byte  69,15,86,204                        // orps          %xmm12,%xmm9
+  .byte  65,15,94,201                        // divps         %xmm9,%xmm1
+  .byte  65,15,84,200                        // andps         %xmm8,%xmm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -24385,14 +24413,11 @@
   .byte  102,69,15,96,193                    // punpcklbw     %xmm9,%xmm8
   .byte  102,69,15,97,193                    // punpcklwd     %xmm9,%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
-  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
-  .byte  65,15,89,217                        // mulps         %xmm9,%xmm3
+  .byte  68,15,89,5,60,45,0,0                // mulps         0x2d3c(%rip),%xmm8        # 4070 <_sk_callback_sse2+0x368>
+  .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
+  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -24429,21 +24454,18 @@
   .byte  102,69,15,96,193                    // punpcklbw     %xmm9,%xmm8
   .byte  102,69,15,97,193                    // punpcklwd     %xmm9,%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,89,5,218,44,0,0               // mulps         0x2cda(%rip),%xmm8        # 4080 <_sk_callback_sse2+0x378>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
+  .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  15,92,205                           // subps         %xmm5,%xmm1
-  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
+  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  15,92,214                           // subps         %xmm6,%xmm2
-  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  15,88,214                           // addps         %xmm6,%xmm2
   .byte  15,92,223                           // subps         %xmm7,%xmm3
-  .byte  65,15,89,217                        // mulps         %xmm9,%xmm3
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
   .byte  15,88,223                           // addps         %xmm7,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -24457,39 +24479,28 @@
   .byte  243,68,15,126,4,120                 // movq          (%rax,%rdi,2),%xmm8
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  102,68,15,97,195                    // punpcklwd     %xmm3,%xmm8
-  .byte  102,15,111,29,171,45,0,0            // movdqa        0x2dab(%rip),%xmm3        # 42d0 <_sk_callback_sse2+0xf9>
+  .byte  102,15,111,29,162,44,0,0            // movdqa        0x2ca2(%rip),%xmm3        # 4090 <_sk_callback_sse2+0x388>
   .byte  102,65,15,219,216                   // pand          %xmm8,%xmm3
   .byte  68,15,91,203                        // cvtdq2ps      %xmm3,%xmm9
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  102,15,111,29,151,45,0,0            // movdqa        0x2d97(%rip),%xmm3        # 42e0 <_sk_callback_sse2+0x109>
+  .byte  68,15,89,13,161,44,0,0              // mulps         0x2ca1(%rip),%xmm9        # 40a0 <_sk_callback_sse2+0x398>
+  .byte  102,15,111,29,169,44,0,0            // movdqa        0x2ca9(%rip),%xmm3        # 40b0 <_sk_callback_sse2+0x3a8>
   .byte  102,65,15,219,216                   // pand          %xmm8,%xmm3
-  .byte  68,15,91,203                        // cvtdq2ps      %xmm3,%xmm9
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,89,217                        // mulps         %xmm9,%xmm11
-  .byte  102,68,15,219,5,130,45,0,0          // pand          0x2d82(%rip),%xmm8        # 42f0 <_sk_callback_sse2+0x119>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,170,44,0,0                 // mulps         0x2caa(%rip),%xmm3        # 40c0 <_sk_callback_sse2+0x3b8>
+  .byte  102,68,15,219,5,177,44,0,0          // pand          0x2cb1(%rip),%xmm8        # 40d0 <_sk_callback_sse2+0x3c8>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  68,15,89,5,181,44,0,0               // mulps         0x2cb5(%rip),%xmm8        # 40e0 <_sk_callback_sse2+0x3d8>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
+  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  15,92,205                           // subps         %xmm5,%xmm1
-  .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
+  .byte  15,89,203                           // mulps         %xmm3,%xmm1
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  15,92,214                           // subps         %xmm6,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
+  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  15,88,214                           // addps         %xmm6,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,159,44,0,0                 // movaps        0x2c9f(%rip),%xmm3        # 40f0 <_sk_callback_sse2+0x3e8>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_load_tables_sse2
@@ -24500,7 +24511,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,139,72,8                         // mov           0x8(%rax),%r9
   .byte  243,69,15,111,12,184                // movdqu        (%r8,%rdi,4),%xmm9
-  .byte  102,68,15,111,5,55,45,0,0           // movdqa        0x2d37(%rip),%xmm8        # 4300 <_sk_callback_sse2+0x129>
+  .byte  102,68,15,111,5,149,44,0,0          // movdqa        0x2c95(%rip),%xmm8        # 4100 <_sk_callback_sse2+0x3f8>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
@@ -24554,11 +24565,8 @@
   .byte  15,20,211                           // unpcklps      %xmm3,%xmm2
   .byte  65,15,20,208                        // unpcklps      %xmm8,%xmm2
   .byte  102,65,15,114,209,24                // psrld         $0x18,%xmm9
-  .byte  69,15,91,193                        // cvtdq2ps      %xmm9,%xmm8
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  65,15,91,217                        // cvtdq2ps      %xmm9,%xmm3
+  .byte  15,89,29,162,43,0,0                 // mulps         0x2ba2(%rip),%xmm3        # 4110 <_sk_callback_sse2+0x408>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -24577,7 +24585,7 @@
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
-  .byte  102,68,15,111,21,253,43,0,0         // movdqa        0x2bfd(%rip),%xmm10        # 4310 <_sk_callback_sse2+0x139>
+  .byte  102,68,15,111,21,117,43,0,0         // movdqa        0x2b75(%rip),%xmm10        # 4120 <_sk_callback_sse2+0x418>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,194                   // pand          %xmm10,%xmm0
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
@@ -24631,9 +24639,6 @@
   .byte  243,67,15,16,28,129                 // movss         (%r9,%r8,4),%xmm3
   .byte  15,20,211                           // unpcklps      %xmm3,%xmm2
   .byte  65,15,20,210                        // unpcklps      %xmm10,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  102,65,15,112,217,78                // pshufd        $0x4e,%xmm9,%xmm3
   .byte  102,68,15,111,203                   // movdqa        %xmm3,%xmm9
   .byte  102,65,15,113,241,8                 // psllw         $0x8,%xmm9
@@ -24641,7 +24646,7 @@
   .byte  102,65,15,235,217                   // por           %xmm9,%xmm3
   .byte  102,65,15,97,216                    // punpcklwd     %xmm8,%xmm3
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  65,15,89,218                        // mulps         %xmm10,%xmm3
+  .byte  15,89,29,100,42,0,0                 // mulps         0x2a64(%rip),%xmm3        # 4130 <_sk_callback_sse2+0x428>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -24663,7 +24668,7 @@
   .byte  102,68,15,97,208                    // punpcklwd     %xmm0,%xmm10
   .byte  102,65,15,111,195                   // movdqa        %xmm11,%xmm0
   .byte  102,65,15,97,194                    // punpcklwd     %xmm10,%xmm0
-  .byte  102,68,15,111,5,144,42,0,0          // movdqa        0x2a90(%rip),%xmm8        # 4320 <_sk_callback_sse2+0x149>
+  .byte  102,68,15,111,5,36,42,0,0           // movdqa        0x2a24(%rip),%xmm8        # 4140 <_sk_callback_sse2+0x438>
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
@@ -24717,10 +24722,8 @@
   .byte  243,67,15,16,28,129                 // movss         (%r9,%r8,4),%xmm3
   .byte  15,20,211                           // unpcklps      %xmm3,%xmm2
   .byte  65,15,20,208                        // unpcklps      %xmm8,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,51,41,0,0                  // movaps        0x2933(%rip),%xmm3        # 4150 <_sk_callback_sse2+0x448>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_byte_tables_sse2
@@ -24730,9 +24733,7 @@
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,52,41,0,0                // movaps        0x2934(%rip),%xmm8        # 4160 <_sk_callback_sse2+0x458>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,91,192                       // cvtps2dq      %xmm0,%xmm0
   .byte  102,72,15,126,193                   // movq          %xmm0,%rcx
@@ -24759,9 +24760,7 @@
   .byte  102,65,15,96,193                    // punpcklbw     %xmm9,%xmm0
   .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  185,129,128,128,59                  // mov           $0x3b808081,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,209,40,0,0              // movaps        0x28d1(%rip),%xmm10        # 4170 <_sk_callback_sse2+0x468>
   .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -24811,8 +24810,8 @@
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,210                        // mulps         %xmm10,%xmm2
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
-  .byte  102,65,15,91,216                    // cvtps2dq      %xmm8,%xmm3
+  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  102,15,91,219                       // cvtps2dq      %xmm3,%xmm3
   .byte  102,72,15,126,217                   // movq          %xmm3,%rcx
   .byte  65,137,200                          // mov           %ecx,%r8d
   .byte  72,193,233,32                       // shr           $0x20,%rcx
@@ -24877,9 +24876,7 @@
   .byte  102,65,15,96,193                    // punpcklbw     %xmm9,%xmm0
   .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  185,129,128,128,59                  // mov           $0x3b808081,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,36,39,0,0               // movaps        0x2724(%rip),%xmm10        # 4180 <_sk_callback_sse2+0x478>
   .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -25076,49 +25073,47 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,115,36,0,0              // mulps         0x2473(%rip),%xmm9        # 4330 <_sk_callback_sse2+0x159>
-  .byte  68,15,84,21,123,36,0,0              // andps         0x247b(%rip),%xmm10        # 4340 <_sk_callback_sse2+0x169>
-  .byte  68,15,86,21,131,36,0,0              // orps          0x2483(%rip),%xmm10        # 4350 <_sk_callback_sse2+0x179>
-  .byte  68,15,88,13,139,36,0,0              // addps         0x248b(%rip),%xmm9        # 4360 <_sk_callback_sse2+0x189>
-  .byte  68,15,40,37,147,36,0,0              // movaps        0x2493(%rip),%xmm12        # 4370 <_sk_callback_sse2+0x199>
+  .byte  68,15,89,13,99,36,0,0               // mulps         0x2463(%rip),%xmm9        # 4190 <_sk_callback_sse2+0x488>
+  .byte  68,15,84,21,107,36,0,0              // andps         0x246b(%rip),%xmm10        # 41a0 <_sk_callback_sse2+0x498>
+  .byte  68,15,86,21,115,36,0,0              // orps          0x2473(%rip),%xmm10        # 41b0 <_sk_callback_sse2+0x4a8>
+  .byte  68,15,88,13,123,36,0,0              // addps         0x247b(%rip),%xmm9        # 41c0 <_sk_callback_sse2+0x4b8>
+  .byte  68,15,40,37,131,36,0,0              // movaps        0x2483(%rip),%xmm12        # 41d0 <_sk_callback_sse2+0x4c8>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,147,36,0,0              // addps         0x2493(%rip),%xmm10        # 4380 <_sk_callback_sse2+0x1a9>
-  .byte  68,15,40,37,155,36,0,0              // movaps        0x249b(%rip),%xmm12        # 4390 <_sk_callback_sse2+0x1b9>
+  .byte  68,15,88,21,131,36,0,0              // addps         0x2483(%rip),%xmm10        # 41e0 <_sk_callback_sse2+0x4d8>
+  .byte  68,15,40,37,139,36,0,0              // movaps        0x248b(%rip),%xmm12        # 41f0 <_sk_callback_sse2+0x4e8>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
-  .byte  69,15,91,218                        // cvtdq2ps      %xmm10,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,194,227,1                     // cmpltps       %xmm11,%xmm12
-  .byte  68,15,84,37,133,36,0,0              // andps         0x2485(%rip),%xmm12        # 43a0 <_sk_callback_sse2+0x1c9>
-  .byte  69,15,87,210                        // xorps         %xmm10,%xmm10
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,88,13,125,36,0,0              // addps         0x247d(%rip),%xmm9        # 43b0 <_sk_callback_sse2+0x1d9>
-  .byte  68,15,40,29,133,36,0,0              // movaps        0x2485(%rip),%xmm11        # 43c0 <_sk_callback_sse2+0x1e9>
-  .byte  69,15,89,220                        // mulps         %xmm12,%xmm11
-  .byte  69,15,92,203                        // subps         %xmm11,%xmm9
-  .byte  68,15,40,29,133,36,0,0              // movaps        0x2485(%rip),%xmm11        # 43d0 <_sk_callback_sse2+0x1f9>
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  68,15,40,37,137,36,0,0              // movaps        0x2489(%rip),%xmm12        # 43e0 <_sk_callback_sse2+0x209>
-  .byte  69,15,94,227                        // divps         %xmm11,%xmm12
+  .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
+  .byte  68,15,40,21,117,36,0,0              // movaps        0x2475(%rip),%xmm10        # 4200 <_sk_callback_sse2+0x4f8>
+  .byte  69,15,84,234                        // andps         %xmm10,%xmm13
+  .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,88,13,105,36,0,0              // addps         0x2469(%rip),%xmm9        # 4210 <_sk_callback_sse2+0x508>
+  .byte  68,15,40,37,113,36,0,0              // movaps        0x2471(%rip),%xmm12        # 4220 <_sk_callback_sse2+0x518>
+  .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
+  .byte  69,15,92,204                        // subps         %xmm12,%xmm9
+  .byte  68,15,40,37,113,36,0,0              // movaps        0x2471(%rip),%xmm12        # 4230 <_sk_callback_sse2+0x528>
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  68,15,40,45,117,36,0,0              // movaps        0x2475(%rip),%xmm13        # 4240 <_sk_callback_sse2+0x538>
+  .byte  69,15,94,236                        // divps         %xmm12,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  68,15,89,45,117,36,0,0              // mulps         0x2475(%rip),%xmm13        # 4250 <_sk_callback_sse2+0x548>
+  .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
+  .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
+  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
   .byte  69,15,88,225                        // addps         %xmm9,%xmm12
-  .byte  68,15,89,37,137,36,0,0              // mulps         0x2489(%rip),%xmm12        # 43f0 <_sk_callback_sse2+0x219>
-  .byte  102,69,15,91,204                    // cvtps2dq      %xmm12,%xmm9
-  .byte  243,68,15,16,88,20                  // movss         0x14(%rax),%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,88,217                        // addps         %xmm9,%xmm11
   .byte  68,15,84,192                        // andps         %xmm0,%xmm8
-  .byte  65,15,85,195                        // andnps        %xmm11,%xmm0
+  .byte  65,15,85,196                        // andnps        %xmm12,%xmm0
   .byte  65,15,86,192                        // orps          %xmm8,%xmm0
-  .byte  65,15,95,194                        // maxps         %xmm10,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,192                        // minps         %xmm8,%xmm0
+  .byte  65,15,95,195                        // maxps         %xmm11,%xmm0
+  .byte  65,15,93,194                        // minps         %xmm10,%xmm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25145,49 +25140,47 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,250,35,0,0              // mulps         0x23fa(%rip),%xmm9        # 4400 <_sk_callback_sse2+0x229>
-  .byte  68,15,84,21,2,36,0,0                // andps         0x2402(%rip),%xmm10        # 4410 <_sk_callback_sse2+0x239>
-  .byte  68,15,86,21,10,36,0,0               // orps          0x240a(%rip),%xmm10        # 4420 <_sk_callback_sse2+0x249>
-  .byte  68,15,88,13,18,36,0,0               // addps         0x2412(%rip),%xmm9        # 4430 <_sk_callback_sse2+0x259>
-  .byte  68,15,40,37,26,36,0,0               // movaps        0x241a(%rip),%xmm12        # 4440 <_sk_callback_sse2+0x269>
+  .byte  68,15,89,13,245,35,0,0              // mulps         0x23f5(%rip),%xmm9        # 4260 <_sk_callback_sse2+0x558>
+  .byte  68,15,84,21,253,35,0,0              // andps         0x23fd(%rip),%xmm10        # 4270 <_sk_callback_sse2+0x568>
+  .byte  68,15,86,21,5,36,0,0                // orps          0x2405(%rip),%xmm10        # 4280 <_sk_callback_sse2+0x578>
+  .byte  68,15,88,13,13,36,0,0               // addps         0x240d(%rip),%xmm9        # 4290 <_sk_callback_sse2+0x588>
+  .byte  68,15,40,37,21,36,0,0               // movaps        0x2415(%rip),%xmm12        # 42a0 <_sk_callback_sse2+0x598>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,26,36,0,0               // addps         0x241a(%rip),%xmm10        # 4450 <_sk_callback_sse2+0x279>
-  .byte  68,15,40,37,34,36,0,0               // movaps        0x2422(%rip),%xmm12        # 4460 <_sk_callback_sse2+0x289>
+  .byte  68,15,88,21,21,36,0,0               // addps         0x2415(%rip),%xmm10        # 42b0 <_sk_callback_sse2+0x5a8>
+  .byte  68,15,40,37,29,36,0,0               // movaps        0x241d(%rip),%xmm12        # 42c0 <_sk_callback_sse2+0x5b8>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
-  .byte  69,15,91,218                        // cvtdq2ps      %xmm10,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,194,227,1                     // cmpltps       %xmm11,%xmm12
-  .byte  68,15,84,37,12,36,0,0               // andps         0x240c(%rip),%xmm12        # 4470 <_sk_callback_sse2+0x299>
-  .byte  69,15,87,210                        // xorps         %xmm10,%xmm10
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,88,13,4,36,0,0                // addps         0x2404(%rip),%xmm9        # 4480 <_sk_callback_sse2+0x2a9>
-  .byte  68,15,40,29,12,36,0,0               // movaps        0x240c(%rip),%xmm11        # 4490 <_sk_callback_sse2+0x2b9>
-  .byte  69,15,89,220                        // mulps         %xmm12,%xmm11
-  .byte  69,15,92,203                        // subps         %xmm11,%xmm9
-  .byte  68,15,40,29,12,36,0,0               // movaps        0x240c(%rip),%xmm11        # 44a0 <_sk_callback_sse2+0x2c9>
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  68,15,40,37,16,36,0,0               // movaps        0x2410(%rip),%xmm12        # 44b0 <_sk_callback_sse2+0x2d9>
-  .byte  69,15,94,227                        // divps         %xmm11,%xmm12
+  .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
+  .byte  68,15,40,21,7,36,0,0                // movaps        0x2407(%rip),%xmm10        # 42d0 <_sk_callback_sse2+0x5c8>
+  .byte  69,15,84,234                        // andps         %xmm10,%xmm13
+  .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,88,13,251,35,0,0              // addps         0x23fb(%rip),%xmm9        # 42e0 <_sk_callback_sse2+0x5d8>
+  .byte  68,15,40,37,3,36,0,0                // movaps        0x2403(%rip),%xmm12        # 42f0 <_sk_callback_sse2+0x5e8>
+  .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
+  .byte  69,15,92,204                        // subps         %xmm12,%xmm9
+  .byte  68,15,40,37,3,36,0,0                // movaps        0x2403(%rip),%xmm12        # 4300 <_sk_callback_sse2+0x5f8>
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  68,15,40,45,7,36,0,0                // movaps        0x2407(%rip),%xmm13        # 4310 <_sk_callback_sse2+0x608>
+  .byte  69,15,94,236                        // divps         %xmm12,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  68,15,89,45,7,36,0,0                // mulps         0x2407(%rip),%xmm13        # 4320 <_sk_callback_sse2+0x618>
+  .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
+  .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
+  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
   .byte  69,15,88,225                        // addps         %xmm9,%xmm12
-  .byte  68,15,89,37,16,36,0,0               // mulps         0x2410(%rip),%xmm12        # 44c0 <_sk_callback_sse2+0x2e9>
-  .byte  102,69,15,91,204                    // cvtps2dq      %xmm12,%xmm9
-  .byte  243,68,15,16,88,20                  // movss         0x14(%rax),%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,88,217                        // addps         %xmm9,%xmm11
   .byte  68,15,84,193                        // andps         %xmm1,%xmm8
-  .byte  65,15,85,203                        // andnps        %xmm11,%xmm1
+  .byte  65,15,85,204                        // andnps        %xmm12,%xmm1
   .byte  65,15,86,200                        // orps          %xmm8,%xmm1
-  .byte  65,15,95,202                        // maxps         %xmm10,%xmm1
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,200                        // minps         %xmm8,%xmm1
+  .byte  65,15,95,203                        // maxps         %xmm11,%xmm1
+  .byte  65,15,93,202                        // minps         %xmm10,%xmm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25214,49 +25207,47 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,129,35,0,0              // mulps         0x2381(%rip),%xmm9        # 44d0 <_sk_callback_sse2+0x2f9>
-  .byte  68,15,84,21,137,35,0,0              // andps         0x2389(%rip),%xmm10        # 44e0 <_sk_callback_sse2+0x309>
-  .byte  68,15,86,21,145,35,0,0              // orps          0x2391(%rip),%xmm10        # 44f0 <_sk_callback_sse2+0x319>
-  .byte  68,15,88,13,153,35,0,0              // addps         0x2399(%rip),%xmm9        # 4500 <_sk_callback_sse2+0x329>
-  .byte  68,15,40,37,161,35,0,0              // movaps        0x23a1(%rip),%xmm12        # 4510 <_sk_callback_sse2+0x339>
+  .byte  68,15,89,13,135,35,0,0              // mulps         0x2387(%rip),%xmm9        # 4330 <_sk_callback_sse2+0x628>
+  .byte  68,15,84,21,143,35,0,0              // andps         0x238f(%rip),%xmm10        # 4340 <_sk_callback_sse2+0x638>
+  .byte  68,15,86,21,151,35,0,0              // orps          0x2397(%rip),%xmm10        # 4350 <_sk_callback_sse2+0x648>
+  .byte  68,15,88,13,159,35,0,0              // addps         0x239f(%rip),%xmm9        # 4360 <_sk_callback_sse2+0x658>
+  .byte  68,15,40,37,167,35,0,0              // movaps        0x23a7(%rip),%xmm12        # 4370 <_sk_callback_sse2+0x668>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,161,35,0,0              // addps         0x23a1(%rip),%xmm10        # 4520 <_sk_callback_sse2+0x349>
-  .byte  68,15,40,37,169,35,0,0              // movaps        0x23a9(%rip),%xmm12        # 4530 <_sk_callback_sse2+0x359>
+  .byte  68,15,88,21,167,35,0,0              // addps         0x23a7(%rip),%xmm10        # 4380 <_sk_callback_sse2+0x678>
+  .byte  68,15,40,37,175,35,0,0              // movaps        0x23af(%rip),%xmm12        # 4390 <_sk_callback_sse2+0x688>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
-  .byte  69,15,91,218                        // cvtdq2ps      %xmm10,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,194,227,1                     // cmpltps       %xmm11,%xmm12
-  .byte  68,15,84,37,147,35,0,0              // andps         0x2393(%rip),%xmm12        # 4540 <_sk_callback_sse2+0x369>
-  .byte  69,15,87,210                        // xorps         %xmm10,%xmm10
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,88,13,139,35,0,0              // addps         0x238b(%rip),%xmm9        # 4550 <_sk_callback_sse2+0x379>
-  .byte  68,15,40,29,147,35,0,0              // movaps        0x2393(%rip),%xmm11        # 4560 <_sk_callback_sse2+0x389>
-  .byte  69,15,89,220                        // mulps         %xmm12,%xmm11
-  .byte  69,15,92,203                        // subps         %xmm11,%xmm9
-  .byte  68,15,40,29,147,35,0,0              // movaps        0x2393(%rip),%xmm11        # 4570 <_sk_callback_sse2+0x399>
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  68,15,40,37,151,35,0,0              // movaps        0x2397(%rip),%xmm12        # 4580 <_sk_callback_sse2+0x3a9>
-  .byte  69,15,94,227                        // divps         %xmm11,%xmm12
+  .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
+  .byte  68,15,40,21,153,35,0,0              // movaps        0x2399(%rip),%xmm10        # 43a0 <_sk_callback_sse2+0x698>
+  .byte  69,15,84,234                        // andps         %xmm10,%xmm13
+  .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,88,13,141,35,0,0              // addps         0x238d(%rip),%xmm9        # 43b0 <_sk_callback_sse2+0x6a8>
+  .byte  68,15,40,37,149,35,0,0              // movaps        0x2395(%rip),%xmm12        # 43c0 <_sk_callback_sse2+0x6b8>
+  .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
+  .byte  69,15,92,204                        // subps         %xmm12,%xmm9
+  .byte  68,15,40,37,149,35,0,0              // movaps        0x2395(%rip),%xmm12        # 43d0 <_sk_callback_sse2+0x6c8>
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  68,15,40,45,153,35,0,0              // movaps        0x2399(%rip),%xmm13        # 43e0 <_sk_callback_sse2+0x6d8>
+  .byte  69,15,94,236                        // divps         %xmm12,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  68,15,89,45,153,35,0,0              // mulps         0x2399(%rip),%xmm13        # 43f0 <_sk_callback_sse2+0x6e8>
+  .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
+  .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
+  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
   .byte  69,15,88,225                        // addps         %xmm9,%xmm12
-  .byte  68,15,89,37,151,35,0,0              // mulps         0x2397(%rip),%xmm12        # 4590 <_sk_callback_sse2+0x3b9>
-  .byte  102,69,15,91,204                    // cvtps2dq      %xmm12,%xmm9
-  .byte  243,68,15,16,88,20                  // movss         0x14(%rax),%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,88,217                        // addps         %xmm9,%xmm11
   .byte  68,15,84,194                        // andps         %xmm2,%xmm8
-  .byte  65,15,85,211                        // andnps        %xmm11,%xmm2
+  .byte  65,15,85,212                        // andnps        %xmm12,%xmm2
   .byte  65,15,86,208                        // orps          %xmm8,%xmm2
-  .byte  65,15,95,210                        // maxps         %xmm10,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,208                        // minps         %xmm8,%xmm2
+  .byte  65,15,95,211                        // maxps         %xmm11,%xmm2
+  .byte  65,15,93,210                        // minps         %xmm10,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25283,49 +25274,47 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,8,35,0,0                // mulps         0x2308(%rip),%xmm9        # 45a0 <_sk_callback_sse2+0x3c9>
-  .byte  68,15,84,21,16,35,0,0               // andps         0x2310(%rip),%xmm10        # 45b0 <_sk_callback_sse2+0x3d9>
-  .byte  68,15,86,21,24,35,0,0               // orps          0x2318(%rip),%xmm10        # 45c0 <_sk_callback_sse2+0x3e9>
-  .byte  68,15,88,13,32,35,0,0               // addps         0x2320(%rip),%xmm9        # 45d0 <_sk_callback_sse2+0x3f9>
-  .byte  68,15,40,37,40,35,0,0               // movaps        0x2328(%rip),%xmm12        # 45e0 <_sk_callback_sse2+0x409>
+  .byte  68,15,89,13,25,35,0,0               // mulps         0x2319(%rip),%xmm9        # 4400 <_sk_callback_sse2+0x6f8>
+  .byte  68,15,84,21,33,35,0,0               // andps         0x2321(%rip),%xmm10        # 4410 <_sk_callback_sse2+0x708>
+  .byte  68,15,86,21,41,35,0,0               // orps          0x2329(%rip),%xmm10        # 4420 <_sk_callback_sse2+0x718>
+  .byte  68,15,88,13,49,35,0,0               // addps         0x2331(%rip),%xmm9        # 4430 <_sk_callback_sse2+0x728>
+  .byte  68,15,40,37,57,35,0,0               // movaps        0x2339(%rip),%xmm12        # 4440 <_sk_callback_sse2+0x738>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,40,35,0,0               // addps         0x2328(%rip),%xmm10        # 45f0 <_sk_callback_sse2+0x419>
-  .byte  68,15,40,37,48,35,0,0               // movaps        0x2330(%rip),%xmm12        # 4600 <_sk_callback_sse2+0x429>
+  .byte  68,15,88,21,57,35,0,0               // addps         0x2339(%rip),%xmm10        # 4450 <_sk_callback_sse2+0x748>
+  .byte  68,15,40,37,65,35,0,0               // movaps        0x2341(%rip),%xmm12        # 4460 <_sk_callback_sse2+0x758>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
-  .byte  69,15,91,218                        // cvtdq2ps      %xmm10,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,194,227,1                     // cmpltps       %xmm11,%xmm12
-  .byte  68,15,84,37,26,35,0,0               // andps         0x231a(%rip),%xmm12        # 4610 <_sk_callback_sse2+0x439>
-  .byte  69,15,87,210                        // xorps         %xmm10,%xmm10
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
-  .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,88,13,18,35,0,0               // addps         0x2312(%rip),%xmm9        # 4620 <_sk_callback_sse2+0x449>
-  .byte  68,15,40,29,26,35,0,0               // movaps        0x231a(%rip),%xmm11        # 4630 <_sk_callback_sse2+0x459>
-  .byte  69,15,89,220                        // mulps         %xmm12,%xmm11
-  .byte  69,15,92,203                        // subps         %xmm11,%xmm9
-  .byte  68,15,40,29,26,35,0,0               // movaps        0x231a(%rip),%xmm11        # 4640 <_sk_callback_sse2+0x469>
-  .byte  69,15,92,220                        // subps         %xmm12,%xmm11
-  .byte  68,15,40,37,30,35,0,0               // movaps        0x231e(%rip),%xmm12        # 4650 <_sk_callback_sse2+0x479>
-  .byte  69,15,94,227                        // divps         %xmm11,%xmm12
+  .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
+  .byte  68,15,40,21,43,35,0,0               // movaps        0x232b(%rip),%xmm10        # 4470 <_sk_callback_sse2+0x768>
+  .byte  69,15,84,234                        // andps         %xmm10,%xmm13
+  .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
+  .byte  69,15,92,236                        // subps         %xmm12,%xmm13
+  .byte  68,15,88,13,31,35,0,0               // addps         0x231f(%rip),%xmm9        # 4480 <_sk_callback_sse2+0x778>
+  .byte  68,15,40,37,39,35,0,0               // movaps        0x2327(%rip),%xmm12        # 4490 <_sk_callback_sse2+0x788>
+  .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
+  .byte  69,15,92,204                        // subps         %xmm12,%xmm9
+  .byte  68,15,40,37,39,35,0,0               // movaps        0x2327(%rip),%xmm12        # 44a0 <_sk_callback_sse2+0x798>
+  .byte  69,15,92,229                        // subps         %xmm13,%xmm12
+  .byte  68,15,40,45,43,35,0,0               // movaps        0x232b(%rip),%xmm13        # 44b0 <_sk_callback_sse2+0x7a8>
+  .byte  69,15,94,236                        // divps         %xmm12,%xmm13
+  .byte  69,15,88,233                        // addps         %xmm9,%xmm13
+  .byte  68,15,89,45,43,35,0,0               // mulps         0x232b(%rip),%xmm13        # 44c0 <_sk_callback_sse2+0x7b8>
+  .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
+  .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
+  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
   .byte  69,15,88,225                        // addps         %xmm9,%xmm12
-  .byte  68,15,89,37,30,35,0,0               // mulps         0x231e(%rip),%xmm12        # 4660 <_sk_callback_sse2+0x489>
-  .byte  102,69,15,91,204                    // cvtps2dq      %xmm12,%xmm9
-  .byte  243,68,15,16,88,20                  // movss         0x14(%rax),%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  69,15,88,217                        // addps         %xmm9,%xmm11
   .byte  68,15,84,195                        // andps         %xmm3,%xmm8
-  .byte  65,15,85,219                        // andnps        %xmm11,%xmm3
+  .byte  65,15,85,220                        // andnps        %xmm12,%xmm3
   .byte  65,15,86,216                        // orps          %xmm8,%xmm3
-  .byte  65,15,95,218                        // maxps         %xmm10,%xmm3
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  65,15,93,216                        // minps         %xmm8,%xmm3
+  .byte  65,15,95,219                        // maxps         %xmm11,%xmm3
+  .byte  65,15,93,218                        // minps         %xmm10,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25333,86 +25322,56 @@
 .globl _sk_lab_to_xyz_sse2
 FUNCTION(_sk_lab_to_xyz_sse2)
 _sk_lab_to_xyz_sse2:
-  .byte  184,0,0,200,66                      // mov           $0x42c80000,%eax
-  .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
-  .byte  184,0,0,127,67                      // mov           $0x437f0000,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  15,89,5,8,35,0,0                    // mulps         0x2308(%rip),%xmm0        # 44d0 <_sk_callback_sse2+0x7c8>
+  .byte  68,15,40,5,16,35,0,0                // movaps        0x2310(%rip),%xmm8        # 44e0 <_sk_callback_sse2+0x7d8>
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
-  .byte  184,0,0,0,67                        // mov           $0x43000000,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,92,200                           // subps         %xmm0,%xmm1
-  .byte  68,15,89,194                        // mulps         %xmm2,%xmm8
-  .byte  68,15,92,192                        // subps         %xmm0,%xmm8
-  .byte  184,0,0,128,65                      // mov           $0x41800000,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,88,209                        // addps         %xmm9,%xmm2
-  .byte  184,203,61,13,60                    // mov           $0x3c0d3dcb,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,194                           // mulps         %xmm2,%xmm0
-  .byte  184,111,18,3,59                     // mov           $0x3b03126f,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,89,209                           // mulps         %xmm1,%xmm2
-  .byte  15,88,208                           // addps         %xmm0,%xmm2
-  .byte  184,10,215,163,59                   // mov           $0x3ba3d70a,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
-  .byte  68,15,40,208                        // movaps        %xmm0,%xmm10
-  .byte  68,15,92,209                        // subps         %xmm1,%xmm10
-  .byte  15,40,202                           // movaps        %xmm2,%xmm1
-  .byte  15,89,201                           // mulps         %xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  184,194,24,17,60                    // mov           $0x3c1118c2,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,194,201,1                     // cmpltps       %xmm1,%xmm9
-  .byte  184,203,61,13,62                    // mov           $0x3e0d3dcb,%eax
-  .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
-  .byte  65,15,92,211                        // subps         %xmm11,%xmm2
-  .byte  184,80,128,3,62                     // mov           $0x3e038050,%eax
-  .byte  102,68,15,110,224                   // movd          %eax,%xmm12
-  .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
-  .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
-  .byte  65,15,84,201                        // andps         %xmm9,%xmm1
-  .byte  68,15,85,202                        // andnps        %xmm2,%xmm9
-  .byte  68,15,86,201                        // orps          %xmm1,%xmm9
-  .byte  15,40,208                           // movaps        %xmm0,%xmm2
-  .byte  15,89,210                           // mulps         %xmm2,%xmm2
-  .byte  15,89,208                           // mulps         %xmm0,%xmm2
-  .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
-  .byte  15,194,202,1                        // cmpltps       %xmm2,%xmm1
-  .byte  65,15,92,195                        // subps         %xmm11,%xmm0
-  .byte  65,15,89,196                        // mulps         %xmm12,%xmm0
-  .byte  15,84,209                           // andps         %xmm1,%xmm2
-  .byte  15,85,200                           // andnps        %xmm0,%xmm1
-  .byte  15,86,202                           // orps          %xmm2,%xmm1
-  .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
-  .byte  15,89,192                           // mulps         %xmm0,%xmm0
-  .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
-  .byte  68,15,194,192,1                     // cmpltps       %xmm0,%xmm8
-  .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
-  .byte  65,15,84,192                        // andps         %xmm8,%xmm0
-  .byte  69,15,85,194                        // andnps        %xmm10,%xmm8
-  .byte  68,15,86,192                        // orps          %xmm0,%xmm8
-  .byte  184,31,215,118,63                   // mov           $0x3f76d71f,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
-  .byte  184,246,64,83,63                    // mov           $0x3f5340f6,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
+  .byte  68,15,40,13,20,35,0,0               // movaps        0x2314(%rip),%xmm9        # 44f0 <_sk_callback_sse2+0x7e8>
+  .byte  65,15,88,201                        // addps         %xmm9,%xmm1
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
+  .byte  65,15,88,209                        // addps         %xmm9,%xmm2
+  .byte  15,88,5,17,35,0,0                   // addps         0x2311(%rip),%xmm0        # 4500 <_sk_callback_sse2+0x7f8>
+  .byte  15,89,5,26,35,0,0                   // mulps         0x231a(%rip),%xmm0        # 4510 <_sk_callback_sse2+0x808>
+  .byte  15,89,13,35,35,0,0                  // mulps         0x2323(%rip),%xmm1        # 4520 <_sk_callback_sse2+0x818>
+  .byte  15,88,200                           // addps         %xmm0,%xmm1
+  .byte  15,89,21,41,35,0,0                  // mulps         0x2329(%rip),%xmm2        # 4530 <_sk_callback_sse2+0x828>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  68,15,92,202                        // subps         %xmm2,%xmm9
+  .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
+  .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
+  .byte  68,15,89,225                        // mulps         %xmm1,%xmm12
+  .byte  15,40,21,30,35,0,0                  // movaps        0x231e(%rip),%xmm2        # 4540 <_sk_callback_sse2+0x838>
+  .byte  68,15,40,194                        // movaps        %xmm2,%xmm8
+  .byte  69,15,194,196,1                     // cmpltps       %xmm12,%xmm8
+  .byte  68,15,40,21,29,35,0,0               // movaps        0x231d(%rip),%xmm10        # 4550 <_sk_callback_sse2+0x848>
+  .byte  65,15,88,202                        // addps         %xmm10,%xmm1
+  .byte  68,15,40,29,33,35,0,0               // movaps        0x2321(%rip),%xmm11        # 4560 <_sk_callback_sse2+0x858>
+  .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
+  .byte  69,15,84,224                        // andps         %xmm8,%xmm12
+  .byte  68,15,85,193                        // andnps        %xmm1,%xmm8
+  .byte  69,15,86,196                        // orps          %xmm12,%xmm8
+  .byte  68,15,40,224                        // movaps        %xmm0,%xmm12
+  .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
+  .byte  68,15,89,224                        // mulps         %xmm0,%xmm12
+  .byte  15,40,202                           // movaps        %xmm2,%xmm1
+  .byte  65,15,194,204,1                     // cmpltps       %xmm12,%xmm1
+  .byte  65,15,88,194                        // addps         %xmm10,%xmm0
+  .byte  65,15,89,195                        // mulps         %xmm11,%xmm0
+  .byte  68,15,84,225                        // andps         %xmm1,%xmm12
+  .byte  15,85,200                           // andnps        %xmm0,%xmm1
+  .byte  65,15,86,204                        // orps          %xmm12,%xmm1
+  .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
+  .byte  15,89,192                           // mulps         %xmm0,%xmm0
+  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
+  .byte  15,194,208,1                        // cmpltps       %xmm0,%xmm2
+  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
+  .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
+  .byte  15,84,194                           // andps         %xmm2,%xmm0
+  .byte  65,15,85,209                        // andnps        %xmm9,%xmm2
+  .byte  15,86,208                           // orps          %xmm0,%xmm2
+  .byte  68,15,89,5,209,34,0,0               // mulps         0x22d1(%rip),%xmm8        # 4570 <_sk_callback_sse2+0x868>
+  .byte  15,89,21,218,34,0,0                 // mulps         0x22da(%rip),%xmm2        # 4580 <_sk_callback_sse2+0x878>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_load_a8_sse2
@@ -25425,11 +25384,8 @@
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,96,193                       // punpcklbw     %xmm1,%xmm0
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
-  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
+  .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
+  .byte  15,89,29,194,34,0,0                 // mulps         0x22c2(%rip),%xmm3        # 4590 <_sk_callback_sse2+0x888>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -25473,11 +25429,8 @@
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,96,193                       // punpcklbw     %xmm1,%xmm0
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
-  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
+  .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
+  .byte  15,89,29,49,34,0,0                  // mulps         0x2231(%rip),%xmm3        # 45a0 <_sk_callback_sse2+0x898>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -25490,9 +25443,7 @@
 _sk_store_a8_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,37,34,0,0                // movaps        0x2225(%rip),%xmm8        # 45b0 <_sk_callback_sse2+0x8a8>
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,65,15,114,240,16                // pslld         $0x10,%xmm8
@@ -25513,15 +25464,10 @@
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,96,193                       // punpcklbw     %xmm1,%xmm0
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,236,33,0,0                  // mulps         0x21ec(%rip),%xmm0        # 45c0 <_sk_callback_sse2+0x8b8>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,243,33,0,0                 // movaps        0x21f3(%rip),%xmm3        # 45d0 <_sk_callback_sse2+0x8c8>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -25563,15 +25509,10 @@
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,96,193                       // punpcklbw     %xmm1,%xmm0
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,104,33,0,0                  // mulps         0x2168(%rip),%xmm0        # 45e0 <_sk_callback_sse2+0x8d8>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,111,33,0,0                 // movaps        0x216f(%rip),%xmm3        # 45f0 <_sk_callback_sse2+0x8e8>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -25583,9 +25524,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  73,137,192                          // mov           %rax,%r8
   .byte  77,133,192                          // test          %r8,%r8
-  .byte  116,5                               // je            26e8 <_sk_gather_i8_sse2+0xf>
+  .byte  116,5                               // je            2498 <_sk_gather_i8_sse2+0xf>
   .byte  76,137,192                          // mov           %r8,%rax
-  .byte  235,2                               // jmp           26ea <_sk_gather_i8_sse2+0x11>
+  .byte  235,2                               // jmp           249a <_sk_gather_i8_sse2+0x11>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,16                           // mov           (%rax),%r10
   .byte  243,15,91,201                       // cvttps2dq     %xmm1,%xmm1
@@ -25634,13 +25575,11 @@
   .byte  102,67,15,110,12,136                // movd          (%r8,%r9,4),%xmm1
   .byte  102,68,15,98,201                    // punpckldq     %xmm1,%xmm9
   .byte  102,68,15,98,200                    // punpckldq     %xmm0,%xmm9
-  .byte  102,15,111,21,174,30,0,0            // movdqa        0x1eae(%rip),%xmm2        # 4670 <_sk_callback_sse2+0x499>
+  .byte  102,15,111,21,142,32,0,0            // movdqa        0x208e(%rip),%xmm2        # 4600 <_sk_callback_sse2+0x8f8>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,138,32,0,0               // movaps        0x208a(%rip),%xmm8        # 4610 <_sk_callback_sse2+0x908>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -25667,30 +25606,19 @@
   .byte  243,15,126,20,120                   // movq          (%rax,%rdi,2),%xmm2
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,97,208                       // punpcklwd     %xmm0,%xmm2
-  .byte  102,15,111,5,73,30,0,0              // movdqa        0x1e49(%rip),%xmm0        # 4680 <_sk_callback_sse2+0x4a9>
+  .byte  102,15,111,5,64,32,0,0              // movdqa        0x2040(%rip),%xmm0        # 4620 <_sk_callback_sse2+0x918>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,58,30,0,0             // movdqa        0x1e3a(%rip),%xmm1        # 4690 <_sk_callback_sse2+0x4b9>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,66,32,0,0                   // mulps         0x2042(%rip),%xmm0        # 4630 <_sk_callback_sse2+0x928>
+  .byte  102,15,111,13,74,32,0,0             // movdqa        0x204a(%rip),%xmm1        # 4640 <_sk_callback_sse2+0x938>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
-  .byte  15,91,217                           // cvtdq2ps      %xmm1,%xmm3
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,203                           // mulps         %xmm3,%xmm1
-  .byte  102,15,219,21,43,30,0,0             // pand          0x1e2b(%rip),%xmm2        # 46a0 <_sk_callback_sse2+0x4c9>
-  .byte  15,91,218                           // cvtdq2ps      %xmm2,%xmm3
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,76,32,0,0                  // mulps         0x204c(%rip),%xmm1        # 4650 <_sk_callback_sse2+0x948>
+  .byte  102,15,219,21,84,32,0,0             // pand          0x2054(%rip),%xmm2        # 4660 <_sk_callback_sse2+0x958>
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,90,32,0,0                  // mulps         0x205a(%rip),%xmm2        # 4670 <_sk_callback_sse2+0x968>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,97,32,0,0                  // movaps        0x2061(%rip),%xmm3        # 4680 <_sk_callback_sse2+0x978>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_gather_565_sse2
@@ -25725,30 +25653,19 @@
   .byte  102,15,196,208,3                    // pinsrw        $0x3,%eax,%xmm2
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,97,208                       // punpcklwd     %xmm0,%xmm2
-  .byte  102,15,111,5,146,29,0,0             // movdqa        0x1d92(%rip),%xmm0        # 46b0 <_sk_callback_sse2+0x4d9>
+  .byte  102,15,111,5,234,31,0,0             // movdqa        0x1fea(%rip),%xmm0        # 4690 <_sk_callback_sse2+0x988>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,8,33,132,55                     // mov           $0x37842108,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,131,29,0,0            // movdqa        0x1d83(%rip),%xmm1        # 46c0 <_sk_callback_sse2+0x4e9>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,236,31,0,0                  // mulps         0x1fec(%rip),%xmm0        # 46a0 <_sk_callback_sse2+0x998>
+  .byte  102,15,111,13,244,31,0,0            // movdqa        0x1ff4(%rip),%xmm1        # 46b0 <_sk_callback_sse2+0x9a8>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
-  .byte  15,91,217                           // cvtdq2ps      %xmm1,%xmm3
-  .byte  184,33,8,2,58                       // mov           $0x3a020821,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,203                           // mulps         %xmm3,%xmm1
-  .byte  102,15,219,21,116,29,0,0            // pand          0x1d74(%rip),%xmm2        # 46d0 <_sk_callback_sse2+0x4f9>
-  .byte  15,91,218                           // cvtdq2ps      %xmm2,%xmm3
-  .byte  184,8,33,4,61                       // mov           $0x3d042108,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  15,89,211                           // mulps         %xmm3,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,246,31,0,0                 // mulps         0x1ff6(%rip),%xmm1        # 46c0 <_sk_callback_sse2+0x9b8>
+  .byte  102,15,219,21,254,31,0,0            // pand          0x1ffe(%rip),%xmm2        # 46d0 <_sk_callback_sse2+0x9c8>
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,4,32,0,0                   // mulps         0x2004(%rip),%xmm2        # 46e0 <_sk_callback_sse2+0x9d8>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,11,32,0,0                  // movaps        0x200b(%rip),%xmm3        # 46f0 <_sk_callback_sse2+0x9e8>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_565_sse2
@@ -25757,16 +25674,12 @@
 _sk_store_565_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,248,65                      // mov           $0x41f80000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,12,32,0,0                // movaps        0x200c(%rip),%xmm8        # 4700 <_sk_callback_sse2+0x9f8>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,11                // pslld         $0xb,%xmm9
-  .byte  185,0,0,124,66                      // mov           $0x427c0000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
+  .byte  68,15,40,21,1,32,0,0                // movaps        0x2001(%rip),%xmm10        # 4710 <_sk_callback_sse2+0xa08>
   .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,5                 // pslld         $0x5,%xmm10
@@ -25790,33 +25703,21 @@
   .byte  243,15,126,28,120                   // movq          (%rax,%rdi,2),%xmm3
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,97,216                       // punpcklwd     %xmm0,%xmm3
-  .byte  102,15,111,5,211,28,0,0             // movdqa        0x1cd3(%rip),%xmm0        # 46e0 <_sk_callback_sse2+0x509>
+  .byte  102,15,111,5,186,31,0,0             // movdqa        0x1fba(%rip),%xmm0        # 4720 <_sk_callback_sse2+0xa18>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,196,28,0,0            // movdqa        0x1cc4(%rip),%xmm1        # 46f0 <_sk_callback_sse2+0x519>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,188,31,0,0                  // mulps         0x1fbc(%rip),%xmm0        # 4730 <_sk_callback_sse2+0xa28>
+  .byte  102,15,111,13,196,31,0,0            // movdqa        0x1fc4(%rip),%xmm1        # 4740 <_sk_callback_sse2+0xa38>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
-  .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  102,15,111,21,181,28,0,0            // movdqa        0x1cb5(%rip),%xmm2        # 4700 <_sk_callback_sse2+0x529>
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,198,31,0,0                 // mulps         0x1fc6(%rip),%xmm1        # 4750 <_sk_callback_sse2+0xa48>
+  .byte  102,15,111,21,206,31,0,0            // movdqa        0x1fce(%rip),%xmm2        # 4760 <_sk_callback_sse2+0xa58>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
-  .byte  68,15,91,194                        // cvtdq2ps      %xmm2,%xmm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  102,15,219,29,164,28,0,0            // pand          0x1ca4(%rip),%xmm3        # 4710 <_sk_callback_sse2+0x539>
-  .byte  68,15,91,195                        // cvtdq2ps      %xmm3,%xmm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,208,31,0,0                 // mulps         0x1fd0(%rip),%xmm2        # 4770 <_sk_callback_sse2+0xa68>
+  .byte  102,15,219,29,216,31,0,0            // pand          0x1fd8(%rip),%xmm3        # 4780 <_sk_callback_sse2+0xa78>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,222,31,0,0                 // mulps         0x1fde(%rip),%xmm3        # 4790 <_sk_callback_sse2+0xa88>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25852,33 +25753,21 @@
   .byte  102,15,196,216,3                    // pinsrw        $0x3,%eax,%xmm3
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,97,216                       // punpcklwd     %xmm0,%xmm3
-  .byte  102,15,111,5,22,28,0,0              // movdqa        0x1c16(%rip),%xmm0        # 4720 <_sk_callback_sse2+0x549>
+  .byte  102,15,111,5,101,31,0,0             // movdqa        0x1f65(%rip),%xmm0        # 47a0 <_sk_callback_sse2+0xa98>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
-  .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
-  .byte  184,137,136,136,55                  // mov           $0x37888889,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  102,15,111,13,7,28,0,0              // movdqa        0x1c07(%rip),%xmm1        # 4730 <_sk_callback_sse2+0x559>
+  .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
+  .byte  15,89,5,103,31,0,0                  // mulps         0x1f67(%rip),%xmm0        # 47b0 <_sk_callback_sse2+0xaa8>
+  .byte  102,15,111,13,111,31,0,0            // movdqa        0x1f6f(%rip),%xmm1        # 47c0 <_sk_callback_sse2+0xab8>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
-  .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  184,137,136,136,57                  // mov           $0x39888889,%eax
-  .byte  102,15,110,200                      // movd          %eax,%xmm1
-  .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
-  .byte  15,89,202                           // mulps         %xmm2,%xmm1
-  .byte  102,15,111,21,248,27,0,0            // movdqa        0x1bf8(%rip),%xmm2        # 4740 <_sk_callback_sse2+0x569>
+  .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
+  .byte  15,89,13,113,31,0,0                 // mulps         0x1f71(%rip),%xmm1        # 47d0 <_sk_callback_sse2+0xac8>
+  .byte  102,15,111,21,121,31,0,0            // movdqa        0x1f79(%rip),%xmm2        # 47e0 <_sk_callback_sse2+0xad8>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
-  .byte  68,15,91,194                        // cvtdq2ps      %xmm2,%xmm8
-  .byte  184,137,136,136,59                  // mov           $0x3b888889,%eax
-  .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
-  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  102,15,219,29,231,27,0,0            // pand          0x1be7(%rip),%xmm3        # 4750 <_sk_callback_sse2+0x579>
-  .byte  68,15,91,195                        // cvtdq2ps      %xmm3,%xmm8
-  .byte  184,137,136,136,61                  // mov           $0x3d888889,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  65,15,89,216                        // mulps         %xmm8,%xmm3
+  .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
+  .byte  15,89,21,123,31,0,0                 // mulps         0x1f7b(%rip),%xmm2        # 47f0 <_sk_callback_sse2+0xae8>
+  .byte  102,15,219,29,131,31,0,0            // pand          0x1f83(%rip),%xmm3        # 4800 <_sk_callback_sse2+0xaf8>
+  .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
+  .byte  15,89,29,137,31,0,0                 // mulps         0x1f89(%rip),%xmm3        # 4810 <_sk_callback_sse2+0xb08>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -25888,20 +25777,18 @@
 _sk_store_4444_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,112,65                      // mov           $0x41700000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,136,31,0,0               // movaps        0x1f88(%rip),%xmm8        # 4820 <_sk_callback_sse2+0xb18>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,12                // pslld         $0xc,%xmm9
-  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,8                 // pslld         $0x8,%xmm10
   .byte  102,69,15,235,209                   // por           %xmm9,%xmm10
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,4                 // pslld         $0x4,%xmm9
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
@@ -25922,13 +25809,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  68,15,16,12,184                     // movups        (%rax,%rdi,4),%xmm9
-  .byte  15,40,21,77,27,0,0                  // movaps        0x1b4d(%rip),%xmm2        # 4760 <_sk_callback_sse2+0x589>
+  .byte  15,40,21,27,31,0,0                  // movaps        0x1f1b(%rip),%xmm2        # 4830 <_sk_callback_sse2+0xb28>
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,84,194                           // andps         %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,25,31,0,0                // movaps        0x1f19(%rip),%xmm8        # 4840 <_sk_callback_sse2+0xb38>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,40,201                        // movaps        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -25977,13 +25862,11 @@
   .byte  102,67,15,110,12,129                // movd          (%r9,%r8,4),%xmm1
   .byte  102,68,15,98,201                    // punpckldq     %xmm1,%xmm9
   .byte  102,68,15,98,200                    // punpckldq     %xmm0,%xmm9
-  .byte  102,15,111,21,133,26,0,0            // movdqa        0x1a85(%rip),%xmm2        # 4770 <_sk_callback_sse2+0x599>
+  .byte  102,15,111,21,106,30,0,0            // movdqa        0x1e6a(%rip),%xmm2        # 4850 <_sk_callback_sse2+0xb48>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  184,129,128,128,59                  // mov           $0x3b808081,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,102,30,0,0               // movaps        0x1e66(%rip),%xmm8        # 4860 <_sk_callback_sse2+0xb58>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -26007,19 +25890,17 @@
 _sk_store_8888_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,0,127,67                      // mov           $0x437f0000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
+  .byte  68,15,40,5,41,30,0,0                // movaps        0x1e29(%rip),%xmm8        # 4870 <_sk_callback_sse2+0xb68>
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
-  .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,8                 // pslld         $0x8,%xmm10
   .byte  102,69,15,235,209                   // por           %xmm9,%xmm10
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,89,202                        // mulps         %xmm2,%xmm9
+  .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
+  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,16                // pslld         $0x10,%xmm9
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
@@ -26048,7 +25929,7 @@
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  102,65,15,111,206                   // movdqa        %xmm14,%xmm1
   .byte  102,65,15,97,202                    // punpcklwd     %xmm10,%xmm1
-  .byte  102,68,15,111,13,134,25,0,0         // movdqa        0x1986(%rip),%xmm9        # 4780 <_sk_callback_sse2+0x5a9>
+  .byte  102,68,15,111,13,153,29,0,0         // movdqa        0x1d99(%rip),%xmm9        # 4880 <_sk_callback_sse2+0xb78>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,193                   // pand          %xmm9,%xmm0
   .byte  102,15,239,200                      // pxor          %xmm0,%xmm1
@@ -26056,11 +25937,11 @@
   .byte  102,68,15,111,233                   // movdqa        %xmm1,%xmm13
   .byte  102,65,15,114,245,13                // pslld         $0xd,%xmm13
   .byte  102,68,15,235,232                   // por           %xmm0,%xmm13
-  .byte  102,68,15,111,29,107,25,0,0         // movdqa        0x196b(%rip),%xmm11        # 4790 <_sk_callback_sse2+0x5b9>
+  .byte  102,68,15,111,29,126,29,0,0         // movdqa        0x1d7e(%rip),%xmm11        # 4890 <_sk_callback_sse2+0xb88>
   .byte  102,69,15,254,235                   // paddd         %xmm11,%xmm13
-  .byte  102,68,15,111,37,109,25,0,0         // movdqa        0x196d(%rip),%xmm12        # 47a0 <_sk_callback_sse2+0x5c9>
+  .byte  102,68,15,111,37,128,29,0,0         // movdqa        0x1d80(%rip),%xmm12        # 48a0 <_sk_callback_sse2+0xb98>
   .byte  102,65,15,239,204                   // pxor          %xmm12,%xmm1
-  .byte  102,15,111,29,112,25,0,0            // movdqa        0x1970(%rip),%xmm3        # 47b0 <_sk_callback_sse2+0x5d9>
+  .byte  102,15,111,29,131,29,0,0            // movdqa        0x1d83(%rip),%xmm3        # 48b0 <_sk_callback_sse2+0xba8>
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
   .byte  102,15,102,193                      // pcmpgtd       %xmm1,%xmm0
   .byte  102,65,15,223,197                   // pandn         %xmm13,%xmm0
@@ -26146,7 +26027,7 @@
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  102,65,15,111,206                   // movdqa        %xmm14,%xmm1
   .byte  102,65,15,97,202                    // punpcklwd     %xmm10,%xmm1
-  .byte  102,68,15,111,13,254,23,0,0         // movdqa        0x17fe(%rip),%xmm9        # 47c0 <_sk_callback_sse2+0x5e9>
+  .byte  102,68,15,111,13,17,28,0,0          // movdqa        0x1c11(%rip),%xmm9        # 48c0 <_sk_callback_sse2+0xbb8>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,193                   // pand          %xmm9,%xmm0
   .byte  102,15,239,200                      // pxor          %xmm0,%xmm1
@@ -26154,11 +26035,11 @@
   .byte  102,68,15,111,233                   // movdqa        %xmm1,%xmm13
   .byte  102,65,15,114,245,13                // pslld         $0xd,%xmm13
   .byte  102,68,15,235,232                   // por           %xmm0,%xmm13
-  .byte  102,68,15,111,29,227,23,0,0         // movdqa        0x17e3(%rip),%xmm11        # 47d0 <_sk_callback_sse2+0x5f9>
+  .byte  102,68,15,111,29,246,27,0,0         // movdqa        0x1bf6(%rip),%xmm11        # 48d0 <_sk_callback_sse2+0xbc8>
   .byte  102,69,15,254,235                   // paddd         %xmm11,%xmm13
-  .byte  102,68,15,111,37,229,23,0,0         // movdqa        0x17e5(%rip),%xmm12        # 47e0 <_sk_callback_sse2+0x609>
+  .byte  102,68,15,111,37,248,27,0,0         // movdqa        0x1bf8(%rip),%xmm12        # 48e0 <_sk_callback_sse2+0xbd8>
   .byte  102,65,15,239,204                   // pxor          %xmm12,%xmm1
-  .byte  102,15,111,29,232,23,0,0            // movdqa        0x17e8(%rip),%xmm3        # 47f0 <_sk_callback_sse2+0x619>
+  .byte  102,15,111,29,251,27,0,0            // movdqa        0x1bfb(%rip),%xmm3        # 48f0 <_sk_callback_sse2+0xbe8>
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
   .byte  102,15,102,193                      // pcmpgtd       %xmm1,%xmm0
   .byte  102,65,15,223,197                   // pandn         %xmm13,%xmm0
@@ -26211,17 +26092,17 @@
 _sk_store_f16_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  102,68,15,111,21,16,23,0,0          // movdqa        0x1710(%rip),%xmm10        # 4800 <_sk_callback_sse2+0x629>
+  .byte  102,68,15,111,21,35,27,0,0          // movdqa        0x1b23(%rip),%xmm10        # 4900 <_sk_callback_sse2+0xbf8>
   .byte  102,68,15,111,224                   // movdqa        %xmm0,%xmm12
   .byte  102,68,15,111,232                   // movdqa        %xmm0,%xmm13
   .byte  102,69,15,219,234                   // pand          %xmm10,%xmm13
   .byte  102,69,15,239,229                   // pxor          %xmm13,%xmm12
-  .byte  102,68,15,111,13,3,23,0,0           // movdqa        0x1703(%rip),%xmm9        # 4810 <_sk_callback_sse2+0x639>
+  .byte  102,68,15,111,13,22,27,0,0          // movdqa        0x1b16(%rip),%xmm9        # 4910 <_sk_callback_sse2+0xc08>
   .byte  102,65,15,114,213,16                // psrld         $0x10,%xmm13
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,69,15,102,196                   // pcmpgtd       %xmm12,%xmm8
   .byte  102,65,15,114,212,13                // psrld         $0xd,%xmm12
-  .byte  102,68,15,111,29,244,22,0,0         // movdqa        0x16f4(%rip),%xmm11        # 4820 <_sk_callback_sse2+0x649>
+  .byte  102,68,15,111,29,7,27,0,0           // movdqa        0x1b07(%rip),%xmm11        # 4920 <_sk_callback_sse2+0xc18>
   .byte  102,69,15,235,235                   // por           %xmm11,%xmm13
   .byte  102,69,15,254,236                   // paddd         %xmm12,%xmm13
   .byte  102,65,15,114,245,16                // pslld         $0x10,%xmm13
@@ -26292,9 +26173,6 @@
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,15,105,208                      // punpckhwd     %xmm0,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,15,113,240,8                    // psllw         $0x8,%xmm0
   .byte  102,15,112,217,78                   // pshufd        $0x4e,%xmm1,%xmm3
@@ -26303,6 +26181,7 @@
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,65,15,97,201                    // punpcklwd     %xmm9,%xmm1
   .byte  15,91,193                           // cvtdq2ps      %xmm1,%xmm0
+  .byte  68,15,40,5,165,25,0,0               // movaps        0x19a5(%rip),%xmm8        # 4930 <_sk_callback_sse2+0xc28>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -26348,35 +26227,31 @@
   .byte  102,15,97,193                       // punpcklwd     %xmm1,%xmm0
   .byte  102,15,112,216,78                   // pshufd        $0x4e,%xmm0,%xmm3
   .byte  102,15,105,209                      // punpckhwd     %xmm1,%xmm2
-  .byte  184,128,0,128,55                    // mov           $0x37800080,%eax
-  .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,235,193                      // por           %xmm1,%xmm0
-  .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
-  .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
+  .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
+  .byte  102,65,15,97,192                    // punpcklwd     %xmm8,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
+  .byte  68,15,40,13,225,24,0,0              // movaps        0x18e1(%rip),%xmm9        # 4940 <_sk_callback_sse2+0xc38>
+  .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
   .byte  102,15,235,217                      // por           %xmm1,%xmm3
-  .byte  102,65,15,97,217                    // punpcklwd     %xmm9,%xmm3
+  .byte  102,65,15,97,216                    // punpcklwd     %xmm8,%xmm3
   .byte  15,91,203                           // cvtdq2ps      %xmm3,%xmm1
-  .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
+  .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
   .byte  102,15,111,218                      // movdqa        %xmm2,%xmm3
   .byte  102,15,113,243,8                    // psllw         $0x8,%xmm3
   .byte  102,15,113,210,8                    // psrlw         $0x8,%xmm2
   .byte  102,15,235,211                      // por           %xmm3,%xmm2
-  .byte  102,65,15,97,209                    // punpcklwd     %xmm9,%xmm2
+  .byte  102,65,15,97,208                    // punpcklwd     %xmm8,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  184,0,0,128,63                      // mov           $0x3f800000,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
+  .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  15,40,29,168,24,0,0                 // movaps        0x18a8(%rip),%xmm3        # 4950 <_sk_callback_sse2+0xc48>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_u16_be_sse2
@@ -26385,11 +26260,9 @@
 _sk_store_u16_be_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  72,139,0                            // mov           (%rax),%rax
-  .byte  185,0,255,127,71                    // mov           $0x477fff00,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
-  .byte  68,15,89,192                        // mulps         %xmm0,%xmm8
+  .byte  68,15,40,13,169,24,0,0              // movaps        0x18a9(%rip),%xmm9        # 4960 <_sk_callback_sse2+0xc58>
+  .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,65,15,114,240,16                // pslld         $0x10,%xmm8
   .byte  102,65,15,114,224,16                // psrad         $0x10,%xmm8
@@ -26398,8 +26271,8 @@
   .byte  102,65,15,113,242,8                 // psllw         $0x8,%xmm10
   .byte  102,65,15,113,208,8                 // psrlw         $0x8,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
-  .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
-  .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
+  .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
+  .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,16                // pslld         $0x10,%xmm10
   .byte  102,65,15,114,226,16                // psrad         $0x10,%xmm10
@@ -26408,8 +26281,8 @@
   .byte  102,65,15,113,243,8                 // psllw         $0x8,%xmm11
   .byte  102,65,15,113,210,8                 // psrlw         $0x8,%xmm10
   .byte  102,69,15,235,211                   // por           %xmm11,%xmm10
-  .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
-  .byte  68,15,89,218                        // mulps         %xmm2,%xmm11
+  .byte  68,15,40,218                        // movaps        %xmm2,%xmm11
+  .byte  69,15,89,217                        // mulps         %xmm9,%xmm11
   .byte  102,69,15,91,219                    // cvtps2dq      %xmm11,%xmm11
   .byte  102,65,15,114,243,16                // pslld         $0x10,%xmm11
   .byte  102,65,15,114,227,16                // psrad         $0x10,%xmm11
@@ -26537,7 +26410,7 @@
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,84,13,37,18,0,0               // andps         0x1225(%rip),%xmm9        # 4830 <_sk_callback_sse2+0x659>
+  .byte  68,15,84,13,147,22,0,0              // andps         0x1693(%rip),%xmm9        # 4970 <_sk_callback_sse2+0xc68>
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  65,15,92,194                        // subps         %xmm10,%xmm0
@@ -26559,7 +26432,7 @@
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,84,13,237,17,0,0              // andps         0x11ed(%rip),%xmm9        # 4840 <_sk_callback_sse2+0x669>
+  .byte  68,15,84,13,91,22,0,0               // andps         0x165b(%rip),%xmm9        # 4980 <_sk_callback_sse2+0xc78>
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  65,15,92,202                        // subps         %xmm10,%xmm1
@@ -26585,7 +26458,7 @@
   .byte  243,69,15,91,218                    // cvttps2dq     %xmm10,%xmm11
   .byte  69,15,91,219                        // cvtdq2ps      %xmm11,%xmm11
   .byte  69,15,194,211,1                     // cmpltps       %xmm11,%xmm10
-  .byte  68,15,84,21,163,17,0,0              // andps         0x11a3(%rip),%xmm10        # 4850 <_sk_callback_sse2+0x679>
+  .byte  68,15,84,21,17,22,0,0               // andps         0x1611(%rip),%xmm10        # 4990 <_sk_callback_sse2+0xc88>
   .byte  69,15,87,228                        // xorps         %xmm12,%xmm12
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
   .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
@@ -26615,7 +26488,7 @@
   .byte  243,69,15,91,218                    // cvttps2dq     %xmm10,%xmm11
   .byte  69,15,91,219                        // cvtdq2ps      %xmm11,%xmm11
   .byte  69,15,194,211,1                     // cmpltps       %xmm11,%xmm10
-  .byte  68,15,84,21,73,17,0,0               // andps         0x1149(%rip),%xmm10        # 4860 <_sk_callback_sse2+0x689>
+  .byte  68,15,84,21,183,21,0,0              // andps         0x15b7(%rip),%xmm10        # 49a0 <_sk_callback_sse2+0xc98>
   .byte  69,15,87,228                        // xorps         %xmm12,%xmm12
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
   .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
@@ -26633,20 +26506,12 @@
 .globl _sk_luminance_to_alpha_sse2
 FUNCTION(_sk_luminance_to_alpha_sse2)
 _sk_luminance_to_alpha_sse2:
-  .byte  184,208,179,89,62                   // mov           $0x3e59b3d0,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,216                           // mulps         %xmm0,%xmm3
-  .byte  184,89,23,55,63                     // mov           $0x3f371759,%eax
-  .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  15,198,192,0                        // shufps        $0x0,%xmm0,%xmm0
-  .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  15,88,195                           // addps         %xmm3,%xmm0
-  .byte  184,152,221,147,61                  // mov           $0x3d93dd98,%eax
-  .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
-  .byte  15,89,218                           // mulps         %xmm2,%xmm3
-  .byte  15,88,216                           // addps         %xmm0,%xmm3
+  .byte  15,40,218                           // movaps        %xmm2,%xmm3
+  .byte  15,89,5,143,21,0,0                  // mulps         0x158f(%rip),%xmm0        # 49b0 <_sk_callback_sse2+0xca8>
+  .byte  15,89,13,152,21,0,0                 // mulps         0x1598(%rip),%xmm1        # 49c0 <_sk_callback_sse2+0xcb8>
+  .byte  15,88,200                           // addps         %xmm0,%xmm1
+  .byte  15,89,29,158,21,0,0                 // mulps         0x159e(%rip),%xmm3        # 49d0 <_sk_callback_sse2+0xcc8>
+  .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
@@ -26878,7 +26743,7 @@
   .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
   .byte  72,139,8                            // mov           (%rax),%rcx
   .byte  72,133,201                          // test          %rcx,%rcx
-  .byte  15,132,15,1,0,0                     // je            3c2b <_sk_linear_gradient_sse2+0x149>
+  .byte  15,132,15,1,0,0                     // je            38e5 <_sk_linear_gradient_sse2+0x149>
   .byte  72,139,64,8                         // mov           0x8(%rax),%rax
   .byte  72,131,192,32                       // add           $0x20,%rax
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
@@ -26939,8 +26804,8 @@
   .byte  69,15,86,231                        // orps          %xmm15,%xmm12
   .byte  72,131,192,36                       // add           $0x24,%rax
   .byte  72,255,201                          // dec           %rcx
-  .byte  15,133,8,255,255,255                // jne           3b31 <_sk_linear_gradient_sse2+0x4f>
-  .byte  235,13                              // jmp           3c38 <_sk_linear_gradient_sse2+0x156>
+  .byte  15,133,8,255,255,255                // jne           37eb <_sk_linear_gradient_sse2+0x4f>
+  .byte  235,13                              // jmp           38f2 <_sk_linear_gradient_sse2+0x156>
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
@@ -26995,16 +26860,15 @@
 FUNCTION(_sk_save_xy_sse2)
 _sk_save_xy_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
-  .byte  68,15,88,200                        // addps         %xmm0,%xmm9
+  .byte  68,15,40,5,79,16,0,0                // movaps        0x104f(%rip),%xmm8        # 49e0 <_sk_callback_sse2+0xcd8>
+  .byte  15,17,0                             // movups        %xmm0,(%rax)
+  .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
+  .byte  69,15,88,200                        // addps         %xmm8,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
   .byte  69,15,194,218,1                     // cmpltps       %xmm10,%xmm11
-  .byte  68,15,40,37,112,11,0,0              // movaps        0xb70(%rip),%xmm12        # 4870 <_sk_callback_sse2+0x699>
+  .byte  68,15,40,37,58,16,0,0               // movaps        0x103a(%rip),%xmm12        # 49f0 <_sk_callback_sse2+0xce8>
   .byte  69,15,84,220                        // andps         %xmm12,%xmm11
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
@@ -27016,7 +26880,6 @@
   .byte  69,15,84,220                        // andps         %xmm12,%xmm11
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
   .byte  69,15,92,194                        // subps         %xmm10,%xmm8
-  .byte  15,17,0                             // movups        %xmm0,(%rax)
   .byte  15,17,72,32                         // movups        %xmm1,0x20(%rax)
   .byte  68,15,17,72,64                      // movups        %xmm9,0x40(%rax)
   .byte  68,15,17,64,96                      // movups        %xmm8,0x60(%rax)
@@ -27050,17 +26913,12 @@
 FUNCTION(_sk_bilinear_nx_sse2)
 _sk_bilinear_nx_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,179,15,0,0                  // addps         0xfb3(%rip),%xmm0        # 4a00 <_sk_callback_sse2+0xcf8>
+  .byte  68,15,40,13,187,15,0,0              // movaps        0xfbb(%rip),%xmm9        # 4a10 <_sk_callback_sse2+0xd08>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27069,13 +26927,10 @@
 FUNCTION(_sk_bilinear_px_sse2)
 _sk_bilinear_px_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,170,15,0,0                  // addps         0xfaa(%rip),%xmm0        # 4a20 <_sk_callback_sse2+0xd18>
+  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27084,17 +26939,12 @@
 FUNCTION(_sk_bilinear_ny_sse2)
 _sk_bilinear_ny_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,156,15,0,0                 // addps         0xf9c(%rip),%xmm1        # 4a30 <_sk_callback_sse2+0xd28>
+  .byte  68,15,40,13,164,15,0,0              // movaps        0xfa4(%rip),%xmm9        # 4a40 <_sk_callback_sse2+0xd38>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27103,13 +26953,10 @@
 FUNCTION(_sk_bilinear_py_sse2)
 _sk_bilinear_py_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,146,15,0,0                 // addps         0xf92(%rip),%xmm1        # 4a50 <_sk_callback_sse2+0xd48>
+  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27118,25 +26965,15 @@
 FUNCTION(_sk_bicubic_n3x_sse2)
 _sk_bicubic_n3x_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,191                     // mov           $0xbfc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,133,15,0,0                  // addps         0xf85(%rip),%xmm0        # 4a60 <_sk_callback_sse2+0xd58>
+  .byte  68,15,40,13,141,15,0,0              // movaps        0xf8d(%rip),%xmm9        # 4a70 <_sk_callback_sse2+0xd68>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
+  .byte  68,15,89,13,137,15,0,0              // mulps         0xf89(%rip),%xmm9        # 4a80 <_sk_callback_sse2+0xd78>
+  .byte  68,15,88,13,145,15,0,0              // addps         0xf91(%rip),%xmm9        # 4a90 <_sk_callback_sse2+0xd88>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -27147,35 +26984,19 @@
 FUNCTION(_sk_bicubic_n1x_sse2)
 _sk_bicubic_n1x_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,128,15,0,0                  // addps         0xf80(%rip),%xmm0        # 4aa0 <_sk_callback_sse2+0xd98>
+  .byte  68,15,40,13,136,15,0,0              // movaps        0xf88(%rip),%xmm9        # 4ab0 <_sk_callback_sse2+0xda8>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,40,5,140,15,0,0               // movaps        0xf8c(%rip),%xmm8        # 4ac0 <_sk_callback_sse2+0xdb8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,144,15,0,0               // addps         0xf90(%rip),%xmm8        # 4ad0 <_sk_callback_sse2+0xdc8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,148,15,0,0               // addps         0xf94(%rip),%xmm8        # 4ae0 <_sk_callback_sse2+0xdd8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,152,15,0,0               // addps         0xf98(%rip),%xmm8        # 4af0 <_sk_callback_sse2+0xde8>
+  .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27184,27 +27005,17 @@
 FUNCTION(_sk_bicubic_p1x_sse2)
 _sk_bicubic_p1x_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,146,15,0,0               // movaps        0xf92(%rip),%xmm8        # 4b00 <_sk_callback_sse2+0xdf8>
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,217                   // movd          %ecx,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
+  .byte  68,15,40,21,142,15,0,0              // movaps        0xf8e(%rip),%xmm10        # 4b10 <_sk_callback_sse2+0xe08>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,211                        // addps         %xmm11,%xmm10
+  .byte  68,15,88,21,146,15,0,0              // addps         0xf92(%rip),%xmm10        # 4b20 <_sk_callback_sse2+0xe18>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,208                        // addps         %xmm8,%xmm10
+  .byte  68,15,88,21,142,15,0,0              // addps         0xf8e(%rip),%xmm10        # 4b30 <_sk_callback_sse2+0xe28>
   .byte  68,15,17,144,128,0,0,0              // movups        %xmm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -27214,21 +27025,13 @@
 FUNCTION(_sk_bicubic_p3x_sse2)
 _sk_bicubic_p3x_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,0                             // movups        (%rax),%xmm0
-  .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
-  .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
+  .byte  15,88,5,129,15,0,0                  // addps         0xf81(%rip),%xmm0        # 4b40 <_sk_callback_sse2+0xe38>
+  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,88,194                        // addps         %xmm10,%xmm8
+  .byte  68,15,89,5,129,15,0,0               // mulps         0xf81(%rip),%xmm8        # 4b50 <_sk_callback_sse2+0xe48>
+  .byte  68,15,88,5,137,15,0,0               // addps         0xf89(%rip),%xmm8        # 4b60 <_sk_callback_sse2+0xe58>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -27239,25 +27042,15 @@
 FUNCTION(_sk_bicubic_n3y_sse2)
 _sk_bicubic_n3y_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,191                     // mov           $0xbfc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,119,15,0,0                 // addps         0xf77(%rip),%xmm1        # 4b70 <_sk_callback_sse2+0xe68>
+  .byte  68,15,40,13,127,15,0,0              // movaps        0xf7f(%rip),%xmm9        # 4b80 <_sk_callback_sse2+0xe78>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
+  .byte  68,15,89,13,123,15,0,0              // mulps         0xf7b(%rip),%xmm9        # 4b90 <_sk_callback_sse2+0xe88>
+  .byte  68,15,88,13,131,15,0,0              // addps         0xf83(%rip),%xmm9        # 4ba0 <_sk_callback_sse2+0xe98>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -27268,35 +27061,19 @@
 FUNCTION(_sk_bicubic_n1y_sse2)
 _sk_bicubic_n1y_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,191                       // mov           $0xbf000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,0,0,128,63                      // mov           $0x3f800000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,92,193                        // subps         %xmm9,%xmm8
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
-  .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
-  .byte  69,15,88,202                        // addps         %xmm10,%xmm9
-  .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,113,15,0,0                 // addps         0xf71(%rip),%xmm1        # 4bb0 <_sk_callback_sse2+0xea8>
+  .byte  68,15,40,13,121,15,0,0              // movaps        0xf79(%rip),%xmm9        # 4bc0 <_sk_callback_sse2+0xeb8>
+  .byte  69,15,92,200                        // subps         %xmm8,%xmm9
+  .byte  68,15,40,5,125,15,0,0               // movaps        0xf7d(%rip),%xmm8        # 4bd0 <_sk_callback_sse2+0xec8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,129,15,0,0               // addps         0xf81(%rip),%xmm8        # 4be0 <_sk_callback_sse2+0xed8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,133,15,0,0               // addps         0xf85(%rip),%xmm8        # 4bf0 <_sk_callback_sse2+0xee8>
+  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,88,5,137,15,0,0               // addps         0xf89(%rip),%xmm8        # 4c00 <_sk_callback_sse2+0xef8>
+  .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -27305,27 +27082,17 @@
 FUNCTION(_sk_bicubic_p1y_sse2)
 _sk_bicubic_p1y_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,0,63                        // mov           $0x3f000000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
+  .byte  68,15,40,5,131,15,0,0               // movaps        0xf83(%rip),%xmm8        # 4c10 <_sk_callback_sse2+0xf08>
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
   .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,85,85,149,191                   // mov           $0xbf955555,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,217                   // movd          %ecx,%xmm11
-  .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
+  .byte  68,15,40,21,126,15,0,0              // movaps        0xf7e(%rip),%xmm10        # 4c20 <_sk_callback_sse2+0xf18>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,211                        // addps         %xmm11,%xmm10
+  .byte  68,15,88,21,130,15,0,0              // addps         0xf82(%rip),%xmm10        # 4c30 <_sk_callback_sse2+0xf28>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
-  .byte  185,57,142,99,61                    // mov           $0x3d638e39,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  69,15,88,208                        // addps         %xmm8,%xmm10
+  .byte  68,15,88,21,126,15,0,0              // addps         0xf7e(%rip),%xmm10        # 4c40 <_sk_callback_sse2+0xf38>
   .byte  68,15,17,144,160,0,0,0              // movups        %xmm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -27335,21 +27102,13 @@
 FUNCTION(_sk_bicubic_p3y_sse2)
 _sk_bicubic_p3y_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  185,0,0,192,63                      // mov           $0x3fc00000,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
-  .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
-  .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  185,114,28,199,62                   // mov           $0x3ec71c72,%ecx
-  .byte  102,68,15,110,193                   // movd          %ecx,%xmm8
-  .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
+  .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
+  .byte  15,88,13,112,15,0,0                 // addps         0xf70(%rip),%xmm1        # 4c50 <_sk_callback_sse2+0xf48>
+  .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  185,171,170,170,190                 // mov           $0xbeaaaaab,%ecx
-  .byte  102,68,15,110,209                   // movd          %ecx,%xmm10
-  .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
-  .byte  69,15,88,194                        // addps         %xmm10,%xmm8
+  .byte  68,15,89,5,112,15,0,0               // mulps         0xf70(%rip),%xmm8        # 4c60 <_sk_callback_sse2+0xf58>
+  .byte  68,15,88,5,120,15,0,0               // addps         0xf78(%rip),%xmm8        # 4c70 <_sk_callback_sse2+0xf68>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -27439,6 +27198,249 @@
   .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,191,0,0,128,191,0               // cmpb          $0x0,-0x40800000(%rdi)
+  .byte  0,128,191,0,0,128                   // add           %al,-0x7fffff41(%rax)
+  .byte  191,0,0,224,64                      // mov           $0x40e00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3f68 <.literal16+0x188>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3f6c <.literal16+0x18c>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  224,64                              // loopne        3f70 <.literal16+0x190>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  145                                 // xchg          %eax,%ecx
+  .byte  131,158,61,145,131,158,61           // sbbl          $0x3d,-0x617c6ec3(%rsi)
+  .byte  145                                 // xchg          %eax,%ecx
+  .byte  131,158,61,145,131,158,61           // sbbl          $0x3d,-0x617c6ec3(%rsi)
+  .byte  154                                 // (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,154                              // ds            (bad)
+  .byte  153                                 // cltd
+  .byte  153                                 // cltd
+  .byte  62,92                               // ds            pop %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  92                                  // pop           %rsp
+  .byte  143                                 // (bad)
+  .byte  50,63                               // xor           (%rdi),%bh
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  35,59                               // and           (%rbx),%edi
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,174,71,97,61                     // cmp           $0x3d6147ae,%eax
+  .byte  174                                 // scas          %es:(%rdi),%al
+  .byte  71,97                               // rex.RXB       (bad)
+  .byte  61,174,71,97,61                     // cmp           $0x3d6147ae,%eax
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  41,92,71,65                         // sub           %ebx,0x41(%rdi,%rax,2)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  206                                 // (bad)
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  48,63                               // xor           %bh,(%rdi)
+  .byte  168,87                              // test          $0x57,%al
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,168                         // lret          $0xa8bd
+  .byte  87                                  // push          %rdi
+  .byte  202,189,194                         // lret          $0xc2bd
+  .byte  135,210                             // xchg          %edx,%edx
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,194,135,210                      // ds            retq $0xd287
+  .byte  62,0,0                              // add           %al,%ds:(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,4                            // cmpb          $0x4,(%rdi)
+  .byte  231,140                             // out           %eax,$0x8c
+  .byte  59,4,231                            // cmp           (%rdi,%riz,8),%eax
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  4,231                               // add           $0xe7,%al
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  4,231                               // add           $0xe7,%al
+  .byte  140,59                              // mov           %?,(%rbx)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  192,64,0,0                          // rolb          $0x0,0x0(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  0,64,0                              // add           %al,0x0(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,0,0                          // addb          $0x0,0x0(%rax)
+  .byte  128,64,171,170                      // addb          $0xaa,-0x55(%rax)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  42,62                               // sub           (%rsi),%bh
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
@@ -27447,14 +27449,30 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42e9 <.literal16+0x39>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        40b9 <.literal16+0x2d9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42ed <.literal16+0x3d>
+  .byte  224,7                               // loopne        40bd <.literal16+0x2dd>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42f1 <.literal16+0x41>
+  .byte  224,7                               // loopne        40c1 <.literal16+0x2e1>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        42f5 <.literal16+0x45>
+  .byte  224,7                               // loopne        40c5 <.literal16+0x2e5>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -27463,7 +27481,18 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,255                          // cmpb          $0xff,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,255                               // add           %bh,%bh
   .byte  0,0                                 // add           %al,(%rax)
@@ -27471,23 +27500,48 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,255                               // add           %bh,%bh
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
+  .byte  0,129,128,128,59,129                // add           %al,-0x7ec47f80(%rcx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,255,0,255,0,255,0    // addl          $0xff00ff,0xff3b80(%rax)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,255                               // add           %bh,%bh
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            41ab <.literal16+0x3cb>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            41af <.literal16+0x3cf>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            41b3 <.literal16+0x3d3>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,0                                // xor           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -27497,16 +27551,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4344 <.literal16+0x94>
+  .byte  127,0                               // jg            41a4 <.literal16+0x3c4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4348 <.literal16+0x98>
+  .byte  127,0                               // jg            41a8 <.literal16+0x3c8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            434c <.literal16+0x9c>
+  .byte  127,0                               // jg            41ac <.literal16+0x3cc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4350 <.literal16+0xa0>
+  .byte  127,0                               // jg            41b0 <.literal16+0x3d0>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27515,7 +27569,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            43d5 <.literal16+0x125>
+  .byte  119,115                             // ja            4235 <.literal16+0x455>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -27526,7 +27580,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           4339 <.literal16+0x89>
+  .byte  117,191                             // jne           4199 <.literal16+0x3b9>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -27538,7 +27592,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3837a <_sk_callback_sse2+0xffffffffe9a341a3>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a381da <_sk_callback_sse2+0xffffffffe9a344d2>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
@@ -27592,16 +27646,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4414 <.literal16+0x164>
+  .byte  127,0                               // jg            4274 <.literal16+0x494>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4418 <.literal16+0x168>
+  .byte  127,0                               // jg            4278 <.literal16+0x498>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            441c <.literal16+0x16c>
+  .byte  127,0                               // jg            427c <.literal16+0x49c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            4420 <.literal16+0x170>
+  .byte  127,0                               // jg            4280 <.literal16+0x4a0>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27610,7 +27664,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            44a5 <.literal16+0x1f5>
+  .byte  119,115                             // ja            4305 <.literal16+0x525>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -27621,7 +27675,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           4409 <.literal16+0x159>
+  .byte  117,191                             // jne           4269 <.literal16+0x489>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -27633,7 +27687,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3844a <_sk_callback_sse2+0xffffffffe9a34273>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a382aa <_sk_callback_sse2+0xffffffffe9a345a2>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
@@ -27687,16 +27741,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            44e4 <.literal16+0x234>
+  .byte  127,0                               // jg            4344 <.literal16+0x564>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            44e8 <.literal16+0x238>
+  .byte  127,0                               // jg            4348 <.literal16+0x568>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            44ec <.literal16+0x23c>
+  .byte  127,0                               // jg            434c <.literal16+0x56c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            44f0 <.literal16+0x240>
+  .byte  127,0                               // jg            4350 <.literal16+0x570>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27705,7 +27759,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4575 <.literal16+0x2c5>
+  .byte  119,115                             // ja            43d5 <.literal16+0x5f5>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -27716,7 +27770,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           44d9 <.literal16+0x229>
+  .byte  117,191                             // jne           4339 <.literal16+0x559>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -27728,7 +27782,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3851a <_sk_callback_sse2+0xffffffffe9a34343>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3837a <_sk_callback_sse2+0xffffffffe9a34672>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
@@ -27782,16 +27836,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            45b4 <.literal16+0x304>
+  .byte  127,0                               // jg            4414 <.literal16+0x634>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            45b8 <.literal16+0x308>
+  .byte  127,0                               // jg            4418 <.literal16+0x638>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            45bc <.literal16+0x30c>
+  .byte  127,0                               // jg            441c <.literal16+0x63c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            45c0 <.literal16+0x310>
+  .byte  127,0                               // jg            4420 <.literal16+0x640>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27800,7 +27854,7 @@
   .byte  0,63                                // add           %bh,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,63                                // add           %bh,(%rdi)
-  .byte  119,115                             // ja            4645 <.literal16+0x395>
+  .byte  119,115                             // ja            44a5 <.literal16+0x6c5>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -27811,7 +27865,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           45a9 <.literal16+0x2f9>
+  .byte  117,191                             // jne           4409 <.literal16+0x629>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -27823,7 +27877,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a385ea <_sk_callback_sse2+0xffffffffe9a34413>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a3844a <_sk_callback_sse2+0xffffffffe9a34742>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
@@ -27868,7 +27922,105 @@
   .byte  75,0,0                              // rex.WXB       add %al,(%r8)
   .byte  0,75,0                              // add           %cl,0x0(%rbx)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  75,255,0                            // rex.WXB       incq (%r8)
+  .byte  75,0,0                              // rex.WXB       add %al,(%r8)
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  200,66,0,0                          // enterq        $0x42,$0x0
+  .byte  127,67                              // jg            4527 <.literal16+0x747>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            452b <.literal16+0x74b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            452f <.literal16+0x74f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            4533 <.literal16+0x753>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,195                               // add           %al,%bl
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,0,0                          // addb          $0x0,0x0(%rcx)
+  .byte  128,65,203,61                       // addb          $0x3d,-0x35(%rcx)
+  .byte  13,60,203,61,13                     // or            $0xd3dcb3c,%eax
+  .byte  60,203                              // cmp           $0xcb,%al
+  .byte  61,13,60,203,61                     // cmp           $0x3dcb3c0d,%eax
+  .byte  13,60,111,18,3                      // or            $0x3126f3c,%eax
+  .byte  59,111,18                           // cmp           0x12(%rdi),%ebp
+  .byte  3,59                                // add           (%rbx),%edi
+  .byte  111                                 // outsl         %ds:(%rsi),(%dx)
+  .byte  18,3                                // adc           (%rbx),%al
+  .byte  59,111,18                           // cmp           0x12(%rdi),%ebp
+  .byte  3,59                                // add           (%rbx),%edi
+  .byte  10,215                              // or            %bh,%dl
+  .byte  163,59,10,215,163,59,10,215,163     // movabs        %eax,0xa3d70a3ba3d70a3b
+  .byte  59,10                               // cmp           (%rdx),%ecx
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  163,59,194,24,17,60,194,24,17       // movabs        %eax,0x1118c23c1118c23b
+  .byte  60,194                              // cmp           $0xc2,%al
+  .byte  24,17                               // sbb           %dl,(%rcx)
+  .byte  60,194                              // cmp           $0xc2,%al
+  .byte  24,17                               // sbb           %dl,(%rcx)
+  .byte  60,203                              // cmp           $0xcb,%al
+  .byte  61,13,190,203,61                    // cmp           $0x3dcbbe0d,%eax
+  .byte  13,190,203,61,13                    // or            $0xd3dcbbe,%eax
+  .byte  190,203,61,13,190                   // mov           $0xbe0d3dcb,%esi
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  80                                  // push          %rax
+  .byte  128,3,62                            // addb          $0x3e,(%rbx)
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           45b3 <.literal16+0x7d3>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           45b7 <.literal16+0x7d7>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           45bb <.literal16+0x7db>
+  .byte  31                                  // (bad)
+  .byte  215                                 // xlat          %ds:(%rbx)
+  .byte  118,63                              // jbe           45bf <.literal16+0x7df>
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,129,128,128,59           // addb          $0x3b,-0x7f7f7ec5(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,0                            // cmpb          $0x0,(%rbx)
+  .byte  0,127,67                            // add           %bh,0x43(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            45fb <.literal16+0x81b>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            45ff <.literal16+0x81f>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  127,67                              // jg            4603 <.literal16+0x823>
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,0,128,63               // addb          $0x3f,-0x7fffffc5(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,0,128,63               // addb          $0x3f,-0x7fffffc5(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27876,22 +28028,39 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,248,0,0                // addb          $0x0,0xf8003b(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,248                               // add           %bh,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        4649 <.literal16+0x869>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        4699 <.literal16+0x3e9>
+  .byte  224,7                               // loopne        464d <.literal16+0x86d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        469d <.literal16+0x3ed>
+  .byte  224,7                               // loopne        4651 <.literal16+0x871>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46a1 <.literal16+0x3f1>
+  .byte  224,7                               // loopne        4655 <.literal16+0x875>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46a5 <.literal16+0x3f5>
-  .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -27900,7 +28069,18 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
   .byte  248                                 // clc
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
@@ -27909,14 +28089,30 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,248                               // add           %bh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46c9 <.literal16+0x419>
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  132,55                              // test          %dh,(%rdi)
+  .byte  224,7                               // loopne        46b9 <.literal16+0x8d9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46cd <.literal16+0x41d>
+  .byte  224,7                               // loopne        46bd <.literal16+0x8dd>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46d1 <.literal16+0x421>
+  .byte  224,7                               // loopne        46c1 <.literal16+0x8e1>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        46d5 <.literal16+0x425>
+  .byte  224,7                               // loopne        46c5 <.literal16+0x8e5>
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
+  .byte  33,8                                // and           %ecx,(%rax)
+  .byte  2,58                                // add           (%rdx),%bh
   .byte  31                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
@@ -27925,7 +28121,57 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,31                                // add           %bl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,8                                 // add           %cl,(%rax)
+  .byte  33,4,61,8,33,4,61                   // and           %eax,0x3d042108(,%rdi,1)
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
+  .byte  8,33                                // or            %ah,(%rcx)
+  .byte  4,61                                // add           $0x3d,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,248                               // add           %bh,%al
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  248                                 // clc
+  .byte  65,0,0                              // add           %al,(%r8)
+  .byte  124,66                              // jl            4756 <.literal16+0x976>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            475a <.literal16+0x97a>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            475e <.literal16+0x97e>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  124,66                              // jl            4762 <.literal16+0x982>
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
   .byte  240,0,0                             // lock          add %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -27933,6 +28179,31 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,59,137                // add           %cl,-0x76c47778(%rcx)
+  .byte  136,136,59,137,136,136              // mov           %cl,-0x777776c5(%rax)
+  .byte  59,137,136,136,59,15                // cmp           0xf3b8888(%rcx),%ecx
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,61,137                // add           %cl,-0x76c27778(%rcx)
+  .byte  136,136,61,137,136,136              // mov           %cl,-0x777776c3(%rax)
+  .byte  61,137,136,136,61                   // cmp           $0x3d888889,%eax
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
+  .byte  137,136,136,55,137,136              // mov           %ecx,-0x7776c878(%rax)
+  .byte  136,55                              // mov           %dh,(%rdi)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
@@ -27941,6 +28212,10 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
+  .byte  137,136,136,57,137,136              // mov           %ecx,-0x7776c678(%rax)
+  .byte  136,57                              // mov           %bh,(%rcx)
   .byte  240,0,0                             // lock          add %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -27948,7 +28223,9 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  0,137,136,136,59,137                // add           %cl,-0x76c47778(%rcx)
+  .byte  136,136,59,137,136,136              // mov           %cl,-0x777776c5(%rax)
+  .byte  59,137,136,136,59,15                // cmp           0xf3b8888(%rcx),%ecx
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
@@ -27956,58 +28233,48 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,15                                // add           %cl,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,137,136,136,61,137                // add           %cl,-0x76c27778(%rcx)
+  .byte  136,136,61,137,136,136              // mov           %cl,-0x777776c3(%rax)
+  .byte  61,137,136,136,61                   // cmp           $0x3d888889,%eax
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            4865 <.literal16+0xa85>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            4869 <.literal16+0xa89>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  112,65                              // jo            486d <.literal16+0xa8d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  112,65                              // jo            4871 <.literal16+0xa91>
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  240,0,0                             // lock          add %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,255,0,0,0                // addb          $0x0,0xff3b(%rax)
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,240                               // add           %dh,%al
+  .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  129,128,128,59,129,128,128,59,129,128// addl          $0x80813b80,-0x7f7ec480(%rax)
+  .byte  128,59,129                          // cmpb          $0x81,(%rbx)
+  .byte  128,128,59,0,0,127,67               // addb          $0x43,0x7f00003b(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  127,67                              // jg            48bb <.literal16+0xadb>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
+  .byte  127,67                              // jg            48bf <.literal16+0xadf>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,15                                // add           %cl,(%rdi)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,255                               // add           %bh,%bh
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,0                                 // add           %al,(%rax)
-  .byte  128,0,0                             // addb          $0x0,(%rax)
+  .byte  127,67                              // jg            48c3 <.literal16+0xae3>
   .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,128,0,0,0,0                       // add           %al,0x0(%rax)
+  .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
   .byte  0,56                                // add           %bh,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,56                                // add           %bh,(%rax)
@@ -28058,11 +28325,35 @@
   .byte  64,254                              // rex           (bad)
   .byte  255,0                               // incl          (%rax)
   .byte  64,254                              // rex           (bad)
-  .byte  255,0                               // incl          (%rax)
+  .byte  255,128,0,128,55,128                // incl          -0x7fc88000(%rax)
+  .byte  0,128,55,128,0,128                  // add           %al,-0x7fff7fc9(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  128,0,128                           // addb          $0x80,(%rax)
+  .byte  55                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
   .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
   .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  255                                 // (bad)
+  .byte  127,71                              // jg            49ab <.literal16+0xbcb>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            49af <.literal16+0xbcf>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            49b3 <.literal16+0xbd3>
+  .byte  0,255                               // add           %bh,%bh
+  .byte  127,71                              // jg            49b7 <.literal16+0xbd7>
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
   .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
   .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
@@ -28082,7 +28373,302 @@
   .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
   .byte  63                                  // (bad)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,208                          // cmpb          $0xd0,(%rdi)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,208                              // ds            (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,89                               // ds            pop %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  89                                  // pop           %rcx
+  .byte  23                                  // (bad)
+  .byte  55                                  // (bad)
+  .byte  63                                  // (bad)
+  .byte  152                                 // cwtl
+  .byte  221,147,61,152,221,147              // fstl          -0x6c2267c3(%rbx)
+  .byte  61,152,221,147,61                   // cmp           $0x3d93dd98,%eax
+  .byte  152                                 // cwtl
+  .byte  221,147,61,0,0,0                    // fstl          0x3d(%rbx)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
   .byte  128,63,0                            // cmpb          $0x0,(%rdi)
   .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
   .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  191,0,0,0,191                       // mov           $0xbf000000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,192,191,0               // sarb          $0x0,-0x40400000(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  191,0,0,192,191                     // mov           $0xbfc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,114                          // cmpb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,114,28                           // jb,pt         4aa2 <.literal16+0xcc2>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4aa6 <.literal16+0xcc6>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4aaa <.literal16+0xcca>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d935 <_sk_callback_sse2+0x3d639c2d>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63d975 <_sk_callback_sse2+0x3d639c6d>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  114,28                              // jb            4b6e <.literal16+0xd8e>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4b72 <.literal16+0xd92>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4b76 <.literal16+0xd96>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4b7a <.literal16+0xd9a>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,191,0,0,192,191,0               // sarb          $0x0,-0x40400000(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  191,0,0,192,191                     // mov           $0xbfc00000,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,114                          // cmpb          $0x72,(%rdi)
+  .byte  28,199                              // sbb           $0xc7,%al
+  .byte  62,114,28                           // jb,pt         4bb2 <.literal16+0xdd2>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4bb6 <.literal16+0xdd6>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4bba <.literal16+0xdda>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,191,0,0,0,191                     // add           %bh,-0x41000000(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,0                            // cmpb          $0x0,(%rdi)
+  .byte  0,128,63,0,0,128                    // add           %al,-0x7fffffc1(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  128,63,85                           // cmpb          $0x55,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63da45 <_sk_callback_sse2+0x3d639d3d>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,63                                // add           %bh,(%rdi)
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  85                                  // push          %rbp
+  .byte  85                                  // push          %rbp
+  .byte  149                                 // xchg          %eax,%ebp
+  .byte  191,85,85,149,191                   // mov           $0xbf955555,%edi
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d63da85 <_sk_callback_sse2+0x3d639d7d>
+  .byte  57,142,99,61,0,0                    // cmp           %ecx,0x3d63(%rsi)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,192                               // add           %al,%al
+  .byte  63                                  // (bad)
+  .byte  114,28                              // jb            4c7e <.literal16+0xe9e>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4c82 <_sk_callback_sse2+0xf7a>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4c86 <_sk_callback_sse2+0xf7e>
+  .byte  199                                 // (bad)
+  .byte  62,114,28                           // jb,pt         4c8a <_sk_callback_sse2+0xf82>
+  .byte  199                                 // (bad)
+  .byte  62,171                              // ds            stos %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
+  .byte  171                                 // stos          %eax,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  170                                 // stos          %al,%es:(%rdi)
+  .byte  190,171,170,170,190                 // mov           $0xbeaaaaab,%esi
 #endif