add _skx stages

This just makes sure all the plumbing is in place to use the Skylake
Xeon subset of AVX-512 instructions.  So far,

  - no Windows
  - no lowp
  - nothing explicitly making use of AVX-512 registers or instructions

This initial pass should run essentially identically to the _hsw AVX2
code we've been using previously.  Clang _does_ use AVX-512-only
instructions to implement some of the higher-level concepts we've coded,
but it's really a pretty subtle difference.

Next steps will bump N from 8 to 16 and start threading through an
AVX-512-friendly mask instead of tail.  I'll also want to take a harder
look at how we do blending like if_then_else()... the default codegen
here doesn't really take advantage of AVX-512 the way I'd like here.

CQ_INCLUDE_TRYBOTS=skia.primary:Test-Debian9-Clang-GCE-CPU-AVX512-x86_64-Debug

Change-Id: I6c9442488a449ea4770617bb22b2669859cc92e2
Reviewed-on: https://skia-review.googlesource.com/54062
Commit-Queue: Mike Klein <mtklein@chromium.org>
Reviewed-by: Herb Derby <herb@google.com>
diff --git a/src/core/SkCpu.h b/src/core/SkCpu.h
index a9ed906..34af7fd 100644
--- a/src/core/SkCpu.h
+++ b/src/core/SkCpu.h
@@ -37,7 +37,7 @@
         AVX512VL   = 1 << 19,
 
         // Handy alias for all the cool Skylake Xeon+ instructions.
-        SKY = AVX512F  | AVX512DQ | AVX512CD | AVX512BW | AVX512VL,
+        SKX = AVX512F  | AVX512DQ | AVX512CD | AVX512BW | AVX512VL,
     };
     enum {
         NEON     = 1 << 0,
diff --git a/src/jumper/SkJumper.cpp b/src/jumper/SkJumper.cpp
index 5dc5574..ef4881e 100644
--- a/src/jumper/SkJumper.cpp
+++ b/src/jumper/SkJumper.cpp
@@ -127,7 +127,8 @@
     #undef M
 
 #elif defined(__x86_64__) || defined(_M_X64)
-    StartPipelineFn ASM(start_pipeline,       hsw),
+    StartPipelineFn ASM(start_pipeline,       skx),
+                    ASM(start_pipeline,       hsw),
                     ASM(start_pipeline,       avx),
                     ASM(start_pipeline,     sse41),
                     ASM(start_pipeline,      sse2),
@@ -135,7 +136,8 @@
                     ASM(start_pipeline,sse41_lowp),
                     ASM(start_pipeline, sse2_lowp);
 
-    StageFn ASM(just_return,       hsw),
+    StageFn ASM(just_return,       skx),
+            ASM(just_return,       hsw),
             ASM(just_return,       avx),
             ASM(just_return,     sse41),
             ASM(just_return,      sse2),
@@ -143,7 +145,8 @@
             ASM(just_return,sse41_lowp),
             ASM(just_return, sse2_lowp);
 
-    #define M(st) StageFn ASM(st,  hsw), \
+    #define M(st) StageFn ASM(st,  skx), \
+                          ASM(st,  hsw), \
                           ASM(st,  avx), \
                           ASM(st,sse41), \
                           ASM(st, sse2);
@@ -268,6 +271,17 @@
     }
 
 #elif defined(__x86_64__) || defined(_M_X64)
+    #if !defined(_MSC_VER)  // No _skx stages for Windows yet.
+        if (1 && SkCpu::Supports(SkCpu::SKX)) {
+            return {
+            #define M(stage) ASM(stage, skx),
+                { SK_RASTER_PIPELINE_STAGES(M) },
+                M(start_pipeline)
+                M(just_return)
+            #undef M
+            };
+        }
+    #endif
     if (1 && SkCpu::Supports(SkCpu::HSW)) {
         return {
         #define M(stage) ASM(stage, hsw),
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 337703b..a0a38fc 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -9365,6 +9365,7132 @@
 #elif defined(__x86_64__)
 BALIGN32
 
+HIDDEN _sk_start_pipeline_skx
+.globl _sk_start_pipeline_skx
+FUNCTION(_sk_start_pipeline_skx)
+_sk_start_pipeline_skx:
+  .byte  85                                  // push          %rbp
+  .byte  72,137,229                          // mov           %rsp,%rbp
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,85                               // push          %r13
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,131,236,24                       // sub           $0x18,%rsp
+  .byte  73,137,215                          // mov           %rdx,%r15
+  .byte  72,137,243                          // mov           %rsi,%rbx
+  .byte  72,137,125,208                      // mov           %rdi,-0x30(%rbp)
+  .byte  76,137,198                          // mov           %r8,%rsi
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  73,137,197                          // mov           %rax,%r13
+  .byte  73,137,246                          // mov           %rsi,%r14
+  .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
+  .byte  72,57,203                           // cmp           %rcx,%rbx
+  .byte  15,131,152,0,0,0                    // jae           cb <_sk_start_pipeline_skx+0xcb>
+  .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
+  .byte  72,141,64,8                         // lea           0x8(%rax),%rax
+  .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
+  .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
+  .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
+  .byte  119,67                              // ja            8c <_sk_start_pipeline_skx+0x8c>
+  .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
+  .byte  49,255                              // xor           %edi,%edi
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
+  .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
+  .byte  197,204,87,246                      // vxorps        %ymm6,%ymm6,%ymm6
+  .byte  197,196,87,255                      // vxorps        %ymm7,%ymm7,%ymm7
+  .byte  76,137,246                          // mov           %r14,%rsi
+  .byte  76,137,226                          // mov           %r12,%rdx
+  .byte  72,137,217                          // mov           %rbx,%rcx
+  .byte  65,255,213                          // callq         *%r13
+  .byte  73,141,84,36,8                      // lea           0x8(%r12),%rdx
+  .byte  73,131,196,16                       // add           $0x10,%r12
+  .byte  77,57,252                           // cmp           %r15,%r12
+  .byte  73,137,212                          // mov           %rdx,%r12
+  .byte  118,193                             // jbe           4d <_sk_start_pipeline_skx+0x4d>
+  .byte  76,137,255                          // mov           %r15,%rdi
+  .byte  72,41,215                           // sub           %rdx,%rdi
+  .byte  116,41                              // je            bd <_sk_start_pipeline_skx+0xbd>
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
+  .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
+  .byte  197,204,87,246                      // vxorps        %ymm6,%ymm6,%ymm6
+  .byte  197,196,87,255                      // vxorps        %ymm7,%ymm7,%ymm7
+  .byte  76,137,246                          // mov           %r14,%rsi
+  .byte  72,137,217                          // mov           %rbx,%rcx
+  .byte  65,255,213                          // callq         *%r13
+  .byte  72,131,195,1                        // add           $0x1,%rbx
+  .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
+  .byte  15,133,116,255,255,255              // jne           3f <_sk_start_pipeline_skx+0x3f>
+  .byte  72,131,196,24                       // add           $0x18,%rsp
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,93                               // pop           %r13
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  93                                  // pop           %rbp
+  .byte  197,248,119                         // vzeroupper
+  .byte  195                                 // retq
+
+HIDDEN _sk_just_return_skx
+.globl _sk_just_return_skx
+FUNCTION(_sk_just_return_skx)
+_sk_just_return_skx:
+  .byte  195                                 // retq
+
+HIDDEN _sk_seed_shader_skx
+.globl _sk_seed_shader_skx
+FUNCTION(_sk_seed_shader_skx)
+_sk_seed_shader_skx:
+  .byte  98,242,125,40,124,194               // vpbroadcastd  %edx,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  197,252,88,5,80,34,3,0              // vaddps        0x32250(%rip),%ymm0,%ymm0        # 32340 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
+  .byte  98,242,125,40,124,201               // vpbroadcastd  %ecx,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,241,116,56,88,13,0,40,3,0        // vaddps        0x32800(%rip){1to8},%ymm1,%ymm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,21,249,39,3,0        // vbroadcastss  0x327f9(%rip),%ymm2        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
+  .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
+  .byte  197,204,87,246                      // vxorps        %ymm6,%ymm6,%ymm6
+  .byte  197,196,87,255                      // vxorps        %ymm7,%ymm7,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_dither_skx
+.globl _sk_dither_skx
+FUNCTION(_sk_dither_skx)
+_sk_dither_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,114,125,40,124,194               // vpbroadcastd  %edx,%ymm8
+  .byte  197,61,254,5,43,34,3,0              // vpaddd        0x3222b(%rip),%ymm8,%ymm8        # 32360 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
+  .byte  98,114,125,40,124,201               // vpbroadcastd  %ecx,%ymm9
+  .byte  196,65,53,239,200                   // vpxor         %ymm8,%ymm9,%ymm9
+  .byte  196,98,125,88,21,195,39,3,0         // vpbroadcastd  0x327c3(%rip),%ymm10        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+  .byte  196,65,53,219,218                   // vpand         %ymm10,%ymm9,%ymm11
+  .byte  196,193,37,114,243,5                // vpslld        $0x5,%ymm11,%ymm11
+  .byte  196,65,61,219,210                   // vpand         %ymm10,%ymm8,%ymm10
+  .byte  196,193,45,114,242,4                // vpslld        $0x4,%ymm10,%ymm10
+  .byte  196,98,125,88,37,168,39,3,0         // vpbroadcastd  0x327a8(%rip),%ymm12        # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+  .byte  196,98,125,88,45,163,39,3,0         // vpbroadcastd  0x327a3(%rip),%ymm13        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+  .byte  196,65,53,219,245                   // vpand         %ymm13,%ymm9,%ymm14
+  .byte  196,193,13,114,246,2                // vpslld        $0x2,%ymm14,%ymm14
+  .byte  196,65,37,235,222                   // vpor          %ymm14,%ymm11,%ymm11
+  .byte  196,65,61,219,237                   // vpand         %ymm13,%ymm8,%ymm13
+  .byte  196,65,21,254,237                   // vpaddd        %ymm13,%ymm13,%ymm13
+  .byte  196,65,21,235,210                   // vpor          %ymm10,%ymm13,%ymm10
+  .byte  196,65,53,219,204                   // vpand         %ymm12,%ymm9,%ymm9
+  .byte  196,193,53,114,209,1                // vpsrld        $0x1,%ymm9,%ymm9
+  .byte  196,65,61,219,196                   // vpand         %ymm12,%ymm8,%ymm8
+  .byte  196,193,61,114,208,2                // vpsrld        $0x2,%ymm8,%ymm8
+  .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
+  .byte  196,65,61,235,195                   // vpor          %ymm11,%ymm8,%ymm8
+  .byte  196,65,61,235,193                   // vpor          %ymm9,%ymm8,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  196,98,125,24,13,85,39,3,0          // vbroadcastss  0x32755(%rip),%ymm9        # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+  .byte  98,114,61,56,168,13,79,39,3,0       // vfmadd213ps   0x3274f(%rip){1to8},%ymm8,%ymm9        # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+  .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
+  .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
+  .byte  197,188,88,192                      // vaddps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,88,201                      // vaddps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,88,210                      // vaddps        %ymm2,%ymm8,%ymm2
+  .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,236,93,211                      // vminps        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,210                      // vmaxps        %ymm2,%ymm8,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_uniform_color_skx
+.globl _sk_uniform_color_skx
+FUNCTION(_sk_uniform_color_skx)
+_sk_uniform_color_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,0                    // vbroadcastss  (%rax),%ymm0
+  .byte  196,226,125,24,72,4                 // vbroadcastss  0x4(%rax),%ymm1
+  .byte  196,226,125,24,80,8                 // vbroadcastss  0x8(%rax),%ymm2
+  .byte  196,226,125,24,88,12                // vbroadcastss  0xc(%rax),%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_black_color_skx
+.globl _sk_black_color_skx
+FUNCTION(_sk_black_color_skx)
+_sk_black_color_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,220,38,3,0        // vbroadcastss  0x326dc(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_white_color_skx
+.globl _sk_white_color_skx
+FUNCTION(_sk_white_color_skx)
+_sk_white_color_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,5,195,38,3,0         // vbroadcastss  0x326c3(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
+  .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
+  .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_load_rgba_skx
+.globl _sk_load_rgba_skx
+FUNCTION(_sk_load_rgba_skx)
+_sk_load_rgba_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  197,252,16,80,64                    // vmovups       0x40(%rax),%ymm2
+  .byte  197,252,16,88,96                    // vmovups       0x60(%rax),%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_rgba_skx
+.globl _sk_store_rgba_skx
+FUNCTION(_sk_store_rgba_skx)
+_sk_store_rgba_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,17,0                        // vmovups       %ymm0,(%rax)
+  .byte  197,252,17,72,32                    // vmovups       %ymm1,0x20(%rax)
+  .byte  197,252,17,80,64                    // vmovups       %ymm2,0x40(%rax)
+  .byte  197,252,17,88,96                    // vmovups       %ymm3,0x60(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clear_skx
+.globl _sk_clear_skx
+FUNCTION(_sk_clear_skx)
+_sk_clear_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_srcatop_skx
+.globl _sk_srcatop_skx
+FUNCTION(_sk_srcatop_skx)
+_sk_srcatop_skx:
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  196,98,125,24,5,98,38,3,0           // vbroadcastss  0x32662(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  196,226,61,184,205                  // vfmadd231ps   %ymm5,%ymm8,%ymm1
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  196,226,61,184,214                  // vfmadd231ps   %ymm6,%ymm8,%ymm2
+  .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
+  .byte  196,194,69,168,216                  // vfmadd213ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_dstatop_skx
+.globl _sk_dstatop_skx
+FUNCTION(_sk_dstatop_skx)
+_sk_dstatop_skx:
+  .byte  196,98,125,24,5,49,38,3,0           // vbroadcastss  0x32631(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,226,101,184,196                 // vfmadd231ps   %ymm4,%ymm3,%ymm0
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  196,226,101,184,205                 // vfmadd231ps   %ymm5,%ymm3,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  196,226,101,184,214                 // vfmadd231ps   %ymm6,%ymm3,%ymm2
+  .byte  197,60,89,195                       // vmulps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,69,168,216                  // vfmadd213ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_srcin_skx
+.globl _sk_srcin_skx
+FUNCTION(_sk_srcin_skx)
+_sk_srcin_skx:
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_dstin_skx
+.globl _sk_dstin_skx
+FUNCTION(_sk_dstin_skx)
+_sk_dstin_skx:
+  .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
+  .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
+  .byte  197,228,89,214                      // vmulps        %ymm6,%ymm3,%ymm2
+  .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_srcout_skx
+.globl _sk_srcout_skx
+FUNCTION(_sk_srcout_skx)
+_sk_srcout_skx:
+  .byte  196,98,125,24,5,212,37,3,0          // vbroadcastss  0x325d4(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_dstout_skx
+.globl _sk_dstout_skx
+FUNCTION(_sk_dstout_skx)
+_sk_dstout_skx:
+  .byte  196,226,125,24,5,179,37,3,0         // vbroadcastss  0x325b3(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,92,219                      // vsubps        %ymm3,%ymm0,%ymm3
+  .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
+  .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
+  .byte  197,228,89,214                      // vmulps        %ymm6,%ymm3,%ymm2
+  .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_srcover_skx
+.globl _sk_srcover_skx
+FUNCTION(_sk_srcover_skx)
+_sk_srcover_skx:
+  .byte  196,98,125,24,5,146,37,3,0          // vbroadcastss  0x32592(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,93,184,192                  // vfmadd231ps   %ymm8,%ymm4,%ymm0
+  .byte  196,194,85,184,200                  // vfmadd231ps   %ymm8,%ymm5,%ymm1
+  .byte  196,194,77,184,208                  // vfmadd231ps   %ymm8,%ymm6,%ymm2
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_dstover_skx
+.globl _sk_dstover_skx
+FUNCTION(_sk_dstover_skx)
+_sk_dstover_skx:
+  .byte  196,98,125,24,5,109,37,3,0          // vbroadcastss  0x3256d(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
+  .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
+  .byte  196,226,61,168,205                  // vfmadd213ps   %ymm5,%ymm8,%ymm1
+  .byte  196,226,61,168,214                  // vfmadd213ps   %ymm6,%ymm8,%ymm2
+  .byte  196,226,61,168,223                  // vfmadd213ps   %ymm7,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_modulate_skx
+.globl _sk_modulate_skx
+FUNCTION(_sk_modulate_skx)
+_sk_modulate_skx:
+  .byte  197,252,89,196                      // vmulps        %ymm4,%ymm0,%ymm0
+  .byte  197,244,89,205                      // vmulps        %ymm5,%ymm1,%ymm1
+  .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
+  .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_multiply_skx
+.globl _sk_multiply_skx
+FUNCTION(_sk_multiply_skx)
+_sk_multiply_skx:
+  .byte  196,98,125,24,5,52,37,3,0           // vbroadcastss  0x32534(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,98,61,184,212                   // vfmadd231ps   %ymm4,%ymm8,%ymm10
+  .byte  196,194,93,168,194                  // vfmadd213ps   %ymm10,%ymm4,%ymm0
+  .byte  197,52,89,209                       // vmulps        %ymm1,%ymm9,%ymm10
+  .byte  196,98,61,184,213                   // vfmadd231ps   %ymm5,%ymm8,%ymm10
+  .byte  196,194,85,168,202                  // vfmadd213ps   %ymm10,%ymm5,%ymm1
+  .byte  197,52,89,210                       // vmulps        %ymm2,%ymm9,%ymm10
+  .byte  196,98,61,184,214                   // vfmadd231ps   %ymm6,%ymm8,%ymm10
+  .byte  196,194,77,168,210                  // vfmadd213ps   %ymm10,%ymm6,%ymm2
+  .byte  197,52,89,203                       // vmulps        %ymm3,%ymm9,%ymm9
+  .byte  196,66,69,168,193                   // vfmadd213ps   %ymm9,%ymm7,%ymm8
+  .byte  196,194,69,168,216                  // vfmadd213ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_plus__skx
+.globl _sk_plus__skx
+FUNCTION(_sk_plus__skx)
+_sk_plus__skx:
+  .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
+  .byte  196,98,125,24,5,227,36,3,0          // vbroadcastss  0x324e3(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
+  .byte  197,244,88,205                      // vaddps        %ymm5,%ymm1,%ymm1
+  .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
+  .byte  197,236,88,214                      // vaddps        %ymm6,%ymm2,%ymm2
+  .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
+  .byte  197,228,88,223                      // vaddps        %ymm7,%ymm3,%ymm3
+  .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_screen_skx
+.globl _sk_screen_skx
+FUNCTION(_sk_screen_skx)
+_sk_screen_skx:
+  .byte  197,124,88,196                      // vaddps        %ymm4,%ymm0,%ymm8
+  .byte  196,194,93,172,192                  // vfnmadd213ps  %ymm8,%ymm4,%ymm0
+  .byte  197,116,88,197                      // vaddps        %ymm5,%ymm1,%ymm8
+  .byte  196,194,85,172,200                  // vfnmadd213ps  %ymm8,%ymm5,%ymm1
+  .byte  197,108,88,198                      // vaddps        %ymm6,%ymm2,%ymm8
+  .byte  196,194,77,172,208                  // vfnmadd213ps  %ymm8,%ymm6,%ymm2
+  .byte  197,100,88,199                      // vaddps        %ymm7,%ymm3,%ymm8
+  .byte  196,194,69,172,216                  // vfnmadd213ps  %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xor__skx
+.globl _sk_xor__skx
+FUNCTION(_sk_xor__skx)
+_sk_xor__skx:
+  .byte  196,98,125,24,5,142,36,3,0          // vbroadcastss  0x3248e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
+  .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
+  .byte  196,226,61,184,205                  // vfmadd231ps   %ymm5,%ymm8,%ymm1
+  .byte  197,180,89,210                      // vmulps        %ymm2,%ymm9,%ymm2
+  .byte  196,226,61,184,214                  // vfmadd231ps   %ymm6,%ymm8,%ymm2
+  .byte  197,180,89,219                      // vmulps        %ymm3,%ymm9,%ymm3
+  .byte  196,98,69,168,195                   // vfmadd213ps   %ymm3,%ymm7,%ymm8
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,195                      // vmovaps       %ymm8,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_darken_skx
+.globl _sk_darken_skx
+FUNCTION(_sk_darken_skx)
+_sk_darken_skx:
+  .byte  197,124,88,196                      // vaddps        %ymm4,%ymm0,%ymm8
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  197,100,89,204                      // vmulps        %ymm4,%ymm3,%ymm9
+  .byte  196,193,124,95,193                  // vmaxps        %ymm9,%ymm0,%ymm0
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,116,88,197                      // vaddps        %ymm5,%ymm1,%ymm8
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  197,100,89,205                      // vmulps        %ymm5,%ymm3,%ymm9
+  .byte  196,193,116,95,201                  // vmaxps        %ymm9,%ymm1,%ymm1
+  .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
+  .byte  197,108,88,198                      // vaddps        %ymm6,%ymm2,%ymm8
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
+  .byte  196,193,108,95,209                  // vmaxps        %ymm9,%ymm2,%ymm2
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,5,18,36,3,0           // vbroadcastss  0x32412(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_lighten_skx
+.globl _sk_lighten_skx
+FUNCTION(_sk_lighten_skx)
+_sk_lighten_skx:
+  .byte  197,124,88,196                      // vaddps        %ymm4,%ymm0,%ymm8
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  197,100,89,204                      // vmulps        %ymm4,%ymm3,%ymm9
+  .byte  196,193,124,93,193                  // vminps        %ymm9,%ymm0,%ymm0
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,116,88,197                      // vaddps        %ymm5,%ymm1,%ymm8
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  197,100,89,205                      // vmulps        %ymm5,%ymm3,%ymm9
+  .byte  196,193,116,93,201                  // vminps        %ymm9,%ymm1,%ymm1
+  .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
+  .byte  197,108,88,198                      // vaddps        %ymm6,%ymm2,%ymm8
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
+  .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,5,189,35,3,0          // vbroadcastss  0x323bd(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_difference_skx
+.globl _sk_difference_skx
+FUNCTION(_sk_difference_skx)
+_sk_difference_skx:
+  .byte  197,124,88,196                      // vaddps        %ymm4,%ymm0,%ymm8
+  .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
+  .byte  197,100,89,204                      // vmulps        %ymm4,%ymm3,%ymm9
+  .byte  196,193,124,93,193                  // vminps        %ymm9,%ymm0,%ymm0
+  .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,116,88,197                      // vaddps        %ymm5,%ymm1,%ymm8
+  .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
+  .byte  197,100,89,205                      // vmulps        %ymm5,%ymm3,%ymm9
+  .byte  196,193,116,93,201                  // vminps        %ymm9,%ymm1,%ymm1
+  .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
+  .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
+  .byte  197,108,88,198                      // vaddps        %ymm6,%ymm2,%ymm8
+  .byte  197,236,89,215                      // vmulps        %ymm7,%ymm2,%ymm2
+  .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
+  .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
+  .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,5,92,35,3,0           // vbroadcastss  0x3235c(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_exclusion_skx
+.globl _sk_exclusion_skx
+FUNCTION(_sk_exclusion_skx)
+_sk_exclusion_skx:
+  .byte  197,124,88,196                      // vaddps        %ymm4,%ymm0,%ymm8
+  .byte  197,252,89,196                      // vmulps        %ymm4,%ymm0,%ymm0
+  .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,116,88,197                      // vaddps        %ymm5,%ymm1,%ymm8
+  .byte  197,244,89,205                      // vmulps        %ymm5,%ymm1,%ymm1
+  .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
+  .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
+  .byte  197,108,88,198                      // vaddps        %ymm6,%ymm2,%ymm8
+  .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
+  .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  196,98,125,24,5,22,35,3,0           // vbroadcastss  0x32316(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_colorburn_skx
+.globl _sk_colorburn_skx
+FUNCTION(_sk_colorburn_skx)
+_sk_colorburn_skx:
+  .byte  98,241,92,40,194,199,0              // vcmpeqps      %ymm7,%ymm4,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,98,125,24,13,243,34,3,0         // vbroadcastss  0x322f3(%rip),%ymm9        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,52,92,215                       // vsubps        %ymm7,%ymm9,%ymm10
+  .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
+  .byte  197,36,88,228                       // vaddps        %ymm4,%ymm11,%ymm12
+  .byte  196,65,20,87,237                    // vxorps        %ymm13,%ymm13,%ymm13
+  .byte  98,209,124,40,194,197,0             // vcmpeqps      %ymm13,%ymm0,%k0
+  .byte  98,114,126,40,56,240                // vpmovm2d      %k0,%ymm14
+  .byte  197,52,92,203                       // vsubps        %ymm3,%ymm9,%ymm9
+  .byte  197,52,89,252                       // vmulps        %ymm4,%ymm9,%ymm15
+  .byte  98,225,68,40,92,196                 // vsubps        %ymm4,%ymm7,%ymm16
+  .byte  98,225,124,32,89,195                // vmulps        %ymm3,%ymm16,%ymm16
+  .byte  98,242,125,40,76,192                // vrcp14ps      %ymm0,%ymm0
+  .byte  98,241,124,32,89,192                // vmulps        %ymm0,%ymm16,%ymm0
+  .byte  197,196,93,192                      // vminps        %ymm0,%ymm7,%ymm0
+  .byte  197,196,92,192                      // vsubps        %ymm0,%ymm7,%ymm0
+  .byte  196,194,101,168,195                 // vfmadd213ps   %ymm11,%ymm3,%ymm0
+  .byte  197,132,88,192                      // vaddps        %ymm0,%ymm15,%ymm0
+  .byte  196,195,125,74,199,224              // vblendvps     %ymm14,%ymm15,%ymm0,%ymm0
+  .byte  196,195,125,74,196,128              // vblendvps     %ymm8,%ymm12,%ymm0,%ymm0
+  .byte  98,241,84,40,194,199,0              // vcmpeqps      %ymm7,%ymm5,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  197,44,89,217                       // vmulps        %ymm1,%ymm10,%ymm11
+  .byte  197,36,88,229                       // vaddps        %ymm5,%ymm11,%ymm12
+  .byte  98,209,116,40,194,197,0             // vcmpeqps      %ymm13,%ymm1,%k0
+  .byte  98,114,126,40,56,240                // vpmovm2d      %k0,%ymm14
+  .byte  197,52,89,253                       // vmulps        %ymm5,%ymm9,%ymm15
+  .byte  98,225,68,40,92,197                 // vsubps        %ymm5,%ymm7,%ymm16
+  .byte  98,225,124,32,89,195                // vmulps        %ymm3,%ymm16,%ymm16
+  .byte  98,242,125,40,76,201                // vrcp14ps      %ymm1,%ymm1
+  .byte  98,241,124,32,89,201                // vmulps        %ymm1,%ymm16,%ymm1
+  .byte  197,196,93,201                      // vminps        %ymm1,%ymm7,%ymm1
+  .byte  197,196,92,201                      // vsubps        %ymm1,%ymm7,%ymm1
+  .byte  196,194,101,168,203                 // vfmadd213ps   %ymm11,%ymm3,%ymm1
+  .byte  197,132,88,201                      // vaddps        %ymm1,%ymm15,%ymm1
+  .byte  196,195,117,74,207,224              // vblendvps     %ymm14,%ymm15,%ymm1,%ymm1
+  .byte  196,195,117,74,204,128              // vblendvps     %ymm8,%ymm12,%ymm1,%ymm1
+  .byte  98,241,76,40,194,199,0              // vcmpeqps      %ymm7,%ymm6,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  197,44,89,210                       // vmulps        %ymm2,%ymm10,%ymm10
+  .byte  197,44,88,222                       // vaddps        %ymm6,%ymm10,%ymm11
+  .byte  98,209,108,40,194,197,0             // vcmpeqps      %ymm13,%ymm2,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  197,52,89,238                       // vmulps        %ymm6,%ymm9,%ymm13
+  .byte  197,68,92,246                       // vsubps        %ymm6,%ymm7,%ymm14
+  .byte  197,12,89,243                       // vmulps        %ymm3,%ymm14,%ymm14
+  .byte  98,242,125,40,76,210                // vrcp14ps      %ymm2,%ymm2
+  .byte  197,140,89,210                      // vmulps        %ymm2,%ymm14,%ymm2
+  .byte  197,196,93,210                      // vminps        %ymm2,%ymm7,%ymm2
+  .byte  197,196,92,210                      // vsubps        %ymm2,%ymm7,%ymm2
+  .byte  196,194,101,168,210                 // vfmadd213ps   %ymm10,%ymm3,%ymm2
+  .byte  197,148,88,210                      // vaddps        %ymm2,%ymm13,%ymm2
+  .byte  196,195,109,74,213,192              // vblendvps     %ymm12,%ymm13,%ymm2,%ymm2
+  .byte  196,195,109,74,211,128              // vblendvps     %ymm8,%ymm11,%ymm2,%ymm2
+  .byte  196,194,69,184,217                  // vfmadd231ps   %ymm9,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_colordodge_skx
+.globl _sk_colordodge_skx
+FUNCTION(_sk_colordodge_skx)
+_sk_colordodge_skx:
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  98,209,92,40,194,192,0              // vcmpeqps      %ymm8,%ymm4,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,98,125,24,21,196,33,3,0         // vbroadcastss  0x321c4(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,44,92,223                       // vsubps        %ymm7,%ymm10,%ymm11
+  .byte  197,36,89,224                       // vmulps        %ymm0,%ymm11,%ymm12
+  .byte  98,241,124,40,194,195,0             // vcmpeqps      %ymm3,%ymm0,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  197,44,92,211                       // vsubps        %ymm3,%ymm10,%ymm10
+  .byte  197,44,89,244                       // vmulps        %ymm4,%ymm10,%ymm14
+  .byte  197,12,88,248                       // vaddps        %ymm0,%ymm14,%ymm15
+  .byte  98,225,100,40,89,196                // vmulps        %ymm4,%ymm3,%ymm16
+  .byte  197,228,92,192                      // vsubps        %ymm0,%ymm3,%ymm0
+  .byte  98,242,125,40,76,192                // vrcp14ps      %ymm0,%ymm0
+  .byte  98,241,124,32,89,192                // vmulps        %ymm0,%ymm16,%ymm0
+  .byte  197,196,93,192                      // vminps        %ymm0,%ymm7,%ymm0
+  .byte  196,194,101,168,196                 // vfmadd213ps   %ymm12,%ymm3,%ymm0
+  .byte  197,140,88,192                      // vaddps        %ymm0,%ymm14,%ymm0
+  .byte  196,195,125,74,199,208              // vblendvps     %ymm13,%ymm15,%ymm0,%ymm0
+  .byte  196,195,125,74,196,144              // vblendvps     %ymm9,%ymm12,%ymm0,%ymm0
+  .byte  98,209,84,40,194,192,0              // vcmpeqps      %ymm8,%ymm5,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  197,36,89,225                       // vmulps        %ymm1,%ymm11,%ymm12
+  .byte  98,241,116,40,194,195,0             // vcmpeqps      %ymm3,%ymm1,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  197,44,89,245                       // vmulps        %ymm5,%ymm10,%ymm14
+  .byte  197,12,88,249                       // vaddps        %ymm1,%ymm14,%ymm15
+  .byte  98,225,100,40,89,197                // vmulps        %ymm5,%ymm3,%ymm16
+  .byte  197,228,92,201                      // vsubps        %ymm1,%ymm3,%ymm1
+  .byte  98,242,125,40,76,201                // vrcp14ps      %ymm1,%ymm1
+  .byte  98,241,124,32,89,201                // vmulps        %ymm1,%ymm16,%ymm1
+  .byte  197,196,93,201                      // vminps        %ymm1,%ymm7,%ymm1
+  .byte  196,194,101,168,204                 // vfmadd213ps   %ymm12,%ymm3,%ymm1
+  .byte  197,140,88,201                      // vaddps        %ymm1,%ymm14,%ymm1
+  .byte  196,195,117,74,207,208              // vblendvps     %ymm13,%ymm15,%ymm1,%ymm1
+  .byte  196,195,117,74,204,144              // vblendvps     %ymm9,%ymm12,%ymm1,%ymm1
+  .byte  98,209,76,40,194,192,0              // vcmpeqps      %ymm8,%ymm6,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  197,36,89,202                       // vmulps        %ymm2,%ymm11,%ymm9
+  .byte  98,241,108,40,194,195,0             // vcmpeqps      %ymm3,%ymm2,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,44,89,230                       // vmulps        %ymm6,%ymm10,%ymm12
+  .byte  197,28,88,234                       // vaddps        %ymm2,%ymm12,%ymm13
+  .byte  197,100,89,246                      // vmulps        %ymm6,%ymm3,%ymm14
+  .byte  197,228,92,210                      // vsubps        %ymm2,%ymm3,%ymm2
+  .byte  98,242,125,40,76,210                // vrcp14ps      %ymm2,%ymm2
+  .byte  197,140,89,210                      // vmulps        %ymm2,%ymm14,%ymm2
+  .byte  197,196,93,210                      // vminps        %ymm2,%ymm7,%ymm2
+  .byte  196,194,101,168,209                 // vfmadd213ps   %ymm9,%ymm3,%ymm2
+  .byte  197,156,88,210                      // vaddps        %ymm2,%ymm12,%ymm2
+  .byte  196,195,109,74,213,176              // vblendvps     %ymm11,%ymm13,%ymm2,%ymm2
+  .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
+  .byte  196,194,69,184,218                  // vfmadd231ps   %ymm10,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_hardlight_skx
+.globl _sk_hardlight_skx
+FUNCTION(_sk_hardlight_skx)
+_sk_hardlight_skx:
+  .byte  196,98,125,24,5,188,32,3,0          // vbroadcastss  0x320bc(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,98,61,184,212                   // vfmadd231ps   %ymm4,%ymm8,%ymm10
+  .byte  197,124,88,216                      // vaddps        %ymm0,%ymm0,%ymm11
+  .byte  98,241,36,40,194,195,2              // vcmpleps      %ymm3,%ymm11,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,124,89,228                      // vmulps        %ymm4,%ymm0,%ymm12
+  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
+  .byte  197,100,89,239                      // vmulps        %ymm7,%ymm3,%ymm13
+  .byte  197,68,92,244                       // vsubps        %ymm4,%ymm7,%ymm14
+  .byte  197,228,92,192                      // vsubps        %ymm0,%ymm3,%ymm0
+  .byte  196,193,124,89,198                  // vmulps        %ymm14,%ymm0,%ymm0
+  .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
+  .byte  197,148,92,192                      // vsubps        %ymm0,%ymm13,%ymm0
+  .byte  196,195,125,74,196,176              // vblendvps     %ymm11,%ymm12,%ymm0,%ymm0
+  .byte  197,172,88,192                      // vaddps        %ymm0,%ymm10,%ymm0
+  .byte  197,52,89,209                       // vmulps        %ymm1,%ymm9,%ymm10
+  .byte  196,98,61,184,213                   // vfmadd231ps   %ymm5,%ymm8,%ymm10
+  .byte  197,116,88,217                      // vaddps        %ymm1,%ymm1,%ymm11
+  .byte  98,241,36,40,194,195,2              // vcmpleps      %ymm3,%ymm11,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,116,89,229                      // vmulps        %ymm5,%ymm1,%ymm12
+  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
+  .byte  197,68,92,245                       // vsubps        %ymm5,%ymm7,%ymm14
+  .byte  197,228,92,201                      // vsubps        %ymm1,%ymm3,%ymm1
+  .byte  196,193,116,89,206                  // vmulps        %ymm14,%ymm1,%ymm1
+  .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
+  .byte  197,148,92,201                      // vsubps        %ymm1,%ymm13,%ymm1
+  .byte  196,195,117,74,204,176              // vblendvps     %ymm11,%ymm12,%ymm1,%ymm1
+  .byte  197,172,88,201                      // vaddps        %ymm1,%ymm10,%ymm1
+  .byte  197,52,89,202                       // vmulps        %ymm2,%ymm9,%ymm9
+  .byte  196,98,61,184,206                   // vfmadd231ps   %ymm6,%ymm8,%ymm9
+  .byte  197,108,88,210                      // vaddps        %ymm2,%ymm2,%ymm10
+  .byte  98,241,44,40,194,195,2              // vcmpleps      %ymm3,%ymm10,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  197,108,89,222                      // vmulps        %ymm6,%ymm2,%ymm11
+  .byte  196,65,36,88,219                    // vaddps        %ymm11,%ymm11,%ymm11
+  .byte  197,68,92,230                       // vsubps        %ymm6,%ymm7,%ymm12
+  .byte  197,228,92,210                      // vsubps        %ymm2,%ymm3,%ymm2
+  .byte  196,193,108,89,212                  // vmulps        %ymm12,%ymm2,%ymm2
+  .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
+  .byte  197,148,92,210                      // vsubps        %ymm2,%ymm13,%ymm2
+  .byte  196,195,109,74,211,160              // vblendvps     %ymm10,%ymm11,%ymm2,%ymm2
+  .byte  197,180,88,210                      // vaddps        %ymm2,%ymm9,%ymm2
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_overlay_skx
+.globl _sk_overlay_skx
+FUNCTION(_sk_overlay_skx)
+_sk_overlay_skx:
+  .byte  196,98,125,24,5,216,31,3,0          // vbroadcastss  0x31fd8(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
+  .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,98,61,184,212                   // vfmadd231ps   %ymm4,%ymm8,%ymm10
+  .byte  197,92,88,220                       // vaddps        %ymm4,%ymm4,%ymm11
+  .byte  98,241,36,40,194,199,2              // vcmpleps      %ymm7,%ymm11,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,124,89,228                      // vmulps        %ymm4,%ymm0,%ymm12
+  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
+  .byte  197,100,89,239                      // vmulps        %ymm7,%ymm3,%ymm13
+  .byte  197,68,92,244                       // vsubps        %ymm4,%ymm7,%ymm14
+  .byte  197,228,92,192                      // vsubps        %ymm0,%ymm3,%ymm0
+  .byte  196,193,124,89,198                  // vmulps        %ymm14,%ymm0,%ymm0
+  .byte  197,252,88,192                      // vaddps        %ymm0,%ymm0,%ymm0
+  .byte  197,148,92,192                      // vsubps        %ymm0,%ymm13,%ymm0
+  .byte  196,195,125,74,196,176              // vblendvps     %ymm11,%ymm12,%ymm0,%ymm0
+  .byte  197,172,88,192                      // vaddps        %ymm0,%ymm10,%ymm0
+  .byte  197,52,89,209                       // vmulps        %ymm1,%ymm9,%ymm10
+  .byte  196,98,61,184,213                   // vfmadd231ps   %ymm5,%ymm8,%ymm10
+  .byte  197,84,88,221                       // vaddps        %ymm5,%ymm5,%ymm11
+  .byte  98,241,36,40,194,199,2              // vcmpleps      %ymm7,%ymm11,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,116,89,229                      // vmulps        %ymm5,%ymm1,%ymm12
+  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
+  .byte  197,68,92,245                       // vsubps        %ymm5,%ymm7,%ymm14
+  .byte  197,228,92,201                      // vsubps        %ymm1,%ymm3,%ymm1
+  .byte  196,193,116,89,206                  // vmulps        %ymm14,%ymm1,%ymm1
+  .byte  197,244,88,201                      // vaddps        %ymm1,%ymm1,%ymm1
+  .byte  197,148,92,201                      // vsubps        %ymm1,%ymm13,%ymm1
+  .byte  196,195,117,74,204,176              // vblendvps     %ymm11,%ymm12,%ymm1,%ymm1
+  .byte  197,172,88,201                      // vaddps        %ymm1,%ymm10,%ymm1
+  .byte  197,52,89,202                       // vmulps        %ymm2,%ymm9,%ymm9
+  .byte  196,98,61,184,206                   // vfmadd231ps   %ymm6,%ymm8,%ymm9
+  .byte  197,76,88,214                       // vaddps        %ymm6,%ymm6,%ymm10
+  .byte  98,241,44,40,194,199,2              // vcmpleps      %ymm7,%ymm10,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  197,108,89,222                      // vmulps        %ymm6,%ymm2,%ymm11
+  .byte  196,65,36,88,219                    // vaddps        %ymm11,%ymm11,%ymm11
+  .byte  197,68,92,230                       // vsubps        %ymm6,%ymm7,%ymm12
+  .byte  197,228,92,210                      // vsubps        %ymm2,%ymm3,%ymm2
+  .byte  196,193,108,89,212                  // vmulps        %ymm12,%ymm2,%ymm2
+  .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
+  .byte  197,148,92,210                      // vsubps        %ymm2,%ymm13,%ymm2
+  .byte  196,195,109,74,211,160              // vblendvps     %ymm10,%ymm11,%ymm2,%ymm2
+  .byte  197,180,88,210                      // vaddps        %ymm2,%ymm9,%ymm2
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_softlight_skx
+.globl _sk_softlight_skx
+FUNCTION(_sk_softlight_skx)
+_sk_softlight_skx:
+  .byte  98,225,124,40,40,194                // vmovaps       %ymm2,%ymm16
+  .byte  98,225,124,40,40,225                // vmovaps       %ymm1,%ymm20
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  98,241,108,40,194,199,1             // vcmpltps      %ymm7,%ymm2,%k0
+  .byte  98,242,126,40,56,200                // vpmovm2d      %k0,%ymm1
+  .byte  197,92,94,207                       // vdivps        %ymm7,%ymm4,%ymm9
+  .byte  196,67,109,74,201,16                // vblendvps     %ymm1,%ymm9,%ymm2,%ymm9
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  197,124,88,248                      // vaddps        %ymm0,%ymm0,%ymm15
+  .byte  196,65,52,88,217                    // vaddps        %ymm9,%ymm9,%ymm11
+  .byte  196,65,36,88,235                    // vaddps        %ymm11,%ymm11,%ymm13
+  .byte  197,4,92,243                        // vsubps        %ymm3,%ymm15,%ymm14
+  .byte  196,98,125,24,29,182,30,3,0         // vbroadcastss  0x31eb6(%rip),%ymm11        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  196,65,36,92,225                    // vsubps        %ymm9,%ymm11,%ymm12
+  .byte  196,98,13,168,227                   // vfmadd213ps   %ymm3,%ymm14,%ymm12
+  .byte  197,156,89,212                      // vmulps        %ymm4,%ymm12,%ymm2
+  .byte  196,66,21,168,237                   // vfmadd213ps   %ymm13,%ymm13,%ymm13
+  .byte  98,226,125,40,24,21,177,30,3,0      // vbroadcastss  0x31eb1(%rip),%ymm18        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+  .byte  98,161,52,40,88,202                 // vaddps        %ymm18,%ymm9,%ymm17
+  .byte  98,81,116,32,89,229                 // vmulps        %ymm13,%ymm17,%ymm12
+  .byte  98,226,125,40,24,29,159,30,3,0      // vbroadcastss  0x31e9f(%rip),%ymm19        # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+  .byte  98,50,53,40,184,227                 // vfmadd231ps   %ymm19,%ymm9,%ymm12
+  .byte  98,194,125,40,78,201                // vrsqrt14ps    %ymm9,%ymm17
+  .byte  98,162,125,40,76,201                // vrcp14ps      %ymm17,%ymm17
+  .byte  98,81,116,32,92,201                 // vsubps        %ymm9,%ymm17,%ymm9
+  .byte  197,12,89,247                       // vmulps        %ymm7,%ymm14,%ymm14
+  .byte  98,225,92,40,88,204                 // vaddps        %ymm4,%ymm4,%ymm17
+  .byte  98,161,116,32,88,201                // vaddps        %ymm17,%ymm17,%ymm17
+  .byte  98,241,116,32,194,199,2             // vcmpleps      %ymm7,%ymm17,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,67,53,74,196,128                // vblendvps     %ymm8,%ymm12,%ymm9,%ymm8
+  .byte  196,65,12,89,192                    // vmulps        %ymm8,%ymm14,%ymm8
+  .byte  196,98,101,184,196                  // vfmadd231ps   %ymm4,%ymm3,%ymm8
+  .byte  197,36,92,247                       // vsubps        %ymm7,%ymm11,%ymm14
+  .byte  197,140,89,192                      // vmulps        %ymm0,%ymm14,%ymm0
+  .byte  197,36,92,203                       // vsubps        %ymm3,%ymm11,%ymm9
+  .byte  196,226,53,184,196                  // vfmadd231ps   %ymm4,%ymm9,%ymm0
+  .byte  98,241,4,40,194,195,2               // vcmpleps      %ymm3,%ymm15,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  196,227,61,74,210,192               // vblendvps     %ymm12,%ymm2,%ymm8,%ymm2
+  .byte  197,252,88,194                      // vaddps        %ymm2,%ymm0,%ymm0
+  .byte  197,212,94,215                      // vdivps        %ymm7,%ymm5,%ymm2
+  .byte  196,227,45,74,210,16                // vblendvps     %ymm1,%ymm2,%ymm10,%ymm2
+  .byte  98,49,92,32,88,196                  // vaddps        %ymm20,%ymm20,%ymm8
+  .byte  197,108,88,226                      // vaddps        %ymm2,%ymm2,%ymm12
+  .byte  196,65,28,88,228                    // vaddps        %ymm12,%ymm12,%ymm12
+  .byte  197,60,92,251                       // vsubps        %ymm3,%ymm8,%ymm15
+  .byte  98,225,36,40,92,202                 // vsubps        %ymm2,%ymm11,%ymm17
+  .byte  98,226,5,40,168,203                 // vfmadd213ps   %ymm3,%ymm15,%ymm17
+  .byte  98,113,116,32,89,237                // vmulps        %ymm5,%ymm17,%ymm13
+  .byte  196,66,29,168,228                   // vfmadd213ps   %ymm12,%ymm12,%ymm12
+  .byte  98,161,108,40,88,202                // vaddps        %ymm18,%ymm2,%ymm17
+  .byte  98,81,116,32,89,228                 // vmulps        %ymm12,%ymm17,%ymm12
+  .byte  98,50,109,40,184,227                // vfmadd231ps   %ymm19,%ymm2,%ymm12
+  .byte  98,226,125,40,78,202                // vrsqrt14ps    %ymm2,%ymm17
+  .byte  98,162,125,40,76,201                // vrcp14ps      %ymm17,%ymm17
+  .byte  98,241,116,32,92,210                // vsubps        %ymm2,%ymm17,%ymm2
+  .byte  197,4,89,255                        // vmulps        %ymm7,%ymm15,%ymm15
+  .byte  98,225,84,40,88,205                 // vaddps        %ymm5,%ymm5,%ymm17
+  .byte  98,161,116,32,88,201                // vaddps        %ymm17,%ymm17,%ymm17
+  .byte  98,241,116,32,194,199,2             // vcmpleps      %ymm7,%ymm17,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  196,195,109,74,212,160              // vblendvps     %ymm10,%ymm12,%ymm2,%ymm2
+  .byte  197,132,89,210                      // vmulps        %ymm2,%ymm15,%ymm2
+  .byte  196,226,101,184,213                 // vfmadd231ps   %ymm5,%ymm3,%ymm2
+  .byte  98,49,12,40,89,212                  // vmulps        %ymm20,%ymm14,%ymm10
+  .byte  196,98,53,184,213                   // vfmadd231ps   %ymm5,%ymm9,%ymm10
+  .byte  98,241,60,40,194,195,2              // vcmpleps      %ymm3,%ymm8,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,195,109,74,213,128              // vblendvps     %ymm8,%ymm13,%ymm2,%ymm2
+  .byte  197,44,88,194                       // vaddps        %ymm2,%ymm10,%ymm8
+  .byte  197,204,94,215                      // vdivps        %ymm7,%ymm6,%ymm2
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  196,227,45,74,202,16                // vblendvps     %ymm1,%ymm2,%ymm10,%ymm1
+  .byte  98,177,124,32,88,208                // vaddps        %ymm16,%ymm16,%ymm2
+  .byte  197,116,88,209                      // vaddps        %ymm1,%ymm1,%ymm10
+  .byte  196,65,44,88,210                    // vaddps        %ymm10,%ymm10,%ymm10
+  .byte  197,108,92,227                      // vsubps        %ymm3,%ymm2,%ymm12
+  .byte  197,36,92,217                       // vsubps        %ymm1,%ymm11,%ymm11
+  .byte  196,98,29,168,219                   // vfmadd213ps   %ymm3,%ymm12,%ymm11
+  .byte  197,36,89,222                       // vmulps        %ymm6,%ymm11,%ymm11
+  .byte  196,66,45,168,210                   // vfmadd213ps   %ymm10,%ymm10,%ymm10
+  .byte  98,49,116,40,88,234                 // vaddps        %ymm18,%ymm1,%ymm13
+  .byte  196,65,20,89,210                    // vmulps        %ymm10,%ymm13,%ymm10
+  .byte  98,50,117,40,184,211                // vfmadd231ps   %ymm19,%ymm1,%ymm10
+  .byte  98,114,125,40,78,233                // vrsqrt14ps    %ymm1,%ymm13
+  .byte  98,82,125,40,76,237                 // vrcp14ps      %ymm13,%ymm13
+  .byte  197,148,92,201                      // vsubps        %ymm1,%ymm13,%ymm1
+  .byte  197,28,89,231                       // vmulps        %ymm7,%ymm12,%ymm12
+  .byte  197,76,88,238                       // vaddps        %ymm6,%ymm6,%ymm13
+  .byte  196,65,20,88,237                    // vaddps        %ymm13,%ymm13,%ymm13
+  .byte  98,241,20,40,194,199,2              // vcmpleps      %ymm7,%ymm13,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  196,195,117,74,202,208              // vblendvps     %ymm13,%ymm10,%ymm1,%ymm1
+  .byte  197,156,89,201                      // vmulps        %ymm1,%ymm12,%ymm1
+  .byte  196,226,101,184,206                 // vfmadd231ps   %ymm6,%ymm3,%ymm1
+  .byte  98,49,12,40,89,208                  // vmulps        %ymm16,%ymm14,%ymm10
+  .byte  196,98,53,184,214                   // vfmadd231ps   %ymm6,%ymm9,%ymm10
+  .byte  98,241,108,40,194,195,2             // vcmpleps      %ymm3,%ymm2,%k0
+  .byte  98,242,126,40,56,208                // vpmovm2d      %k0,%ymm2
+  .byte  196,195,117,74,203,32               // vblendvps     %ymm2,%ymm11,%ymm1,%ymm1
+  .byte  197,172,88,209                      // vaddps        %ymm1,%ymm10,%ymm2
+  .byte  196,194,69,184,217                  // vfmadd231ps   %ymm9,%ymm7,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,193                      // vmovaps       %ymm8,%ymm1
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_hue_skx
+.globl _sk_hue_skx
+FUNCTION(_sk_hue_skx)
+_sk_hue_skx:
+  .byte  98,225,124,40,40,210                // vmovaps       %ymm2,%ymm18
+  .byte  98,225,124,40,40,225                // vmovaps       %ymm1,%ymm20
+  .byte  197,124,89,203                      // vmulps        %ymm3,%ymm0,%ymm9
+  .byte  98,113,92,32,89,211                 // vmulps        %ymm3,%ymm20,%ymm10
+  .byte  98,113,108,32,89,219                // vmulps        %ymm3,%ymm18,%ymm11
+  .byte  197,84,95,198                       // vmaxps        %ymm6,%ymm5,%ymm8
+  .byte  196,65,92,95,192                    // vmaxps        %ymm8,%ymm4,%ymm8
+  .byte  197,84,93,230                       // vminps        %ymm6,%ymm5,%ymm12
+  .byte  196,65,92,93,228                    // vminps        %ymm12,%ymm4,%ymm12
+  .byte  196,65,60,92,196                    // vsubps        %ymm12,%ymm8,%ymm8
+  .byte  197,60,89,227                       // vmulps        %ymm3,%ymm8,%ymm12
+  .byte  196,65,44,93,195                    // vminps        %ymm11,%ymm10,%ymm8
+  .byte  196,65,52,93,232                    // vminps        %ymm8,%ymm9,%ymm13
+  .byte  196,65,44,95,195                    // vmaxps        %ymm11,%ymm10,%ymm8
+  .byte  196,65,52,95,192                    // vmaxps        %ymm8,%ymm9,%ymm8
+  .byte  196,65,60,92,245                    // vsubps        %ymm13,%ymm8,%ymm14
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  98,241,12,40,194,193,0              // vcmpeqps      %ymm1,%ymm14,%k0
+  .byte  98,114,126,40,56,248                // vpmovm2d      %k0,%ymm15
+  .byte  196,65,52,92,205                    // vsubps        %ymm13,%ymm9,%ymm9
+  .byte  196,65,28,89,201                    // vmulps        %ymm9,%ymm12,%ymm9
+  .byte  196,65,52,94,206                    // vdivps        %ymm14,%ymm9,%ymm9
+  .byte  196,99,53,74,201,240                // vblendvps     %ymm15,%ymm1,%ymm9,%ymm9
+  .byte  196,65,44,92,213                    // vsubps        %ymm13,%ymm10,%ymm10
+  .byte  196,65,28,89,210                    // vmulps        %ymm10,%ymm12,%ymm10
+  .byte  196,65,44,94,214                    // vdivps        %ymm14,%ymm10,%ymm10
+  .byte  196,99,45,74,209,240                // vblendvps     %ymm15,%ymm1,%ymm10,%ymm10
+  .byte  196,65,36,92,221                    // vsubps        %ymm13,%ymm11,%ymm11
+  .byte  196,65,28,89,219                    // vmulps        %ymm11,%ymm12,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,99,37,74,225,240                // vblendvps     %ymm15,%ymm1,%ymm11,%ymm12
+  .byte  196,98,125,24,45,58,28,3,0          // vbroadcastss  0x31c3a(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,53,53,28,3,0          // vbroadcastss  0x31c35(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,65,84,89,254                    // vmulps        %ymm14,%ymm5,%ymm15
+  .byte  196,66,93,184,253                   // vfmadd231ps   %ymm13,%ymm4,%ymm15
+  .byte  98,226,125,40,24,5,37,28,3,0        // vbroadcastss  0x31c25(%rip),%ymm16        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  98,50,77,40,184,248                 // vfmadd231ps   %ymm16,%ymm6,%ymm15
+  .byte  196,65,44,89,222                    // vmulps        %ymm14,%ymm10,%ymm11
+  .byte  196,66,53,184,221                   // vfmadd231ps   %ymm13,%ymm9,%ymm11
+  .byte  98,50,29,40,184,216                 // vfmadd231ps   %ymm16,%ymm12,%ymm11
+  .byte  196,66,101,170,251                  // vfmsub213ps   %ymm11,%ymm3,%ymm15
+  .byte  196,65,52,88,207                    // vaddps        %ymm15,%ymm9,%ymm9
+  .byte  196,65,44,88,223                    // vaddps        %ymm15,%ymm10,%ymm11
+  .byte  196,65,28,88,215                    // vaddps        %ymm15,%ymm12,%ymm10
+  .byte  197,100,89,231                      // vmulps        %ymm7,%ymm3,%ymm12
+  .byte  196,65,36,93,250                    // vminps        %ymm10,%ymm11,%ymm15
+  .byte  196,65,52,93,255                    // vminps        %ymm15,%ymm9,%ymm15
+  .byte  98,193,36,40,95,202                 // vmaxps        %ymm10,%ymm11,%ymm17
+  .byte  98,161,52,40,95,201                 // vmaxps        %ymm17,%ymm9,%ymm17
+  .byte  196,65,36,89,246                    // vmulps        %ymm14,%ymm11,%ymm14
+  .byte  196,66,53,184,245                   // vfmadd231ps   %ymm13,%ymm9,%ymm14
+  .byte  98,50,45,40,184,240                 // vfmadd231ps   %ymm16,%ymm10,%ymm14
+  .byte  98,209,116,40,194,199,2             // vcmpleps      %ymm15,%ymm1,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  98,193,52,40,92,198                 // vsubps        %ymm14,%ymm9,%ymm16
+  .byte  98,161,12,40,89,192                 // vmulps        %ymm16,%ymm14,%ymm16
+  .byte  196,65,12,92,255                    // vsubps        %ymm15,%ymm14,%ymm15
+  .byte  98,193,124,32,94,199                // vdivps        %ymm15,%ymm16,%ymm16
+  .byte  98,49,12,40,88,192                  // vaddps        %ymm16,%ymm14,%ymm8
+  .byte  196,67,61,74,193,208                // vblendvps     %ymm13,%ymm9,%ymm8,%ymm8
+  .byte  98,177,28,40,194,193,1              // vcmpltps      %ymm17,%ymm12,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  98,193,60,40,92,198                 // vsubps        %ymm14,%ymm8,%ymm16
+  .byte  98,193,28,40,92,222                 // vsubps        %ymm14,%ymm12,%ymm19
+  .byte  98,161,100,32,89,192                // vmulps        %ymm16,%ymm19,%ymm16
+  .byte  98,193,116,32,92,206                // vsubps        %ymm14,%ymm17,%ymm17
+  .byte  98,161,124,32,94,193                // vdivps        %ymm17,%ymm16,%ymm16
+  .byte  98,177,12,40,88,208                 // vaddps        %ymm16,%ymm14,%ymm2
+  .byte  196,227,61,74,210,144               // vblendvps     %ymm9,%ymm2,%ymm8,%ymm2
+  .byte  197,236,95,209                      // vmaxps        %ymm1,%ymm2,%ymm2
+  .byte  196,65,36,92,198                    // vsubps        %ymm14,%ymm11,%ymm8
+  .byte  196,65,12,89,192                    // vmulps        %ymm8,%ymm14,%ymm8
+  .byte  196,65,60,94,199                    // vdivps        %ymm15,%ymm8,%ymm8
+  .byte  196,65,12,88,192                    // vaddps        %ymm8,%ymm14,%ymm8
+  .byte  196,67,61,74,195,208                // vblendvps     %ymm13,%ymm11,%ymm8,%ymm8
+  .byte  196,65,60,92,222                    // vsubps        %ymm14,%ymm8,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,217                  // vdivps        %ymm17,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,61,74,195,144                // vblendvps     %ymm9,%ymm11,%ymm8,%ymm8
+  .byte  197,60,95,193                       // vmaxps        %ymm1,%ymm8,%ymm8
+  .byte  196,65,44,92,222                    // vsubps        %ymm14,%ymm10,%ymm11
+  .byte  196,65,12,89,219                    // vmulps        %ymm11,%ymm14,%ymm11
+  .byte  196,65,36,94,223                    // vdivps        %ymm15,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,37,74,210,208                // vblendvps     %ymm13,%ymm10,%ymm11,%ymm10
+  .byte  196,65,44,92,222                    // vsubps        %ymm14,%ymm10,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,217                  // vdivps        %ymm17,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,45,74,203,144                // vblendvps     %ymm9,%ymm11,%ymm10,%ymm9
+  .byte  197,52,95,201                       // vmaxps        %ymm1,%ymm9,%ymm9
+  .byte  196,226,125,24,13,193,26,3,0        // vbroadcastss  0x31ac1(%rip),%ymm1        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,116,92,215                      // vsubps        %ymm7,%ymm1,%ymm10
+  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  197,116,92,219                      // vsubps        %ymm3,%ymm1,%ymm11
+  .byte  196,226,37,184,196                  // vfmadd231ps   %ymm4,%ymm11,%ymm0
+  .byte  197,252,88,194                      // vaddps        %ymm2,%ymm0,%ymm0
+  .byte  98,177,44,40,89,204                 // vmulps        %ymm20,%ymm10,%ymm1
+  .byte  196,226,37,184,205                  // vfmadd231ps   %ymm5,%ymm11,%ymm1
+  .byte  196,193,116,88,200                  // vaddps        %ymm8,%ymm1,%ymm1
+  .byte  98,177,44,40,89,210                 // vmulps        %ymm18,%ymm10,%ymm2
+  .byte  196,98,77,168,218                   // vfmadd213ps   %ymm2,%ymm6,%ymm11
+  .byte  196,193,36,88,209                   // vaddps        %ymm9,%ymm11,%ymm2
+  .byte  197,228,88,223                      // vaddps        %ymm7,%ymm3,%ymm3
+  .byte  196,193,100,92,220                  // vsubps        %ymm12,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_saturation_skx
+.globl _sk_saturation_skx
+FUNCTION(_sk_saturation_skx)
+_sk_saturation_skx:
+  .byte  98,225,124,40,40,210                // vmovaps       %ymm2,%ymm18
+  .byte  98,225,124,40,40,225                // vmovaps       %ymm1,%ymm20
+  .byte  197,100,89,204                      // vmulps        %ymm4,%ymm3,%ymm9
+  .byte  197,100,89,213                      // vmulps        %ymm5,%ymm3,%ymm10
+  .byte  197,100,89,222                      // vmulps        %ymm6,%ymm3,%ymm11
+  .byte  98,49,92,32,95,194                  // vmaxps        %ymm18,%ymm20,%ymm8
+  .byte  196,65,124,95,192                   // vmaxps        %ymm8,%ymm0,%ymm8
+  .byte  98,49,92,32,93,226                  // vminps        %ymm18,%ymm20,%ymm12
+  .byte  196,65,124,93,228                   // vminps        %ymm12,%ymm0,%ymm12
+  .byte  196,65,60,92,196                    // vsubps        %ymm12,%ymm8,%ymm8
+  .byte  197,60,89,231                       // vmulps        %ymm7,%ymm8,%ymm12
+  .byte  196,65,44,93,195                    // vminps        %ymm11,%ymm10,%ymm8
+  .byte  196,65,52,93,232                    // vminps        %ymm8,%ymm9,%ymm13
+  .byte  196,65,44,95,195                    // vmaxps        %ymm11,%ymm10,%ymm8
+  .byte  196,65,52,95,192                    // vmaxps        %ymm8,%ymm9,%ymm8
+  .byte  196,65,60,92,245                    // vsubps        %ymm13,%ymm8,%ymm14
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  98,241,12,40,194,193,0              // vcmpeqps      %ymm1,%ymm14,%k0
+  .byte  98,114,126,40,56,248                // vpmovm2d      %k0,%ymm15
+  .byte  196,65,52,92,205                    // vsubps        %ymm13,%ymm9,%ymm9
+  .byte  196,65,28,89,201                    // vmulps        %ymm9,%ymm12,%ymm9
+  .byte  196,65,52,94,206                    // vdivps        %ymm14,%ymm9,%ymm9
+  .byte  196,99,53,74,201,240                // vblendvps     %ymm15,%ymm1,%ymm9,%ymm9
+  .byte  196,65,44,92,213                    // vsubps        %ymm13,%ymm10,%ymm10
+  .byte  196,65,28,89,210                    // vmulps        %ymm10,%ymm12,%ymm10
+  .byte  196,65,44,94,214                    // vdivps        %ymm14,%ymm10,%ymm10
+  .byte  196,99,45,74,209,240                // vblendvps     %ymm15,%ymm1,%ymm10,%ymm10
+  .byte  196,65,36,92,221                    // vsubps        %ymm13,%ymm11,%ymm11
+  .byte  196,65,28,89,219                    // vmulps        %ymm11,%ymm12,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,99,37,74,225,240                // vblendvps     %ymm15,%ymm1,%ymm11,%ymm12
+  .byte  196,98,125,24,45,246,25,3,0         // vbroadcastss  0x319f6(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,53,241,25,3,0         // vbroadcastss  0x319f1(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,65,84,89,254                    // vmulps        %ymm14,%ymm5,%ymm15
+  .byte  196,66,93,184,253                   // vfmadd231ps   %ymm13,%ymm4,%ymm15
+  .byte  98,226,125,40,24,5,225,25,3,0       // vbroadcastss  0x319e1(%rip),%ymm16        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  98,50,77,40,184,248                 // vfmadd231ps   %ymm16,%ymm6,%ymm15
+  .byte  196,65,44,89,222                    // vmulps        %ymm14,%ymm10,%ymm11
+  .byte  196,66,53,184,221                   // vfmadd231ps   %ymm13,%ymm9,%ymm11
+  .byte  98,50,29,40,184,216                 // vfmadd231ps   %ymm16,%ymm12,%ymm11
+  .byte  196,66,101,170,251                  // vfmsub213ps   %ymm11,%ymm3,%ymm15
+  .byte  196,65,52,88,207                    // vaddps        %ymm15,%ymm9,%ymm9
+  .byte  196,65,44,88,223                    // vaddps        %ymm15,%ymm10,%ymm11
+  .byte  196,65,28,88,215                    // vaddps        %ymm15,%ymm12,%ymm10
+  .byte  197,100,89,231                      // vmulps        %ymm7,%ymm3,%ymm12
+  .byte  196,65,36,93,250                    // vminps        %ymm10,%ymm11,%ymm15
+  .byte  196,65,52,93,255                    // vminps        %ymm15,%ymm9,%ymm15
+  .byte  98,193,36,40,95,202                 // vmaxps        %ymm10,%ymm11,%ymm17
+  .byte  98,161,52,40,95,201                 // vmaxps        %ymm17,%ymm9,%ymm17
+  .byte  196,65,36,89,246                    // vmulps        %ymm14,%ymm11,%ymm14
+  .byte  196,66,53,184,245                   // vfmadd231ps   %ymm13,%ymm9,%ymm14
+  .byte  98,50,45,40,184,240                 // vfmadd231ps   %ymm16,%ymm10,%ymm14
+  .byte  98,209,116,40,194,199,2             // vcmpleps      %ymm15,%ymm1,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  98,193,52,40,92,198                 // vsubps        %ymm14,%ymm9,%ymm16
+  .byte  98,161,12,40,89,192                 // vmulps        %ymm16,%ymm14,%ymm16
+  .byte  196,65,12,92,255                    // vsubps        %ymm15,%ymm14,%ymm15
+  .byte  98,193,124,32,94,199                // vdivps        %ymm15,%ymm16,%ymm16
+  .byte  98,49,12,40,88,192                  // vaddps        %ymm16,%ymm14,%ymm8
+  .byte  196,67,61,74,193,208                // vblendvps     %ymm13,%ymm9,%ymm8,%ymm8
+  .byte  98,177,28,40,194,193,1              // vcmpltps      %ymm17,%ymm12,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  98,193,60,40,92,198                 // vsubps        %ymm14,%ymm8,%ymm16
+  .byte  98,193,28,40,92,222                 // vsubps        %ymm14,%ymm12,%ymm19
+  .byte  98,161,100,32,89,192                // vmulps        %ymm16,%ymm19,%ymm16
+  .byte  98,193,116,32,92,206                // vsubps        %ymm14,%ymm17,%ymm17
+  .byte  98,161,124,32,94,193                // vdivps        %ymm17,%ymm16,%ymm16
+  .byte  98,177,12,40,88,208                 // vaddps        %ymm16,%ymm14,%ymm2
+  .byte  196,227,61,74,210,144               // vblendvps     %ymm9,%ymm2,%ymm8,%ymm2
+  .byte  197,236,95,209                      // vmaxps        %ymm1,%ymm2,%ymm2
+  .byte  196,65,36,92,198                    // vsubps        %ymm14,%ymm11,%ymm8
+  .byte  196,65,12,89,192                    // vmulps        %ymm8,%ymm14,%ymm8
+  .byte  196,65,60,94,199                    // vdivps        %ymm15,%ymm8,%ymm8
+  .byte  196,65,12,88,192                    // vaddps        %ymm8,%ymm14,%ymm8
+  .byte  196,67,61,74,195,208                // vblendvps     %ymm13,%ymm11,%ymm8,%ymm8
+  .byte  196,65,60,92,222                    // vsubps        %ymm14,%ymm8,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,217                  // vdivps        %ymm17,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,61,74,195,144                // vblendvps     %ymm9,%ymm11,%ymm8,%ymm8
+  .byte  197,60,95,193                       // vmaxps        %ymm1,%ymm8,%ymm8
+  .byte  196,65,44,92,222                    // vsubps        %ymm14,%ymm10,%ymm11
+  .byte  196,65,12,89,219                    // vmulps        %ymm11,%ymm14,%ymm11
+  .byte  196,65,36,94,223                    // vdivps        %ymm15,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,37,74,210,208                // vblendvps     %ymm13,%ymm10,%ymm11,%ymm10
+  .byte  196,65,44,92,222                    // vsubps        %ymm14,%ymm10,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,217                  // vdivps        %ymm17,%ymm11,%ymm11
+  .byte  196,65,12,88,219                    // vaddps        %ymm11,%ymm14,%ymm11
+  .byte  196,67,45,74,203,144                // vblendvps     %ymm9,%ymm11,%ymm10,%ymm9
+  .byte  197,52,95,201                       // vmaxps        %ymm1,%ymm9,%ymm9
+  .byte  196,226,125,24,13,125,24,3,0        // vbroadcastss  0x3187d(%rip),%ymm1        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,116,92,215                      // vsubps        %ymm7,%ymm1,%ymm10
+  .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
+  .byte  197,116,92,219                      // vsubps        %ymm3,%ymm1,%ymm11
+  .byte  196,226,37,184,196                  // vfmadd231ps   %ymm4,%ymm11,%ymm0
+  .byte  197,252,88,194                      // vaddps        %ymm2,%ymm0,%ymm0
+  .byte  98,177,44,40,89,204                 // vmulps        %ymm20,%ymm10,%ymm1
+  .byte  196,226,37,184,205                  // vfmadd231ps   %ymm5,%ymm11,%ymm1
+  .byte  196,193,116,88,200                  // vaddps        %ymm8,%ymm1,%ymm1
+  .byte  98,177,44,40,89,210                 // vmulps        %ymm18,%ymm10,%ymm2
+  .byte  196,98,77,168,218                   // vfmadd213ps   %ymm2,%ymm6,%ymm11
+  .byte  196,193,36,88,209                   // vaddps        %ymm9,%ymm11,%ymm2
+  .byte  197,228,88,223                      // vaddps        %ymm7,%ymm3,%ymm3
+  .byte  196,193,100,92,220                  // vsubps        %ymm12,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_color_skx
+.globl _sk_color_skx
+FUNCTION(_sk_color_skx)
+_sk_color_skx:
+  .byte  197,124,89,199                      // vmulps        %ymm7,%ymm0,%ymm8
+  .byte  197,116,89,207                      // vmulps        %ymm7,%ymm1,%ymm9
+  .byte  197,108,89,223                      // vmulps        %ymm7,%ymm2,%ymm11
+  .byte  196,98,125,24,37,70,24,3,0          // vbroadcastss  0x31846(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,45,65,24,3,0          // vbroadcastss  0x31841(%rip),%ymm13        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,65,84,89,245                    // vmulps        %ymm13,%ymm5,%ymm14
+  .byte  196,66,93,184,244                   // vfmadd231ps   %ymm12,%ymm4,%ymm14
+  .byte  196,98,125,24,61,50,24,3,0          // vbroadcastss  0x31832(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  196,66,77,184,247                   // vfmadd231ps   %ymm15,%ymm6,%ymm14
+  .byte  196,65,52,89,213                    // vmulps        %ymm13,%ymm9,%ymm10
+  .byte  196,66,61,184,212                   // vfmadd231ps   %ymm12,%ymm8,%ymm10
+  .byte  196,66,37,184,215                   // vfmadd231ps   %ymm15,%ymm11,%ymm10
+  .byte  196,66,101,170,242                  // vfmsub213ps   %ymm10,%ymm3,%ymm14
+  .byte  196,65,60,88,198                    // vaddps        %ymm14,%ymm8,%ymm8
+  .byte  196,65,52,88,214                    // vaddps        %ymm14,%ymm9,%ymm10
+  .byte  196,65,36,88,206                    // vaddps        %ymm14,%ymm11,%ymm9
+  .byte  98,225,100,40,89,231                // vmulps        %ymm7,%ymm3,%ymm20
+  .byte  196,65,44,93,241                    // vminps        %ymm9,%ymm10,%ymm14
+  .byte  196,65,60,93,246                    // vminps        %ymm14,%ymm8,%ymm14
+  .byte  98,193,44,40,95,193                 // vmaxps        %ymm9,%ymm10,%ymm16
+  .byte  98,161,60,40,95,192                 // vmaxps        %ymm16,%ymm8,%ymm16
+  .byte  196,65,44,89,237                    // vmulps        %ymm13,%ymm10,%ymm13
+  .byte  196,66,61,184,236                   // vfmadd231ps   %ymm12,%ymm8,%ymm13
+  .byte  196,66,53,184,239                   // vfmadd231ps   %ymm15,%ymm9,%ymm13
+  .byte  98,161,108,32,87,210                // vxorps        %ymm18,%ymm18,%ymm18
+  .byte  98,209,108,32,194,198,2             // vcmpleps      %ymm14,%ymm18,%k0
+  .byte  98,114,126,40,56,248                // vpmovm2d      %k0,%ymm15
+  .byte  98,193,60,40,92,205                 // vsubps        %ymm13,%ymm8,%ymm17
+  .byte  98,161,20,40,89,201                 // vmulps        %ymm17,%ymm13,%ymm17
+  .byte  196,65,20,92,246                    // vsubps        %ymm14,%ymm13,%ymm14
+  .byte  98,193,116,32,94,206                // vdivps        %ymm14,%ymm17,%ymm17
+  .byte  98,49,20,40,88,225                  // vaddps        %ymm17,%ymm13,%ymm12
+  .byte  196,67,29,74,192,240                // vblendvps     %ymm15,%ymm8,%ymm12,%ymm8
+  .byte  98,177,92,32,194,192,1              // vcmpltps      %ymm16,%ymm20,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  98,193,60,40,92,205                 // vsubps        %ymm13,%ymm8,%ymm17
+  .byte  98,193,92,32,92,221                 // vsubps        %ymm13,%ymm20,%ymm19
+  .byte  98,161,100,32,89,201                // vmulps        %ymm17,%ymm19,%ymm17
+  .byte  98,193,124,32,92,197                // vsubps        %ymm13,%ymm16,%ymm16
+  .byte  98,161,116,32,94,200                // vdivps        %ymm16,%ymm17,%ymm17
+  .byte  98,49,20,40,88,217                  // vaddps        %ymm17,%ymm13,%ymm11
+  .byte  196,67,61,74,195,192                // vblendvps     %ymm12,%ymm11,%ymm8,%ymm8
+  .byte  98,49,60,40,95,194                  // vmaxps        %ymm18,%ymm8,%ymm8
+  .byte  196,65,44,92,221                    // vsubps        %ymm13,%ymm10,%ymm11
+  .byte  196,65,20,89,219                    // vmulps        %ymm11,%ymm13,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,37,74,210,240                // vblendvps     %ymm15,%ymm10,%ymm11,%ymm10
+  .byte  196,65,44,92,221                    // vsubps        %ymm13,%ymm10,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,216                  // vdivps        %ymm16,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,45,74,211,192                // vblendvps     %ymm12,%ymm11,%ymm10,%ymm10
+  .byte  98,49,44,40,95,210                  // vmaxps        %ymm18,%ymm10,%ymm10
+  .byte  196,65,52,92,221                    // vsubps        %ymm13,%ymm9,%ymm11
+  .byte  196,65,20,89,219                    // vmulps        %ymm11,%ymm13,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,37,74,201,240                // vblendvps     %ymm15,%ymm9,%ymm11,%ymm9
+  .byte  196,65,52,92,221                    // vsubps        %ymm13,%ymm9,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,216                  // vdivps        %ymm16,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,53,74,203,192                // vblendvps     %ymm12,%ymm11,%ymm9,%ymm9
+  .byte  98,49,52,40,95,202                  // vmaxps        %ymm18,%ymm9,%ymm9
+  .byte  196,98,125,24,29,195,22,3,0         // vbroadcastss  0x316c3(%rip),%ymm11        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,36,92,231                       // vsubps        %ymm7,%ymm11,%ymm12
+  .byte  197,156,89,192                      // vmulps        %ymm0,%ymm12,%ymm0
+  .byte  197,36,92,219                       // vsubps        %ymm3,%ymm11,%ymm11
+  .byte  196,226,37,184,196                  // vfmadd231ps   %ymm4,%ymm11,%ymm0
+  .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
+  .byte  197,156,89,201                      // vmulps        %ymm1,%ymm12,%ymm1
+  .byte  196,226,37,184,205                  // vfmadd231ps   %ymm5,%ymm11,%ymm1
+  .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
+  .byte  197,156,89,210                      // vmulps        %ymm2,%ymm12,%ymm2
+  .byte  196,98,77,168,218                   // vfmadd213ps   %ymm2,%ymm6,%ymm11
+  .byte  196,193,36,88,209                   // vaddps        %ymm9,%ymm11,%ymm2
+  .byte  197,228,88,223                      // vaddps        %ymm7,%ymm3,%ymm3
+  .byte  98,177,100,40,92,220                // vsubps        %ymm20,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_luminosity_skx
+.globl _sk_luminosity_skx
+FUNCTION(_sk_luminosity_skx)
+_sk_luminosity_skx:
+  .byte  197,100,89,196                      // vmulps        %ymm4,%ymm3,%ymm8
+  .byte  197,100,89,205                      // vmulps        %ymm5,%ymm3,%ymm9
+  .byte  197,100,89,222                      // vmulps        %ymm6,%ymm3,%ymm11
+  .byte  196,98,125,24,37,142,22,3,0         // vbroadcastss  0x3168e(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,45,137,22,3,0         // vbroadcastss  0x31689(%rip),%ymm13        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,65,116,89,245                   // vmulps        %ymm13,%ymm1,%ymm14
+  .byte  196,66,125,184,244                  // vfmadd231ps   %ymm12,%ymm0,%ymm14
+  .byte  196,98,125,24,61,122,22,3,0         // vbroadcastss  0x3167a(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  196,66,109,184,247                  // vfmadd231ps   %ymm15,%ymm2,%ymm14
+  .byte  196,65,52,89,213                    // vmulps        %ymm13,%ymm9,%ymm10
+  .byte  196,66,61,184,212                   // vfmadd231ps   %ymm12,%ymm8,%ymm10
+  .byte  196,66,37,184,215                   // vfmadd231ps   %ymm15,%ymm11,%ymm10
+  .byte  196,66,69,170,242                   // vfmsub213ps   %ymm10,%ymm7,%ymm14
+  .byte  196,65,60,88,198                    // vaddps        %ymm14,%ymm8,%ymm8
+  .byte  196,65,52,88,214                    // vaddps        %ymm14,%ymm9,%ymm10
+  .byte  196,65,36,88,206                    // vaddps        %ymm14,%ymm11,%ymm9
+  .byte  98,225,100,40,89,231                // vmulps        %ymm7,%ymm3,%ymm20
+  .byte  196,65,44,93,241                    // vminps        %ymm9,%ymm10,%ymm14
+  .byte  196,65,60,93,246                    // vminps        %ymm14,%ymm8,%ymm14
+  .byte  98,193,44,40,95,193                 // vmaxps        %ymm9,%ymm10,%ymm16
+  .byte  98,161,60,40,95,192                 // vmaxps        %ymm16,%ymm8,%ymm16
+  .byte  196,65,44,89,237                    // vmulps        %ymm13,%ymm10,%ymm13
+  .byte  196,66,61,184,236                   // vfmadd231ps   %ymm12,%ymm8,%ymm13
+  .byte  196,66,53,184,239                   // vfmadd231ps   %ymm15,%ymm9,%ymm13
+  .byte  98,161,108,32,87,210                // vxorps        %ymm18,%ymm18,%ymm18
+  .byte  98,209,108,32,194,198,2             // vcmpleps      %ymm14,%ymm18,%k0
+  .byte  98,114,126,40,56,248                // vpmovm2d      %k0,%ymm15
+  .byte  98,193,60,40,92,205                 // vsubps        %ymm13,%ymm8,%ymm17
+  .byte  98,161,20,40,89,201                 // vmulps        %ymm17,%ymm13,%ymm17
+  .byte  196,65,20,92,246                    // vsubps        %ymm14,%ymm13,%ymm14
+  .byte  98,193,116,32,94,206                // vdivps        %ymm14,%ymm17,%ymm17
+  .byte  98,49,20,40,88,225                  // vaddps        %ymm17,%ymm13,%ymm12
+  .byte  196,67,29,74,192,240                // vblendvps     %ymm15,%ymm8,%ymm12,%ymm8
+  .byte  98,177,92,32,194,192,1              // vcmpltps      %ymm16,%ymm20,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  98,193,60,40,92,205                 // vsubps        %ymm13,%ymm8,%ymm17
+  .byte  98,193,92,32,92,221                 // vsubps        %ymm13,%ymm20,%ymm19
+  .byte  98,161,100,32,89,201                // vmulps        %ymm17,%ymm19,%ymm17
+  .byte  98,193,124,32,92,197                // vsubps        %ymm13,%ymm16,%ymm16
+  .byte  98,161,116,32,94,200                // vdivps        %ymm16,%ymm17,%ymm17
+  .byte  98,49,20,40,88,217                  // vaddps        %ymm17,%ymm13,%ymm11
+  .byte  196,67,61,74,195,192                // vblendvps     %ymm12,%ymm11,%ymm8,%ymm8
+  .byte  98,49,60,40,95,194                  // vmaxps        %ymm18,%ymm8,%ymm8
+  .byte  196,65,44,92,221                    // vsubps        %ymm13,%ymm10,%ymm11
+  .byte  196,65,20,89,219                    // vmulps        %ymm11,%ymm13,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,37,74,210,240                // vblendvps     %ymm15,%ymm10,%ymm11,%ymm10
+  .byte  196,65,44,92,221                    // vsubps        %ymm13,%ymm10,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,216                  // vdivps        %ymm16,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,45,74,211,192                // vblendvps     %ymm12,%ymm11,%ymm10,%ymm10
+  .byte  98,49,44,40,95,210                  // vmaxps        %ymm18,%ymm10,%ymm10
+  .byte  196,65,52,92,221                    // vsubps        %ymm13,%ymm9,%ymm11
+  .byte  196,65,20,89,219                    // vmulps        %ymm11,%ymm13,%ymm11
+  .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,37,74,201,240                // vblendvps     %ymm15,%ymm9,%ymm11,%ymm9
+  .byte  196,65,52,92,221                    // vsubps        %ymm13,%ymm9,%ymm11
+  .byte  98,81,100,32,89,219                 // vmulps        %ymm11,%ymm19,%ymm11
+  .byte  98,49,36,40,94,216                  // vdivps        %ymm16,%ymm11,%ymm11
+  .byte  196,65,20,88,219                    // vaddps        %ymm11,%ymm13,%ymm11
+  .byte  196,67,53,74,203,192                // vblendvps     %ymm12,%ymm11,%ymm9,%ymm9
+  .byte  98,49,52,40,95,202                  // vmaxps        %ymm18,%ymm9,%ymm9
+  .byte  196,98,125,24,29,11,21,3,0          // vbroadcastss  0x3150b(%rip),%ymm11        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,36,92,231                       // vsubps        %ymm7,%ymm11,%ymm12
+  .byte  197,156,89,192                      // vmulps        %ymm0,%ymm12,%ymm0
+  .byte  197,36,92,219                       // vsubps        %ymm3,%ymm11,%ymm11
+  .byte  196,226,37,184,196                  // vfmadd231ps   %ymm4,%ymm11,%ymm0
+  .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
+  .byte  197,156,89,201                      // vmulps        %ymm1,%ymm12,%ymm1
+  .byte  196,226,37,184,205                  // vfmadd231ps   %ymm5,%ymm11,%ymm1
+  .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
+  .byte  197,156,89,210                      // vmulps        %ymm2,%ymm12,%ymm2
+  .byte  196,98,77,168,218                   // vfmadd213ps   %ymm2,%ymm6,%ymm11
+  .byte  196,193,36,88,209                   // vaddps        %ymm9,%ymm11,%ymm2
+  .byte  197,228,88,223                      // vaddps        %ymm7,%ymm3,%ymm3
+  .byte  98,177,100,40,92,220                // vsubps        %ymm20,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_srcover_rgba_8888_skx
+.globl _sk_srcover_rgba_8888_skx
+FUNCTION(_sk_srcover_rgba_8888_skx)
+_sk_srcover_rgba_8888_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,190,0,0,0                    // jne           151b <_sk_srcover_rgba_8888_skx+0xde>
+  .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,241,127,169,111,231              // vmovdqu8      %ymm7,%ymm4{%k1}{z}
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  197,213,114,215,8                   // vpsrld        $0x8,%ymm7,%ymm5
+  .byte  98,241,127,169,111,237              // vmovdqu8      %ymm5,%ymm5{%k1}{z}
+  .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
+  .byte  197,205,114,215,16                  // vpsrld        $0x10,%ymm7,%ymm6
+  .byte  98,241,127,169,111,246              // vmovdqu8      %ymm6,%ymm6{%k1}{z}
+  .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
+  .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
+  .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
+  .byte  196,98,125,24,5,98,20,3,0           // vbroadcastss  0x31462(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
+  .byte  196,98,125,24,13,129,20,3,0         // vbroadcastss  0x31481(%rip),%ymm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  196,194,93,184,192                  // vfmadd231ps   %ymm8,%ymm4,%ymm0
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
+  .byte  196,194,85,184,200                  // vfmadd231ps   %ymm8,%ymm5,%ymm1
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
+  .byte  196,194,77,184,208                  // vfmadd231ps   %ymm8,%ymm6,%ymm2
+  .byte  196,193,100,89,217                  // vmulps        %ymm9,%ymm3,%ymm3
+  .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
+  .byte  197,125,91,192                      // vcvtps2dq     %ymm0,%ymm8
+  .byte  197,125,91,201                      // vcvtps2dq     %ymm1,%ymm9
+  .byte  196,193,53,114,241,8                // vpslld        $0x8,%ymm9,%ymm9
+  .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
+  .byte  197,125,91,202                      // vcvtps2dq     %ymm2,%ymm9
+  .byte  196,193,53,114,241,16               // vpslld        $0x10,%ymm9,%ymm9
+  .byte  197,125,91,211                      // vcvtps2dq     %ymm3,%ymm10
+  .byte  196,193,45,114,242,24               // vpslld        $0x18,%ymm10,%ymm10
+  .byte  196,65,53,235,202                   // vpor          %ymm10,%ymm9,%ymm9
+  .byte  196,65,61,235,193                   // vpor          %ymm9,%ymm8,%ymm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,66                              // jne           1553 <_sk_srcover_rgba_8888_skx+0x116>
+  .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  15,135,47,255,255,255               // ja            1463 <_sk_srcover_rgba_8888_skx+0x26>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,5,1,0,0                   // lea           0x105(%rip),%r10        # 1644 <_sk_srcover_rgba_8888_skx+0x207>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
+  .byte  233,16,255,255,255                  // jmpq          1463 <_sk_srcover_rgba_8888_skx+0x26>
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,179                             // ja            1517 <_sk_srcover_rgba_8888_skx+0xda>
+  .byte  65,15,182,193                       // movzbl        %r9b,%eax
+  .byte  76,141,13,241,0,0,0                 // lea           0xf1(%rip),%r9        # 1660 <_sk_srcover_rgba_8888_skx+0x223>
+  .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
+  .byte  76,1,200                            // add           %r9,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
+  .byte  235,151                             // jmp           1517 <_sk_srcover_rgba_8888_skx+0xda>
+  .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
+  .byte  176,4                               // mov           $0x4,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,130,121,53,36,152               // vpmovzxdq     (%r8,%r11,4),%xmm4
+  .byte  197,249,112,228,232                 // vpshufd       $0xe8,%xmm4,%xmm4
+  .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
+  .byte  233,186,254,255,255                 // jmpq          1463 <_sk_srcover_rgba_8888_skx+0x26>
+  .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,20,1          // vpinsrd       $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,16,0          // vpinsrd       $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
+  .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
+  .byte  233,110,254,255,255                 // jmpq          1463 <_sk_srcover_rgba_8888_skx+0x26>
+  .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
+  .byte  196,66,121,53,192                   // vpmovzxdq     %xmm8,%xmm8
+  .byte  98,18,126,8,53,4,152                // vpmovqd       %xmm8,(%r8,%r11,4)
+  .byte  233,9,255,255,255                   // jmpq          1517 <_sk_srcover_rgba_8888_skx+0xda>
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,20,1            // vpextrd       $0x1,%xmm9,0x14(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
+  .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
+  .byte  233,213,254,255,255                 // jmpq          1517 <_sk_srcover_rgba_8888_skx+0xda>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  4,255                               // add           $0xff,%al
+  .byte  255                                 // (bad)
+  .byte  255,79,255                          // decl          -0x1(%rdi)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  60,255                              // cmp           $0xff,%al
+  .byte  255                                 // (bad)
+  .byte  255,160,255,255,255,140             // jmpq          *-0x73000001(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  120,255                             // js            1659 <_sk_srcover_rgba_8888_skx+0x21c>
+  .byte  255                                 // (bad)
+  .byte  255,101,255                         // jmpq          *-0x1(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255,24                              // lcall         *(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,157,255,255,255,149             // lcall         *-0x6a000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,215                             // callq         *%rdi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,202                             // dec           %edx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  188,255,255,255,174                 // mov           $0xaeffffff,%esp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_clamp_0_skx
+.globl _sk_clamp_0_skx
+FUNCTION(_sk_clamp_0_skx)
+_sk_clamp_0_skx:
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
+  .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
+  .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
+  .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clamp_1_skx
+.globl _sk_clamp_1_skx
+FUNCTION(_sk_clamp_1_skx)
+_sk_clamp_1_skx:
+  .byte  196,98,125,24,5,102,18,3,0          // vbroadcastss  0x31266(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
+  .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
+  .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
+  .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clamp_a_skx
+.globl _sk_clamp_a_skx
+FUNCTION(_sk_clamp_a_skx)
+_sk_clamp_a_skx:
+  .byte  98,241,100,56,93,29,68,18,3,0       // vminps        0x31244(%rip){1to8},%ymm3,%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
+  .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
+  .byte  197,236,93,211                      // vminps        %ymm3,%ymm2,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clamp_a_dst_skx
+.globl _sk_clamp_a_dst_skx
+FUNCTION(_sk_clamp_a_dst_skx)
+_sk_clamp_a_dst_skx:
+  .byte  98,241,68,56,93,61,42,18,3,0        // vminps        0x3122a(%rip){1to8},%ymm7,%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,220,93,231                      // vminps        %ymm7,%ymm4,%ymm4
+  .byte  197,212,93,239                      // vminps        %ymm7,%ymm5,%ymm5
+  .byte  197,204,93,247                      // vminps        %ymm7,%ymm6,%ymm6
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_set_rgb_skx
+.globl _sk_set_rgb_skx
+FUNCTION(_sk_set_rgb_skx)
+_sk_set_rgb_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,0                    // vbroadcastss  (%rax),%ymm0
+  .byte  196,226,125,24,72,4                 // vbroadcastss  0x4(%rax),%ymm1
+  .byte  196,226,125,24,80,8                 // vbroadcastss  0x8(%rax),%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_swap_rb_skx
+.globl _sk_swap_rb_skx
+FUNCTION(_sk_swap_rb_skx)
+_sk_swap_rb_skx:
+  .byte  197,124,40,192                      // vmovaps       %ymm0,%ymm8
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,40,194                      // vmovaps       %ymm2,%ymm0
+  .byte  197,124,41,194                      // vmovaps       %ymm8,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_invert_skx
+.globl _sk_invert_skx
+FUNCTION(_sk_invert_skx)
+_sk_invert_skx:
+  .byte  196,98,125,24,5,234,17,3,0          // vbroadcastss  0x311ea(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  197,188,92,219                      // vsubps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_move_src_dst_skx
+.globl _sk_move_src_dst_skx
+FUNCTION(_sk_move_src_dst_skx)
+_sk_move_src_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,40,224                      // vmovaps       %ymm0,%ymm4
+  .byte  197,252,40,233                      // vmovaps       %ymm1,%ymm5
+  .byte  197,252,40,242                      // vmovaps       %ymm2,%ymm6
+  .byte  197,252,40,251                      // vmovaps       %ymm3,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_move_dst_src_skx
+.globl _sk_move_dst_src_skx
+FUNCTION(_sk_move_dst_src_skx)
+_sk_move_dst_src_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,40,196                      // vmovaps       %ymm4,%ymm0
+  .byte  197,252,40,205                      // vmovaps       %ymm5,%ymm1
+  .byte  197,252,40,214                      // vmovaps       %ymm6,%ymm2
+  .byte  197,252,40,223                      // vmovaps       %ymm7,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_premul_skx
+.globl _sk_premul_skx
+FUNCTION(_sk_premul_skx)
+_sk_premul_skx:
+  .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
+  .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
+  .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_premul_dst_skx
+.globl _sk_premul_dst_skx
+FUNCTION(_sk_premul_dst_skx)
+_sk_premul_dst_skx:
+  .byte  197,220,89,231                      // vmulps        %ymm7,%ymm4,%ymm4
+  .byte  197,212,89,239                      // vmulps        %ymm7,%ymm5,%ymm5
+  .byte  197,204,89,247                      // vmulps        %ymm7,%ymm6,%ymm6
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_unpremul_skx
+.globl _sk_unpremul_skx
+FUNCTION(_sk_unpremul_skx)
+_sk_unpremul_skx:
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  98,209,100,40,194,192,0             // vcmpeqps      %ymm8,%ymm3,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,98,125,24,21,115,17,3,0         // vbroadcastss  0x31173(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,44,94,211                       // vdivps        %ymm3,%ymm10,%ymm10
+  .byte  196,67,45,74,192,144                // vblendvps     %ymm9,%ymm8,%ymm10,%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_from_srgb_skx
+.globl _sk_from_srgb_skx
+FUNCTION(_sk_from_srgb_skx)
+_sk_from_srgb_skx:
+  .byte  196,98,125,24,5,128,17,3,0          // vbroadcastss  0x31180(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
+  .byte  197,124,89,208                      // vmulps        %ymm0,%ymm0,%ymm10
+  .byte  196,98,125,24,29,114,17,3,0         // vbroadcastss  0x31172(%rip),%ymm11        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,37,85,17,3,0          // vbroadcastss  0x31155(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
+  .byte  196,66,125,168,235                  // vfmadd213ps   %ymm11,%ymm0,%ymm13
+  .byte  196,98,125,24,53,90,17,3,0          // vbroadcastss  0x3115a(%rip),%ymm14        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,66,45,168,238                   // vfmadd213ps   %ymm14,%ymm10,%ymm13
+  .byte  196,98,125,24,21,80,17,3,0          // vbroadcastss  0x31150(%rip),%ymm10        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  98,209,124,40,194,194,1             // vcmpltps      %ymm10,%ymm0,%k0
+  .byte  98,242,126,40,56,192                // vpmovm2d      %k0,%ymm0
+  .byte  196,195,21,74,193,0                 // vblendvps     %ymm0,%ymm9,%ymm13,%ymm0
+  .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
+  .byte  197,116,89,233                      // vmulps        %ymm1,%ymm1,%ymm13
+  .byte  196,65,124,40,252                   // vmovaps       %ymm12,%ymm15
+  .byte  196,66,117,168,251                  // vfmadd213ps   %ymm11,%ymm1,%ymm15
+  .byte  196,66,21,168,254                   // vfmadd213ps   %ymm14,%ymm13,%ymm15
+  .byte  98,209,116,40,194,194,1             // vcmpltps      %ymm10,%ymm1,%k0
+  .byte  98,242,126,40,56,200                // vpmovm2d      %k0,%ymm1
+  .byte  196,195,5,74,201,16                 // vblendvps     %ymm1,%ymm9,%ymm15,%ymm1
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
+  .byte  197,108,89,202                      // vmulps        %ymm2,%ymm2,%ymm9
+  .byte  196,66,109,168,227                  // vfmadd213ps   %ymm11,%ymm2,%ymm12
+  .byte  196,66,53,168,230                   // vfmadd213ps   %ymm14,%ymm9,%ymm12
+  .byte  98,209,108,40,194,194,1             // vcmpltps      %ymm10,%ymm2,%k0
+  .byte  98,242,126,40,56,208                // vpmovm2d      %k0,%ymm2
+  .byte  196,195,29,74,208,32                // vblendvps     %ymm2,%ymm8,%ymm12,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_from_srgb_dst_skx
+.globl _sk_from_srgb_dst_skx
+FUNCTION(_sk_from_srgb_dst_skx)
+_sk_from_srgb_dst_skx:
+  .byte  196,98,125,24,5,211,16,3,0          // vbroadcastss  0x310d3(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,65,92,89,200                    // vmulps        %ymm8,%ymm4,%ymm9
+  .byte  197,92,89,212                       // vmulps        %ymm4,%ymm4,%ymm10
+  .byte  196,98,125,24,29,197,16,3,0         // vbroadcastss  0x310c5(%rip),%ymm11        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,37,168,16,3,0         // vbroadcastss  0x310a8(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
+  .byte  196,66,93,168,235                   // vfmadd213ps   %ymm11,%ymm4,%ymm13
+  .byte  196,98,125,24,53,173,16,3,0         // vbroadcastss  0x310ad(%rip),%ymm14        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,66,45,168,238                   // vfmadd213ps   %ymm14,%ymm10,%ymm13
+  .byte  196,98,125,24,21,163,16,3,0         // vbroadcastss  0x310a3(%rip),%ymm10        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  98,209,92,40,194,194,1              // vcmpltps      %ymm10,%ymm4,%k0
+  .byte  98,242,126,40,56,224                // vpmovm2d      %k0,%ymm4
+  .byte  196,195,21,74,225,64                // vblendvps     %ymm4,%ymm9,%ymm13,%ymm4
+  .byte  196,65,84,89,200                    // vmulps        %ymm8,%ymm5,%ymm9
+  .byte  197,84,89,237                       // vmulps        %ymm5,%ymm5,%ymm13
+  .byte  196,65,124,40,252                   // vmovaps       %ymm12,%ymm15
+  .byte  196,66,85,168,251                   // vfmadd213ps   %ymm11,%ymm5,%ymm15
+  .byte  196,66,21,168,254                   // vfmadd213ps   %ymm14,%ymm13,%ymm15
+  .byte  98,209,84,40,194,194,1              // vcmpltps      %ymm10,%ymm5,%k0
+  .byte  98,242,126,40,56,232                // vpmovm2d      %k0,%ymm5
+  .byte  196,195,5,74,233,80                 // vblendvps     %ymm5,%ymm9,%ymm15,%ymm5
+  .byte  196,65,76,89,192                    // vmulps        %ymm8,%ymm6,%ymm8
+  .byte  197,76,89,206                       // vmulps        %ymm6,%ymm6,%ymm9
+  .byte  196,66,77,168,227                   // vfmadd213ps   %ymm11,%ymm6,%ymm12
+  .byte  196,66,53,168,230                   // vfmadd213ps   %ymm14,%ymm9,%ymm12
+  .byte  98,209,76,40,194,194,1              // vcmpltps      %ymm10,%ymm6,%k0
+  .byte  98,242,126,40,56,240                // vpmovm2d      %k0,%ymm6
+  .byte  196,195,29,74,240,96                // vblendvps     %ymm6,%ymm8,%ymm12,%ymm6
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_to_srgb_skx
+.globl _sk_to_srgb_skx
+FUNCTION(_sk_to_srgb_skx)
+_sk_to_srgb_skx:
+  .byte  98,114,125,40,78,192                // vrsqrt14ps    %ymm0,%ymm8
+  .byte  196,98,125,24,13,48,16,3,0          // vbroadcastss  0x31030(%rip),%ymm9        # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,65,124,89,209                   // vmulps        %ymm9,%ymm0,%ymm10
+  .byte  196,98,125,24,29,38,16,3,0          // vbroadcastss  0x31026(%rip),%ymm11        # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,24,37,33,16,3,0          // vbroadcastss  0x31021(%rip),%ymm12        # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
+  .byte  196,66,61,168,235                   // vfmadd213ps   %ymm11,%ymm8,%ymm13
+  .byte  196,98,125,24,53,18,16,3,0          // vbroadcastss  0x31012(%rip),%ymm14        # 32954 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,66,61,168,238                   // vfmadd213ps   %ymm14,%ymm8,%ymm13
+  .byte  196,98,125,24,61,8,16,3,0           // vbroadcastss  0x31008(%rip),%ymm15        # 32958 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,65,60,88,199                    // vaddps        %ymm15,%ymm8,%ymm8
+  .byte  98,82,125,40,76,192                 // vrcp14ps      %ymm8,%ymm8
+  .byte  196,65,20,89,192                    // vmulps        %ymm8,%ymm13,%ymm8
+  .byte  196,98,125,24,45,243,15,3,0         // vbroadcastss  0x30ff3(%rip),%ymm13        # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  98,209,124,40,194,197,1             // vcmpltps      %ymm13,%ymm0,%k0
+  .byte  98,242,126,40,56,192                // vpmovm2d      %k0,%ymm0
+  .byte  196,195,61,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm8,%ymm0
+  .byte  98,114,125,40,78,193                // vrsqrt14ps    %ymm1,%ymm8
+  .byte  196,65,116,89,209                   // vmulps        %ymm9,%ymm1,%ymm10
+  .byte  98,193,124,40,40,196                // vmovaps       %ymm12,%ymm16
+  .byte  98,194,61,40,168,195                // vfmadd213ps   %ymm11,%ymm8,%ymm16
+  .byte  98,194,61,40,168,198                // vfmadd213ps   %ymm14,%ymm8,%ymm16
+  .byte  196,65,60,88,199                    // vaddps        %ymm15,%ymm8,%ymm8
+  .byte  98,82,125,40,76,192                 // vrcp14ps      %ymm8,%ymm8
+  .byte  98,81,124,32,89,192                 // vmulps        %ymm8,%ymm16,%ymm8
+  .byte  98,209,116,40,194,197,1             // vcmpltps      %ymm13,%ymm1,%k0
+  .byte  98,242,126,40,56,200                // vpmovm2d      %k0,%ymm1
+  .byte  196,195,61,74,202,16                // vblendvps     %ymm1,%ymm10,%ymm8,%ymm1
+  .byte  98,114,125,40,78,194                // vrsqrt14ps    %ymm2,%ymm8
+  .byte  196,65,108,89,201                   // vmulps        %ymm9,%ymm2,%ymm9
+  .byte  196,66,61,168,227                   // vfmadd213ps   %ymm11,%ymm8,%ymm12
+  .byte  196,66,61,168,230                   // vfmadd213ps   %ymm14,%ymm8,%ymm12
+  .byte  196,65,60,88,199                    // vaddps        %ymm15,%ymm8,%ymm8
+  .byte  98,82,125,40,76,192                 // vrcp14ps      %ymm8,%ymm8
+  .byte  196,65,28,89,192                    // vmulps        %ymm8,%ymm12,%ymm8
+  .byte  98,209,108,40,194,197,1             // vcmpltps      %ymm13,%ymm2,%k0
+  .byte  98,242,126,40,56,208                // vpmovm2d      %k0,%ymm2
+  .byte  196,195,61,74,209,32                // vblendvps     %ymm2,%ymm9,%ymm8,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_rgb_to_hsl_skx
+.globl _sk_rgb_to_hsl_skx
+FUNCTION(_sk_rgb_to_hsl_skx)
+_sk_rgb_to_hsl_skx:
+  .byte  98,225,124,40,40,207                // vmovaps       %ymm7,%ymm17
+  .byte  197,116,95,194                      // vmaxps        %ymm2,%ymm1,%ymm8
+  .byte  196,65,124,95,200                   // vmaxps        %ymm8,%ymm0,%ymm9
+  .byte  197,116,93,194                      // vminps        %ymm2,%ymm1,%ymm8
+  .byte  196,65,124,93,208                   // vminps        %ymm8,%ymm0,%ymm10
+  .byte  98,193,52,40,92,194                 // vsubps        %ymm10,%ymm9,%ymm16
+  .byte  196,98,125,24,5,232,14,3,0          // vbroadcastss  0x30ee8(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  98,49,60,40,94,224                  // vdivps        %ymm16,%ymm8,%ymm12
+  .byte  98,209,52,40,194,194,0              // vcmpeqps      %ymm10,%ymm9,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  98,241,52,40,194,192,0              // vcmpeqps      %ymm0,%ymm9,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  197,116,92,242                      // vsubps        %ymm2,%ymm1,%ymm14
+  .byte  98,241,116,40,194,194,1             // vcmpltps      %ymm2,%ymm1,%k0
+  .byte  98,114,126,40,56,248                // vpmovm2d      %k0,%ymm15
+  .byte  196,98,125,24,29,6,15,3,0           // vbroadcastss  0x30f06(%rip),%ymm11        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  197,196,87,255                      // vxorps        %ymm7,%ymm7,%ymm7
+  .byte  196,67,69,74,219,240                // vblendvps     %ymm15,%ymm11,%ymm7,%ymm11
+  .byte  196,66,29,168,243                   // vfmadd213ps   %ymm11,%ymm12,%ymm14
+  .byte  98,241,52,40,194,193,0              // vcmpeqps      %ymm1,%ymm9,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  197,236,92,208                      // vsubps        %ymm0,%ymm2,%ymm2
+  .byte  196,98,125,24,61,225,14,3,0         // vbroadcastss  0x30ee1(%rip),%ymm15        # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,194,29,168,215                  // vfmadd213ps   %ymm15,%ymm12,%ymm2
+  .byte  197,252,92,193                      // vsubps        %ymm1,%ymm0,%ymm0
+  .byte  98,242,29,56,168,5,210,14,3,0       // vfmadd213ps   0x30ed2(%rip){1to8},%ymm12,%ymm0        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,227,125,74,194,176              // vblendvps     %ymm11,%ymm2,%ymm0,%ymm0
+  .byte  196,195,125,74,198,208              // vblendvps     %ymm13,%ymm14,%ymm0,%ymm0
+  .byte  196,227,125,74,199,128              // vblendvps     %ymm8,%ymm7,%ymm0,%ymm0
+  .byte  98,241,124,56,89,5,186,14,3,0       // vmulps        0x30eba(%rip){1to8},%ymm0,%ymm0        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,193,52,88,202                   // vaddps        %ymm10,%ymm9,%ymm1
+  .byte  196,98,125,24,29,68,14,3,0          // vbroadcastss  0x30e44(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,193,116,89,211                  // vmulps        %ymm11,%ymm1,%ymm2
+  .byte  98,241,36,40,194,194,1              // vcmpltps      %ymm2,%ymm11,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  196,65,4,92,201                     // vsubps        %ymm9,%ymm15,%ymm9
+  .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
+  .byte  196,195,117,74,201,176              // vblendvps     %ymm11,%ymm9,%ymm1,%ymm1
+  .byte  98,241,124,32,94,201                // vdivps        %ymm1,%ymm16,%ymm1
+  .byte  196,227,117,74,207,128              // vblendvps     %ymm8,%ymm7,%ymm1,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,177,124,40,40,249                // vmovaps       %ymm17,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_hsl_to_rgb_skx
+.globl _sk_hsl_to_rgb_skx
+FUNCTION(_sk_hsl_to_rgb_skx)
+_sk_hsl_to_rgb_skx:
+  .byte  98,225,124,40,40,215                // vmovaps       %ymm7,%ymm18
+  .byte  98,225,124,40,40,230                // vmovaps       %ymm6,%ymm20
+  .byte  98,226,125,40,24,5,246,13,3,0       // vbroadcastss  0x30df6(%rip),%ymm16        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,241,124,32,194,194,2             // vcmpleps      %ymm2,%ymm16,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  197,116,89,202                      // vmulps        %ymm2,%ymm1,%ymm9
+  .byte  196,65,116,92,209                   // vsubps        %ymm9,%ymm1,%ymm10
+  .byte  196,67,53,74,194,128                // vblendvps     %ymm8,%ymm10,%ymm9,%ymm8
+  .byte  197,60,88,218                       // vaddps        %ymm2,%ymm8,%ymm11
+  .byte  196,65,124,40,203                   // vmovaps       %ymm11,%ymm9
+  .byte  98,114,109,56,186,13,39,14,3,0      // vfmsub231ps   0x30e27(%rip){1to8},%ymm2,%ymm9        # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  98,209,116,40,194,192,0             // vcmpeqps      %ymm8,%ymm1,%k0
+  .byte  98,242,126,40,56,248                // vpmovm2d      %k0,%ymm7
+  .byte  98,241,124,56,88,13,23,14,3,0       // vaddps        0x30e17(%rip){1to8},%ymm0,%ymm1        # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,99,125,8,193,1                  // vroundps      $0x1,%ymm1,%ymm8
+  .byte  196,193,116,92,200                  // vsubps        %ymm8,%ymm1,%ymm1
+  .byte  98,226,125,40,24,29,6,14,3,0        // vbroadcastss  0x30e06(%rip),%ymm19        # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  98,241,100,32,194,193,2             // vcmpleps      %ymm1,%ymm19,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,65,36,92,241                    // vsubps        %ymm9,%ymm11,%ymm14
+  .byte  196,98,125,24,61,215,13,3,0         // vbroadcastss  0x30dd7(%rip),%ymm15        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,65,116,89,231                   // vmulps        %ymm15,%ymm1,%ymm12
+  .byte  98,226,125,40,24,13,208,13,3,0      // vbroadcastss  0x30dd0(%rip),%ymm17        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  98,81,116,32,92,212                 // vsubps        %ymm12,%ymm17,%ymm10
+  .byte  196,66,13,168,209                   // vfmadd213ps   %ymm9,%ymm14,%ymm10
+  .byte  196,67,45,74,193,128                // vblendvps     %ymm8,%ymm9,%ymm10,%ymm8
+  .byte  98,241,124,32,194,193,2             // vcmpleps      %ymm1,%ymm16,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  196,67,37,74,192,160                // vblendvps     %ymm10,%ymm8,%ymm11,%ymm8
+  .byte  196,98,125,24,21,167,13,3,0         // vbroadcastss  0x30da7(%rip),%ymm10        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  98,241,44,40,194,193,2              // vcmpleps      %ymm1,%ymm10,%k0
+  .byte  98,242,126,40,56,200                // vpmovm2d      %k0,%ymm1
+  .byte  196,66,13,168,225                   // vfmadd213ps   %ymm9,%ymm14,%ymm12
+  .byte  196,195,29,74,200,16                // vblendvps     %ymm1,%ymm8,%ymm12,%ymm1
+  .byte  196,227,117,74,242,112              // vblendvps     %ymm7,%ymm2,%ymm1,%ymm6
+  .byte  196,227,125,8,200,1                 // vroundps      $0x1,%ymm0,%ymm1
+  .byte  197,252,92,201                      // vsubps        %ymm1,%ymm0,%ymm1
+  .byte  98,241,100,32,194,193,2             // vcmpleps      %ymm1,%ymm19,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  196,65,116,89,239                   // vmulps        %ymm15,%ymm1,%ymm13
+  .byte  98,81,116,32,92,197                 // vsubps        %ymm13,%ymm17,%ymm8
+  .byte  196,66,13,168,193                   // vfmadd213ps   %ymm9,%ymm14,%ymm8
+  .byte  196,67,61,74,193,192                // vblendvps     %ymm12,%ymm9,%ymm8,%ymm8
+  .byte  98,241,124,32,194,193,2             // vcmpleps      %ymm1,%ymm16,%k0
+  .byte  98,114,126,40,56,224                // vpmovm2d      %k0,%ymm12
+  .byte  196,67,37,74,192,192                // vblendvps     %ymm12,%ymm8,%ymm11,%ymm8
+  .byte  98,241,44,40,194,193,2              // vcmpleps      %ymm1,%ymm10,%k0
+  .byte  98,242,126,40,56,200                // vpmovm2d      %k0,%ymm1
+  .byte  196,66,13,168,233                   // vfmadd213ps   %ymm9,%ymm14,%ymm13
+  .byte  196,195,21,74,200,16                // vblendvps     %ymm1,%ymm8,%ymm13,%ymm1
+  .byte  196,227,117,74,202,112              // vblendvps     %ymm7,%ymm2,%ymm1,%ymm1
+  .byte  98,241,124,56,88,5,45,13,3,0        // vaddps        0x30d2d(%rip){1to8},%ymm0,%ymm0        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,99,125,8,192,1                  // vroundps      $0x1,%ymm0,%ymm8
+  .byte  196,193,124,92,192                  // vsubps        %ymm8,%ymm0,%ymm0
+  .byte  98,241,100,32,194,192,2             // vcmpleps      %ymm0,%ymm19,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,65,124,89,231                   // vmulps        %ymm15,%ymm0,%ymm12
+  .byte  98,81,116,32,92,236                 // vsubps        %ymm12,%ymm17,%ymm13
+  .byte  196,66,13,168,233                   // vfmadd213ps   %ymm9,%ymm14,%ymm13
+  .byte  196,67,21,74,193,128                // vblendvps     %ymm8,%ymm9,%ymm13,%ymm8
+  .byte  98,241,124,32,194,192,2             // vcmpleps      %ymm0,%ymm16,%k0
+  .byte  98,114,126,40,56,232                // vpmovm2d      %k0,%ymm13
+  .byte  196,67,37,74,192,208                // vblendvps     %ymm13,%ymm8,%ymm11,%ymm8
+  .byte  98,241,44,40,194,192,2              // vcmpleps      %ymm0,%ymm10,%k0
+  .byte  98,242,126,40,56,192                // vpmovm2d      %k0,%ymm0
+  .byte  196,66,13,184,204                   // vfmadd231ps   %ymm12,%ymm14,%ymm9
+  .byte  196,195,53,74,192,0                 // vblendvps     %ymm0,%ymm8,%ymm9,%ymm0
+  .byte  196,227,125,74,210,112              // vblendvps     %ymm7,%ymm2,%ymm0,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,40,198                      // vmovaps       %ymm6,%ymm0
+  .byte  98,177,124,40,40,244                // vmovaps       %ymm20,%ymm6
+  .byte  98,177,124,40,40,250                // vmovaps       %ymm18,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_scale_1_float_skx
+.globl _sk_scale_1_float_skx
+FUNCTION(_sk_scale_1_float_skx)
+_sk_scale_1_float_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_scale_u8_skx
+.globl _sk_scale_u8_skx
+FUNCTION(_sk_scale_u8_skx)
+_sk_scale_u8_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,54                              // jne           1d27 <_sk_scale_u8_skx+0x4e>
+  .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
+  .byte  197,57,219,5,161,13,3,0             // vpand         0x30da1(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  98,113,60,56,89,5,105,12,3,0        // vmulps        0x30c69(%rip){1to8},%ymm8,%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,186                             // ja            1cf7 <_sk_scale_u8_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,140,0,0,0                 // lea           0x8c(%rip),%r10        # 1dd4 <_sk_scale_u8_skx+0xfb>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
+  .byte  235,155                             // jmp           1cf7 <_sk_scale_u8_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
+  .byte  196,2,121,50,12,24                  // vpmovzxbq     (%r8,%r11,1),%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
+  .byte  233,110,255,255,255                 // jmpq          1cf7 <_sk_scale_u8_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,57,196,192,5                    // vpinsrw       $0x5,%eax,%xmm8,%xmm8
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,57,196,192,4                    // vpinsrw       $0x4,%eax,%xmm8,%xmm8
+  .byte  196,2,121,49,12,24                  // vpmovzxbd     (%r8,%r11,1),%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,122,112,201,232              // vpshufhw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
+  .byte  233,37,255,255,255                  // jmpq          1cf7 <_sk_scale_u8_skx+0x1e>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  125,255                             // jge           1dd5 <_sk_scale_u8_skx+0xfc>
+  .byte  255                                 // (bad)
+  .byte  255,152,255,255,255,136             // lcall         *-0x77000001(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  219,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,208                             // callq         *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  181,255                             // mov           $0xff,%ch
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_scale_565_skx
+.globl _sk_scale_565_skx
+FUNCTION(_sk_scale_565_skx)
+_sk_scale_565_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,145,0,0,0                    // jne           1ea0 <_sk_scale_565_skx+0xb0>
+  .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
+  .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
+  .byte  98,113,61,56,219,13,92,11,3,0       // vpandd        0x30b5c(%rip){1to8},%ymm8,%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
+  .byte  98,113,52,56,89,13,81,11,3,0        // vmulps        0x30b51(%rip){1to8},%ymm9,%ymm9        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  98,113,61,56,219,21,75,11,3,0       // vpandd        0x30b4b(%rip){1to8},%ymm8,%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
+  .byte  98,113,44,56,89,21,64,11,3,0        // vmulps        0x30b40(%rip){1to8},%ymm10,%ymm10        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  98,113,61,56,219,5,58,11,3,0        // vpandd        0x30b3a(%rip){1to8},%ymm8,%ymm8        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  98,113,60,56,89,5,47,11,3,0         // vmulps        0x30b2f(%rip){1to8},%ymm8,%ymm8        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  98,241,100,40,194,199,1             // vcmpltps      %ymm7,%ymm3,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
+  .byte  196,65,52,93,228                    // vminps        %ymm12,%ymm9,%ymm12
+  .byte  196,65,44,95,232                    // vmaxps        %ymm8,%ymm10,%ymm13
+  .byte  196,65,52,95,237                    // vmaxps        %ymm13,%ymm9,%ymm13
+  .byte  196,67,21,74,220,176                // vblendvps     %ymm11,%ymm12,%ymm13,%ymm11
+  .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
+  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,164,89,219                      // vmulps        %ymm3,%ymm11,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  15,135,91,255,255,255               // ja            1e15 <_sk_scale_565_skx+0x25>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,131,0,0,0                 // lea           0x83(%rip),%r10        # 1f48 <_sk_scale_565_skx+0x158>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
+  .byte  233,57,255,255,255                  // jmpq          1e15 <_sk_scale_565_skx+0x25>
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,2,121,52,12,88                  // vpmovzxwq     (%r8,%r11,2),%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
+  .byte  233,15,255,255,255                  // jmpq          1e15 <_sk_scale_565_skx+0x25>
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,2,121,51,12,88                  // vpmovzxwd     (%r8,%r11,2),%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,122,112,201,232              // vpshufhw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,121,112,201,132              // vpshufd       $0x84,%xmm9,%xmm9
+  .byte  196,65,49,109,192                   // vpunpckhqdq   %xmm8,%xmm9,%xmm8
+  .byte  233,208,254,255,255                 // jmpq          1e15 <_sk_scale_565_skx+0x25>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  134,255                             // xchg          %bh,%bh
+  .byte  255                                 // (bad)
+  .byte  255,161,255,255,255,148             // jmpq          *-0x6b000001(%rcx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  219,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,211                             // callq         *%rbx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,203                             // dec           %ebx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  190                                 // .byte         0xbe
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_lerp_1_float_skx
+.globl _sk_lerp_1_float_skx
+FUNCTION(_sk_lerp_1_float_skx)
+_sk_lerp_1_float_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
+  .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
+  .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
+  .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
+  .byte  196,226,61,168,205                  // vfmadd213ps   %ymm5,%ymm8,%ymm1
+  .byte  197,236,92,214                      // vsubps        %ymm6,%ymm2,%ymm2
+  .byte  196,226,61,168,214                  // vfmadd213ps   %ymm6,%ymm8,%ymm2
+  .byte  197,228,92,223                      // vsubps        %ymm7,%ymm3,%ymm3
+  .byte  196,226,61,168,223                  // vfmadd213ps   %ymm7,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_lerp_u8_skx
+.globl _sk_lerp_u8_skx
+FUNCTION(_sk_lerp_u8_skx)
+_sk_lerp_u8_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,74                              // jne           1ff5 <_sk_lerp_u8_skx+0x62>
+  .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
+  .byte  197,57,219,5,231,10,3,0             // vpand         0x30ae7(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  98,113,60,56,89,5,175,9,3,0         // vmulps        0x309af(%rip){1to8},%ymm8,%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
+  .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
+  .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
+  .byte  196,226,61,168,205                  // vfmadd213ps   %ymm5,%ymm8,%ymm1
+  .byte  197,236,92,214                      // vsubps        %ymm6,%ymm2,%ymm2
+  .byte  196,226,61,168,214                  // vfmadd213ps   %ymm6,%ymm8,%ymm2
+  .byte  197,228,92,223                      // vsubps        %ymm7,%ymm3,%ymm3
+  .byte  196,226,61,168,223                  // vfmadd213ps   %ymm7,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,166                             // ja            1fb1 <_sk_lerp_u8_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,138,0,0,0                 // lea           0x8a(%rip),%r10        # 20a0 <_sk_lerp_u8_skx+0x10d>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
+  .byte  235,135                             // jmp           1fb1 <_sk_lerp_u8_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
+  .byte  196,2,121,50,12,24                  // vpmovzxbq     (%r8,%r11,1),%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
+  .byte  233,90,255,255,255                  // jmpq          1fb1 <_sk_lerp_u8_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,57,196,192,5                    // vpinsrw       $0x5,%eax,%xmm8,%xmm8
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,57,196,192,4                    // vpinsrw       $0x4,%eax,%xmm8,%xmm8
+  .byte  196,2,121,49,12,24                  // vpmovzxbd     (%r8,%r11,1),%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,122,112,201,232              // vpshufhw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
+  .byte  233,17,255,255,255                  // jmpq          1fb1 <_sk_lerp_u8_skx+0x1e>
+  .byte  127,255                             // jg            20a1 <_sk_lerp_u8_skx+0x10e>
+  .byte  255                                 // (bad)
+  .byte  255,154,255,255,255,138             // lcall         *-0x75000001(%rdx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,210                             // callq         *%rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,199                             // inc           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  183,255                             // mov           $0xff,%bh
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_lerp_565_skx
+.globl _sk_lerp_565_skx
+FUNCTION(_sk_lerp_565_skx)
+_sk_lerp_565_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,165,0,0,0                    // jne           2180 <_sk_lerp_565_skx+0xc4>
+  .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
+  .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
+  .byte  98,113,61,56,219,13,144,8,3,0       // vpandd        0x30890(%rip){1to8},%ymm8,%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
+  .byte  98,113,52,56,89,13,133,8,3,0        // vmulps        0x30885(%rip){1to8},%ymm9,%ymm9        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  98,113,61,56,219,21,127,8,3,0       // vpandd        0x3087f(%rip){1to8},%ymm8,%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
+  .byte  98,113,44,56,89,21,116,8,3,0        // vmulps        0x30874(%rip){1to8},%ymm10,%ymm10        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  98,113,61,56,219,5,110,8,3,0        // vpandd        0x3086e(%rip){1to8},%ymm8,%ymm8        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  98,113,60,56,89,5,99,8,3,0          // vmulps        0x30863(%rip){1to8},%ymm8,%ymm8        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  98,241,100,40,194,199,1             // vcmpltps      %ymm7,%ymm3,%k0
+  .byte  98,114,126,40,56,216                // vpmovm2d      %k0,%ymm11
+  .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
+  .byte  196,65,52,93,228                    // vminps        %ymm12,%ymm9,%ymm12
+  .byte  196,65,44,95,232                    // vmaxps        %ymm8,%ymm10,%ymm13
+  .byte  196,65,52,95,237                    // vmaxps        %ymm13,%ymm9,%ymm13
+  .byte  196,67,21,74,220,176                // vblendvps     %ymm11,%ymm12,%ymm13,%ymm11
+  .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
+  .byte  196,226,53,168,196                  // vfmadd213ps   %ymm4,%ymm9,%ymm0
+  .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
+  .byte  196,226,45,168,205                  // vfmadd213ps   %ymm5,%ymm10,%ymm1
+  .byte  197,236,92,214                      // vsubps        %ymm6,%ymm2,%ymm2
+  .byte  196,226,61,168,214                  // vfmadd213ps   %ymm6,%ymm8,%ymm2
+  .byte  197,228,92,223                      // vsubps        %ymm7,%ymm3,%ymm3
+  .byte  196,226,37,168,223                  // vfmadd213ps   %ymm7,%ymm11,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  15,135,71,255,255,255               // ja            20e1 <_sk_lerp_565_skx+0x25>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,131,0,0,0                 // lea           0x83(%rip),%r10        # 2228 <_sk_lerp_565_skx+0x16c>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,121,110,192                     // vmovd         %eax,%xmm8
+  .byte  233,37,255,255,255                  // jmpq          20e1 <_sk_lerp_565_skx+0x25>
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,2,121,52,12,88                  // vpmovzxwq     (%r8,%r11,2),%xmm9
+  .byte  196,65,121,112,201,232              // vpshufd       $0xe8,%xmm9,%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
+  .byte  233,251,254,255,255                 // jmpq          20e1 <_sk_lerp_565_skx+0x25>
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
+  .byte  196,2,121,51,12,88                  // vpmovzxwd     (%r8,%r11,2),%xmm9
+  .byte  196,65,123,112,201,232              // vpshuflw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,122,112,201,232              // vpshufhw      $0xe8,%xmm9,%xmm9
+  .byte  196,65,121,112,201,132              // vpshufd       $0x84,%xmm9,%xmm9
+  .byte  196,65,49,109,192                   // vpunpckhqdq   %xmm8,%xmm9,%xmm8
+  .byte  233,188,254,255,255                 // jmpq          20e1 <_sk_lerp_565_skx+0x25>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  134,255                             // xchg          %bh,%bh
+  .byte  255                                 // (bad)
+  .byte  255,161,255,255,255,148             // jmpq          *-0x6b000001(%rcx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  219,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,211                             // callq         *%rbx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,203                             // dec           %ebx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  190                                 // .byte         0xbe
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_tables_skx
+.globl _sk_load_tables_skx
+FUNCTION(_sk_load_tables_skx)
+_sk_load_tables_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,124                             // jne           22ca <_sk_load_tables_skx+0x86>
+  .byte  196,193,126,111,28,144              // vmovdqu       (%r8,%rdx,4),%ymm3
+  .byte  65,184,17,17,17,17                  // mov           $0x11111111,%r8d
+  .byte  196,193,123,146,200                 // kmovd         %r8d,%k1
+  .byte  98,241,127,169,111,203              // vmovdqu8      %ymm3,%ymm1{%k1}{z}
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  76,139,72,16                        // mov           0x10(%rax),%r9
+  .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,194,109,146,4,136               // vgatherdps    %ymm2,(%r8,%ymm1,4),%ymm0
+  .byte  197,245,114,211,8                   // vpsrld        $0x8,%ymm3,%ymm1
+  .byte  98,241,127,169,111,209              // vmovdqu8      %ymm1,%ymm2{%k1}{z}
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,194,61,146,12,145               // vgatherdps    %ymm8,(%r9,%ymm2,4),%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  72,139,64,24                        // mov           0x18(%rax),%rax
+  .byte  197,181,114,211,16                  // vpsrld        $0x10,%ymm3,%ymm9
+  .byte  98,81,127,169,111,201               // vmovdqu8      %ymm9,%ymm9{%k1}{z}
+  .byte  196,162,61,146,20,136               // vgatherdps    %ymm8,(%rax,%ymm9,4),%ymm2
+  .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  98,241,100,56,89,29,182,6,3,0       // vmulps        0x306b6(%rip){1to8},%ymm3,%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  15,135,113,255,255,255              // ja            2254 <_sk_load_tables_skx+0x10>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,142,0,0,0                 // lea           0x8e(%rip),%r10        # 237c <_sk_load_tables_skx+0x138>
+  .byte  79,99,12,138                        // movslq        (%r10,%r9,4),%r9
+  .byte  77,1,209                            // add           %r10,%r9
+  .byte  65,255,225                          // jmpq          *%r9
+  .byte  196,193,121,110,28,144              // vmovd         (%r8,%rdx,4),%xmm3
+  .byte  233,81,255,255,255                  // jmpq          2254 <_sk_load_tables_skx+0x10>
+  .byte  196,193,121,110,68,144,8            // vmovd         0x8(%r8,%rdx,4),%xmm0
+  .byte  65,177,4                            // mov           $0x4,%r9b
+  .byte  196,193,123,146,201                 // kmovd         %r9d,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,194,121,53,4,144                // vpmovzxdq     (%r8,%rdx,4),%xmm0
+  .byte  197,249,112,192,232                 // vpshufd       $0xe8,%xmm0,%xmm0
+  .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
+  .byte  233,38,255,255,255                  // jmpq          2254 <_sk_load_tables_skx+0x10>
+  .byte  196,193,121,110,68,144,24           // vmovd         0x18(%r8,%rdx,4),%xmm0
+  .byte  65,177,64                           // mov           $0x40,%r9b
+  .byte  196,193,123,146,201                 // kmovd         %r9d,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,195,121,34,68,144,20,1          // vpinsrd       $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,195,121,34,68,144,16,0          // vpinsrd       $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,193,122,111,4,144               // vmovdqu       (%r8,%rdx,4),%xmm0
+  .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
+  .byte  233,216,254,255,255                 // jmpq          2254 <_sk_load_tables_skx+0x10>
+  .byte  124,255                             // jl            237d <_sk_load_tables_skx+0x139>
+  .byte  255                                 // (bad)
+  .byte  255,156,255,255,255,135,255         // lcall         *-0x780001(%rdi,%rdi,8)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  239                                 // out           %eax,(%dx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  219,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,199                             // inc           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  178,255                             // mov           $0xff,%dl
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_tables_u16_be_skx
+.globl _sk_load_tables_u16_be_skx
+FUNCTION(_sk_load_tables_u16_be_skx)
+_sk_load_tables_u16_be_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  76,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,210,0,0,0                    // jne           2480 <_sk_load_tables_u16_be_skx+0xe8>
+  .byte  196,1,121,16,4,72                   // vmovupd       (%r8,%r9,2),%xmm8
+  .byte  196,129,121,16,84,72,16             // vmovupd       0x10(%r8,%r9,2),%xmm2
+  .byte  196,129,121,16,92,72,32             // vmovupd       0x20(%r8,%r9,2),%xmm3
+  .byte  196,1,122,111,76,72,48              // vmovdqu       0x30(%r8,%r9,2),%xmm9
+  .byte  197,185,97,194                      // vpunpcklwd    %xmm2,%xmm8,%xmm0
+  .byte  197,185,105,210                     // vpunpckhwd    %xmm2,%xmm8,%xmm2
+  .byte  196,193,97,97,201                   // vpunpcklwd    %xmm9,%xmm3,%xmm1
+  .byte  196,193,97,105,217                  // vpunpckhwd    %xmm9,%xmm3,%xmm3
+  .byte  197,121,97,194                      // vpunpcklwd    %xmm2,%xmm0,%xmm8
+  .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
+  .byte  197,241,97,195                      // vpunpcklwd    %xmm3,%xmm1,%xmm0
+  .byte  197,113,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm11
+  .byte  197,185,108,200                     // vpunpcklqdq   %xmm0,%xmm8,%xmm1
+  .byte  197,57,109,192                      // vpunpckhqdq   %xmm0,%xmm8,%xmm8
+  .byte  197,121,111,21,165,6,3,0            // vmovdqa       0x306a5(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,193,113,219,194                 // vpand         %xmm10,%xmm1,%xmm0
+  .byte  196,226,125,51,200                  // vpmovzxwd     %xmm0,%ymm1
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  76,139,72,16                        // mov           0x10(%rax),%r9
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
+  .byte  196,194,109,146,4,136               // vgatherdps    %ymm2,(%r8,%ymm1,4),%ymm0
+  .byte  196,193,49,108,219                  // vpunpcklqdq   %xmm11,%xmm9,%xmm3
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,193,57,219,202                  // vpand         %xmm10,%xmm8,%xmm1
+  .byte  196,98,125,51,193                   // vpmovzxwd     %xmm1,%ymm8
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  196,130,21,146,12,129               // vgatherdps    %ymm13,(%r9,%ymm8,4),%ymm1
+  .byte  72,139,64,24                        // mov           0x18(%rax),%rax
+  .byte  196,193,97,219,218                  // vpand         %xmm10,%xmm3,%xmm3
+  .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
+  .byte  196,226,29,146,20,152               // vgatherdps    %ymm12,(%rax,%ymm3,4),%ymm2
+  .byte  196,193,49,109,219                  // vpunpckhqdq   %xmm11,%xmm9,%xmm3
+  .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
+  .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
+  .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
+  .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  98,241,100,56,89,29,28,5,3,0        // vmulps        0x3051c(%rip){1to8},%ymm3,%ymm3        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,1,123,16,4,72                   // vmovsd        (%r8,%r9,2),%xmm8
+  .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,85                              // je            24e6 <_sk_load_tables_u16_be_skx+0x14e>
+  .byte  196,1,57,22,68,72,8                 // vmovhpd       0x8(%r8,%r9,2),%xmm8,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,72                              // jb            24e6 <_sk_load_tables_u16_be_skx+0x14e>
+  .byte  196,129,123,16,84,72,16             // vmovsd        0x10(%r8,%r9,2),%xmm2
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  116,72                              // je            24f3 <_sk_load_tables_u16_be_skx+0x15b>
+  .byte  196,129,105,22,84,72,24             // vmovhpd       0x18(%r8,%r9,2),%xmm2,%xmm2
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,59                              // jb            24f3 <_sk_load_tables_u16_be_skx+0x15b>
+  .byte  196,129,123,16,92,72,32             // vmovsd        0x20(%r8,%r9,2),%xmm3
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  15,132,0,255,255,255                // je            23c9 <_sk_load_tables_u16_be_skx+0x31>
+  .byte  196,129,97,22,92,72,40              // vmovhpd       0x28(%r8,%r9,2),%xmm3,%xmm3
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,130,239,254,255,255              // jb            23c9 <_sk_load_tables_u16_be_skx+0x31>
+  .byte  196,1,122,126,76,72,48              // vmovq         0x30(%r8,%r9,2),%xmm9
+  .byte  233,227,254,255,255                 // jmpq          23c9 <_sk_load_tables_u16_be_skx+0x31>
+  .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
+  .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
+  .byte  233,214,254,255,255                 // jmpq          23c9 <_sk_load_tables_u16_be_skx+0x31>
+  .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
+  .byte  233,205,254,255,255                 // jmpq          23c9 <_sk_load_tables_u16_be_skx+0x31>
+
+HIDDEN _sk_load_tables_rgb_u16_be_skx
+.globl _sk_load_tables_rgb_u16_be_skx
+FUNCTION(_sk_load_tables_rgb_u16_be_skx)
+_sk_load_tables_rgb_u16_be_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  76,141,12,82                        // lea           (%rdx,%rdx,2),%r9
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,203,0,0,0                    // jne           25d9 <_sk_load_tables_rgb_u16_be_skx+0xdd>
+  .byte  196,1,121,16,28,72                  // vmovupd       (%r8,%r9,2),%xmm11
+  .byte  196,129,121,16,92,72,12             // vmovupd       0xc(%r8,%r9,2),%xmm3
+  .byte  196,129,121,16,84,72,24             // vmovupd       0x18(%r8,%r9,2),%xmm2
+  .byte  98,145,125,8,115,92,72,2,4          // vpsrldq       $0x4,0x20(%r8,%r9,2),%xmm0
+  .byte  196,193,57,115,219,6                // vpsrldq       $0x6,%xmm11,%xmm8
+  .byte  197,169,115,219,6                   // vpsrldq       $0x6,%xmm3,%xmm10
+  .byte  197,241,115,218,6                   // vpsrldq       $0x6,%xmm2,%xmm1
+  .byte  197,177,115,216,6                   // vpsrldq       $0x6,%xmm0,%xmm9
+  .byte  196,193,113,97,201                  // vpunpcklwd    %xmm9,%xmm1,%xmm1
+  .byte  197,233,97,192                      // vpunpcklwd    %xmm0,%xmm2,%xmm0
+  .byte  196,193,57,97,210                   // vpunpcklwd    %xmm10,%xmm8,%xmm2
+  .byte  197,161,97,219                      // vpunpcklwd    %xmm3,%xmm11,%xmm3
+  .byte  197,97,97,194                       // vpunpcklwd    %xmm2,%xmm3,%xmm8
+  .byte  197,225,105,210                     // vpunpckhwd    %xmm2,%xmm3,%xmm2
+  .byte  197,249,97,217                      // vpunpcklwd    %xmm1,%xmm0,%xmm3
+  .byte  197,249,105,193                     // vpunpckhwd    %xmm1,%xmm0,%xmm0
+  .byte  197,105,108,200                     // vpunpcklqdq   %xmm0,%xmm2,%xmm9
+  .byte  197,185,108,195                     // vpunpcklqdq   %xmm3,%xmm8,%xmm0
+  .byte  197,121,111,21,46,5,3,0             // vmovdqa       0x3052e(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,193,121,219,194                 // vpand         %xmm10,%xmm0,%xmm0
+  .byte  196,226,125,51,200                  // vpmovzxwd     %xmm0,%ymm1
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  76,139,72,16                        // mov           0x10(%rax),%r9
+  .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,194,109,146,4,136               // vgatherdps    %ymm2,(%r8,%ymm1,4),%ymm0
+  .byte  197,185,109,203                     // vpunpckhqdq   %xmm3,%xmm8,%xmm1
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,193,113,219,202                 // vpand         %xmm10,%xmm1,%xmm1
+  .byte  196,98,125,51,193                   // vpmovzxwd     %xmm1,%ymm8
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,130,37,146,12,129               // vgatherdps    %ymm11,(%r9,%ymm8,4),%ymm1
+  .byte  72,139,64,24                        // mov           0x18(%rax),%rax
+  .byte  196,193,49,219,218                  // vpand         %xmm10,%xmm9,%xmm3
+  .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
+  .byte  196,226,29,146,20,152               // vgatherdps    %ymm12,(%rax,%ymm3,4),%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,49,3,3,0          // vbroadcastss  0x30331(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,4,72                // vmovd         (%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,1,121,196,92,72,4,2             // vpinsrw       $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  117,31                              // jne           2611 <_sk_load_tables_rgb_u16_be_skx+0x115>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  233,47,255,255,255                  // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  196,129,121,110,68,72,6             // vmovd         0x6(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,1,121,196,68,72,10,2            // vpinsrw       $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,48                              // jb            265b <_sk_load_tables_rgb_u16_be_skx+0x15f>
+  .byte  196,129,121,110,68,72,12            // vmovd         0xc(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,129,121,196,92,72,16,2          // vpinsrw       $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  117,48                              // jne           2675 <_sk_load_tables_rgb_u16_be_skx+0x179>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  233,229,254,255,255                 // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
+  .byte  233,203,254,255,255                 // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  196,129,121,110,68,72,18            // vmovd         0x12(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,1,121,196,84,72,22,2            // vpinsrw       $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,39                              // jb            26b6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+  .byte  196,129,121,110,68,72,24            // vmovd         0x18(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,129,121,196,84,72,28,2          // vpinsrw       $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  117,30                              // jne           26c7 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  233,138,254,255,255                 // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  233,121,254,255,255                 // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  196,129,121,110,68,72,30            // vmovd         0x1e(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,129,121,196,76,72,34,2          // vpinsrw       $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  114,25                              // jb            26fa <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+  .byte  196,129,121,110,68,72,36            // vmovd         0x24(%r8,%r9,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,129,121,196,68,72,40,2          // vpinsrw       $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
+  .byte  233,70,254,255,255                  // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  233,61,254,255,255                  // jmpq          2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+
+HIDDEN _sk_byte_tables_skx
+.globl _sk_byte_tables_skx
+FUNCTION(_sk_byte_tables_skx)
+_sk_byte_tables_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,5,38,2,3,0            // vbroadcastss  0x30226(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  197,125,91,200                      // vcvtps2dq     %ymm0,%ymm9
+  .byte  196,65,249,126,200                  // vmovq         %xmm9,%r8
+  .byte  69,137,193                          // mov           %r8d,%r9d
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,193,121,110,193                 // vmovd         %r9d,%xmm0
+  .byte  196,67,249,22,201,1                 // vpextrq       $0x1,%xmm9,%r9
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,67,121,32,208,1                 // vpinsrb       $0x1,%r8d,%xmm0,%xmm10
+  .byte  69,137,200                          // mov           %r9d,%r8d
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  196,99,125,57,200,1                 // vextracti128  $0x1,%ymm9,%xmm0
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,67,41,32,200,2                  // vpinsrb       $0x2,%r8d,%xmm10,%xmm9
+  .byte  196,193,249,126,192                 // vmovq         %xmm0,%r8
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,49,32,201,3                  // vpinsrb       $0x3,%r9d,%xmm9,%xmm9
+  .byte  69,137,193                          // mov           %r8d,%r9d
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,49,32,201,4                  // vpinsrb       $0x4,%r9d,%xmm9,%xmm9
+  .byte  196,195,249,22,193,1                // vpextrq       $0x1,%xmm0,%r9
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,195,49,32,192,5                 // vpinsrb       $0x5,%r8d,%xmm9,%xmm0
+  .byte  69,137,200                          // mov           %r9d,%r8d
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,195,121,32,192,6                // vpinsrb       $0x6,%r8d,%xmm0,%xmm0
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,121,32,201,7                 // vpinsrb       $0x7,%r9d,%xmm0,%xmm9
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
+  .byte  196,193,249,126,201                 // vmovq         %xmm1,%r9
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,193,121,110,194                 // vmovd         %r10d,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,1                // vpinsrb       $0x1,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,201,1                // vextracti128  $0x1,%ymm1,%xmm1
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,2                // vpinsrb       $0x2,%r9d,%xmm0,%xmm0
+  .byte  196,193,249,126,201                 // vmovq         %xmm1,%r9
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,3                // vpinsrb       $0x3,%r10d,%xmm0,%xmm0
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,4                // vpinsrb       $0x4,%r10d,%xmm0,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,5                // vpinsrb       $0x5,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,6                // vpinsrb       $0x6,%r9d,%xmm0,%xmm0
+  .byte  71,15,182,4,16                      // movzbl        (%r8,%r10,1),%r8d
+  .byte  196,195,121,32,200,7                // vpinsrb       $0x7,%r8d,%xmm0,%xmm1
+  .byte  76,139,64,16                        // mov           0x10(%rax),%r8
+  .byte  196,193,108,89,192                  // vmulps        %ymm8,%ymm2,%ymm0
+  .byte  197,253,91,208                      // vcvtps2dq     %ymm0,%ymm2
+  .byte  196,193,249,126,209                 // vmovq         %xmm2,%r9
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,193,121,110,194                 // vmovd         %r10d,%xmm0
+  .byte  196,195,249,22,210,1                // vpextrq       $0x1,%xmm2,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,1                // vpinsrb       $0x1,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,210,1                // vextracti128  $0x1,%ymm2,%xmm2
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,2                // vpinsrb       $0x2,%r9d,%xmm0,%xmm0
+  .byte  196,193,249,126,209                 // vmovq         %xmm2,%r9
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,3                // vpinsrb       $0x3,%r10d,%xmm0,%xmm0
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,4                // vpinsrb       $0x4,%r10d,%xmm0,%xmm0
+  .byte  196,195,249,22,210,1                // vpextrq       $0x1,%xmm2,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,5                // vpinsrb       $0x5,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,6                // vpinsrb       $0x6,%r9d,%xmm0,%xmm0
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  71,15,182,4,16                      // movzbl        (%r8,%r10,1),%r8d
+  .byte  196,67,121,32,208,7                 // vpinsrb       $0x7,%r8d,%xmm0,%xmm10
+  .byte  76,139,72,24                        // mov           0x18(%rax),%r9
+  .byte  196,193,100,89,192                  // vmulps        %ymm8,%ymm3,%ymm0
+  .byte  197,253,91,208                      // vcvtps2dq     %ymm0,%ymm2
+  .byte  196,193,249,126,208                 // vmovq         %xmm2,%r8
+  .byte  68,137,192                          // mov           %r8d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  196,195,249,22,210,1                // vpextrq       $0x1,%xmm2,%r10
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  67,15,182,4,1                       // movzbl        (%r9,%r8,1),%eax
+  .byte  196,227,121,32,192,1                // vpinsrb       $0x1,%eax,%xmm0,%xmm0
+  .byte  68,137,208                          // mov           %r10d,%eax
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,210,1                // vextracti128  $0x1,%ymm2,%xmm2
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,192,2                // vpinsrb       $0x2,%eax,%xmm0,%xmm0
+  .byte  196,193,249,126,208                 // vmovq         %xmm2,%r8
+  .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
+  .byte  196,227,121,32,192,3                // vpinsrb       $0x3,%eax,%xmm0,%xmm0
+  .byte  68,137,192                          // mov           %r8d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,192,4                // vpinsrb       $0x4,%eax,%xmm0,%xmm0
+  .byte  196,195,249,22,210,1                // vpextrq       $0x1,%xmm2,%r10
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  67,15,182,4,1                       // movzbl        (%r9,%r8,1),%eax
+  .byte  196,227,121,32,192,5                // vpinsrb       $0x5,%eax,%xmm0,%xmm0
+  .byte  68,137,208                          // mov           %r10d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,216,6                // vpinsrb       $0x6,%eax,%xmm0,%xmm3
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
+  .byte  196,194,125,49,193                  // vpmovzxbd     %xmm9,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,5,244,255,2,0         // vbroadcastss  0x2fff4(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  196,226,125,49,201                  // vpmovzxbd     %xmm1,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  196,194,125,49,210                  // vpmovzxbd     %xmm10,%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  196,227,97,32,216,7                 // vpinsrb       $0x7,%eax,%xmm3,%xmm3
+  .byte  196,226,125,49,219                  // vpmovzxbd     %xmm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_byte_tables_rgb_skx
+.globl _sk_byte_tables_rgb_skx
+FUNCTION(_sk_byte_tables_rgb_skx)
+_sk_byte_tables_rgb_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,139,64,24                        // mov           0x18(%rax),%r8d
+  .byte  65,131,192,255                      // add           $0xffffffff,%r8d
+  .byte  98,82,125,40,124,192                // vpbroadcastd  %r8d,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,125,91,200                      // vcvtps2dq     %ymm0,%ymm9
+  .byte  196,65,249,126,200                  // vmovq         %xmm9,%r8
+  .byte  69,137,193                          // mov           %r8d,%r9d
+  .byte  76,139,16                           // mov           (%rax),%r10
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,193,121,110,193                 // vmovd         %r9d,%xmm0
+  .byte  196,67,249,22,201,1                 // vpextrq       $0x1,%xmm9,%r9
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,67,121,32,208,1                 // vpinsrb       $0x1,%r8d,%xmm0,%xmm10
+  .byte  69,137,200                          // mov           %r9d,%r8d
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  196,99,125,57,200,1                 // vextracti128  $0x1,%ymm9,%xmm0
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,67,41,32,200,2                  // vpinsrb       $0x2,%r8d,%xmm10,%xmm9
+  .byte  196,193,249,126,192                 // vmovq         %xmm0,%r8
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,49,32,201,3                  // vpinsrb       $0x3,%r9d,%xmm9,%xmm9
+  .byte  69,137,193                          // mov           %r8d,%r9d
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,49,32,201,4                  // vpinsrb       $0x4,%r9d,%xmm9,%xmm9
+  .byte  196,195,249,22,193,1                // vpextrq       $0x1,%xmm0,%r9
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,195,49,32,192,5                 // vpinsrb       $0x5,%r8d,%xmm9,%xmm0
+  .byte  69,137,200                          // mov           %r9d,%r8d
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,4,2                       // movzbl        (%r10,%r8,1),%r8d
+  .byte  196,195,121,32,192,6                // vpinsrb       $0x6,%r8d,%xmm0,%xmm0
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  71,15,182,12,10                     // movzbl        (%r10,%r9,1),%r9d
+  .byte  196,67,121,32,201,7                 // vpinsrb       $0x7,%r9d,%xmm0,%xmm9
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
+  .byte  196,193,249,126,201                 // vmovq         %xmm1,%r9
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,193,121,110,194                 // vmovd         %r10d,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,1                // vpinsrb       $0x1,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,201,1                // vextracti128  $0x1,%ymm1,%xmm1
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,2                // vpinsrb       $0x2,%r9d,%xmm0,%xmm0
+  .byte  196,193,249,126,201                 // vmovq         %xmm1,%r9
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,3                // vpinsrb       $0x3,%r10d,%xmm0,%xmm0
+  .byte  69,137,202                          // mov           %r9d,%r10d
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  196,195,121,32,194,4                // vpinsrb       $0x4,%r10d,%xmm0,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,233,32                       // shr           $0x20,%r9
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,5                // vpinsrb       $0x5,%r9d,%xmm0,%xmm0
+  .byte  69,137,209                          // mov           %r10d,%r9d
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,6                // vpinsrb       $0x6,%r9d,%xmm0,%xmm0
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  71,15,182,4,16                      // movzbl        (%r8,%r10,1),%r8d
+  .byte  196,67,121,32,208,7                 // vpinsrb       $0x7,%r8d,%xmm0,%xmm10
+  .byte  76,139,72,16                        // mov           0x10(%rax),%r9
+  .byte  197,188,89,194                      // vmulps        %ymm2,%ymm8,%ymm0
+  .byte  197,253,91,200                      // vcvtps2dq     %ymm0,%ymm1
+  .byte  196,193,249,126,200                 // vmovq         %xmm1,%r8
+  .byte  68,137,192                          // mov           %r8d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  67,15,182,4,1                       // movzbl        (%r9,%r8,1),%eax
+  .byte  196,227,121,32,192,1                // vpinsrb       $0x1,%eax,%xmm0,%xmm0
+  .byte  68,137,208                          // mov           %r10d,%eax
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,201,1                // vextracti128  $0x1,%ymm1,%xmm1
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,192,2                // vpinsrb       $0x2,%eax,%xmm0,%xmm0
+  .byte  196,193,249,126,200                 // vmovq         %xmm1,%r8
+  .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
+  .byte  196,227,121,32,192,3                // vpinsrb       $0x3,%eax,%xmm0,%xmm0
+  .byte  68,137,192                          // mov           %r8d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,192,4                // vpinsrb       $0x4,%eax,%xmm0,%xmm0
+  .byte  196,195,249,22,202,1                // vpextrq       $0x1,%xmm1,%r10
+  .byte  73,193,232,32                       // shr           $0x20,%r8
+  .byte  67,15,182,4,1                       // movzbl        (%r9,%r8,1),%eax
+  .byte  196,227,121,32,192,5                // vpinsrb       $0x5,%eax,%xmm0,%xmm0
+  .byte  68,137,208                          // mov           %r10d,%eax
+  .byte  65,15,182,4,1                       // movzbl        (%r9,%rax,1),%eax
+  .byte  196,227,121,32,208,6                // vpinsrb       $0x6,%eax,%xmm0,%xmm2
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
+  .byte  196,194,125,49,193                  // vpmovzxbd     %xmm9,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,5,203,253,2,0         // vbroadcastss  0x2fdcb(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  196,194,125,49,202                  // vpmovzxbd     %xmm10,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  196,227,105,32,208,7                // vpinsrb       $0x7,%eax,%xmm2,%xmm2
+  .byte  196,226,125,49,210                  // vpmovzxbd     %xmm2,%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_table_r_skx
+.globl _sk_table_r_skx
+FUNCTION(_sk_table_r_skx)
+_sk_table_r_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  139,64,8                            // mov           0x8(%rax),%eax
+  .byte  131,192,255                         // add           $0xffffffff,%eax
+  .byte  98,114,125,40,124,192               // vpbroadcastd  %eax,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  197,125,91,192                      // vcvtps2dq     %ymm0,%ymm8
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  196,130,53,146,4,128                // vgatherdps    %ymm9,(%r8,%ymm8,4),%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_table_g_skx
+.globl _sk_table_g_skx
+FUNCTION(_sk_table_g_skx)
+_sk_table_g_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  139,64,8                            // mov           0x8(%rax),%eax
+  .byte  131,192,255                         // add           $0xffffffff,%eax
+  .byte  98,114,125,40,124,192               // vpbroadcastd  %eax,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
+  .byte  197,125,91,193                      // vcvtps2dq     %ymm1,%ymm8
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,130,53,146,12,128               // vgatherdps    %ymm9,(%r8,%ymm8,4),%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_table_b_skx
+.globl _sk_table_b_skx
+FUNCTION(_sk_table_b_skx)
+_sk_table_b_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  139,64,8                            // mov           0x8(%rax),%eax
+  .byte  131,192,255                         // add           $0xffffffff,%eax
+  .byte  98,114,125,40,124,192               // vpbroadcastd  %eax,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,125,91,194                      // vcvtps2dq     %ymm2,%ymm8
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,130,53,146,20,128               // vgatherdps    %ymm9,(%r8,%ymm8,4),%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_table_a_skx
+.globl _sk_table_a_skx
+FUNCTION(_sk_table_a_skx)
+_sk_table_a_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  139,64,8                            // mov           0x8(%rax),%eax
+  .byte  131,192,255                         // add           $0xffffffff,%eax
+  .byte  98,114,125,40,124,192               // vpbroadcastd  %eax,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,125,91,195                      // vcvtps2dq     %ymm3,%ymm8
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  196,130,53,146,28,128               // vgatherdps    %ymm9,(%r8,%ymm8,4),%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_parametric_r_skx
+.globl _sk_parametric_r_skx
+FUNCTION(_sk_parametric_r_skx)
+_sk_parametric_r_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,241,124,56,194,64,4,2            // vcmpleps      0x10(%rax){1to8},%ymm0,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,98,125,24,72,12                 // vbroadcastss  0xc(%rax),%ymm9
+  .byte  98,114,125,56,168,72,6              // vfmadd213ps   0x18(%rax){1to8},%ymm0,%ymm9
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  98,114,125,56,168,80,2              // vfmadd213ps   0x8(%rax){1to8},%ymm0,%ymm10
+  .byte  196,226,125,24,0                    // vbroadcastss  (%rax),%ymm0
+  .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
+  .byte  196,98,125,24,37,191,252,2,0        // vbroadcastss  0x2fcbf(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  98,114,37,56,168,37,189,252,2,0     // vfmadd213ps   0x2fcbd(%rip){1to8},%ymm11,%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  98,113,44,56,84,21,175,252,2,0      // vandps        0x2fcaf(%rip){1to8},%ymm10,%ymm10        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  98,113,44,56,86,21,9,252,2,0        // vorps         0x2fc09(%rip){1to8},%ymm10,%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,45,56,188,37,163,252,2,0     // vfnmadd231ps  0x2fca3(%rip){1to8},%ymm10,%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  98,113,44,56,88,21,157,252,2,0      // vaddps        0x2fc9d(%rip){1to8},%ymm10,%ymm10        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,29,152,252,2,0        // vbroadcastss  0x2fc98(%rip),%ymm11        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,65,28,92,210                    // vsubps        %ymm10,%ymm12,%ymm10
+  .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
+  .byte  196,99,125,8,208,1                  // vroundps      $0x1,%ymm0,%ymm10
+  .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
+  .byte  98,241,124,56,88,5,120,252,2,0      // vaddps        0x2fc78(%rip){1to8},%ymm0,%ymm0        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  98,242,45,56,188,5,114,252,2,0      // vfnmadd231ps  0x2fc72(%rip){1to8},%ymm10,%ymm0        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,98,125,24,29,109,252,2,0        // vbroadcastss  0x2fc6d(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
+  .byte  196,98,125,24,29,99,252,2,0         // vbroadcastss  0x2fc63(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
+  .byte  98,241,124,56,89,5,83,252,2,0       // vmulps        0x2fc53(%rip){1to8},%ymm0,%ymm0        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
+  .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
+  .byte  197,172,88,192                      // vaddps        %ymm0,%ymm10,%ymm0
+  .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
+  .byte  98,241,124,56,93,5,111,251,2,0      // vminps        0x2fb6f(%rip){1to8},%ymm0,%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_parametric_g_skx
+.globl _sk_parametric_g_skx
+FUNCTION(_sk_parametric_g_skx)
+_sk_parametric_g_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,241,116,56,194,64,4,2            // vcmpleps      0x10(%rax){1to8},%ymm1,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,98,125,24,72,12                 // vbroadcastss  0xc(%rax),%ymm9
+  .byte  98,114,117,56,168,72,6              // vfmadd213ps   0x18(%rax){1to8},%ymm1,%ymm9
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  98,114,117,56,168,80,2              // vfmadd213ps   0x8(%rax){1to8},%ymm1,%ymm10
+  .byte  196,226,125,24,8                    // vbroadcastss  (%rax),%ymm1
+  .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
+  .byte  196,98,125,24,37,194,251,2,0        // vbroadcastss  0x2fbc2(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  98,114,37,56,168,37,192,251,2,0     // vfmadd213ps   0x2fbc0(%rip){1to8},%ymm11,%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  98,113,44,56,84,21,178,251,2,0      // vandps        0x2fbb2(%rip){1to8},%ymm10,%ymm10        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  98,113,44,56,86,21,12,251,2,0       // vorps         0x2fb0c(%rip){1to8},%ymm10,%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,45,56,188,37,166,251,2,0     // vfnmadd231ps  0x2fba6(%rip){1to8},%ymm10,%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  98,113,44,56,88,21,160,251,2,0      // vaddps        0x2fba0(%rip){1to8},%ymm10,%ymm10        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,29,155,251,2,0        // vbroadcastss  0x2fb9b(%rip),%ymm11        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,65,28,92,210                    // vsubps        %ymm10,%ymm12,%ymm10
+  .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
+  .byte  196,99,125,8,209,1                  // vroundps      $0x1,%ymm1,%ymm10
+  .byte  196,65,116,92,210                   // vsubps        %ymm10,%ymm1,%ymm10
+  .byte  98,241,116,56,88,13,123,251,2,0     // vaddps        0x2fb7b(%rip){1to8},%ymm1,%ymm1        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  98,242,45,56,188,13,117,251,2,0     // vfnmadd231ps  0x2fb75(%rip){1to8},%ymm10,%ymm1        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,98,125,24,29,112,251,2,0        // vbroadcastss  0x2fb70(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
+  .byte  196,98,125,24,29,102,251,2,0        // vbroadcastss  0x2fb66(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
+  .byte  98,241,116,56,89,13,86,251,2,0      // vmulps        0x2fb56(%rip){1to8},%ymm1,%ymm1        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
+  .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
+  .byte  197,172,88,201                      // vaddps        %ymm1,%ymm10,%ymm1
+  .byte  196,195,117,74,201,128              // vblendvps     %ymm8,%ymm9,%ymm1,%ymm1
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
+  .byte  98,241,116,56,93,13,114,250,2,0     // vminps        0x2fa72(%rip){1to8},%ymm1,%ymm1        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_parametric_b_skx
+.globl _sk_parametric_b_skx
+FUNCTION(_sk_parametric_b_skx)
+_sk_parametric_b_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,241,108,56,194,64,4,2            // vcmpleps      0x10(%rax){1to8},%ymm2,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,98,125,24,72,12                 // vbroadcastss  0xc(%rax),%ymm9
+  .byte  98,114,109,56,168,72,6              // vfmadd213ps   0x18(%rax){1to8},%ymm2,%ymm9
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  98,114,109,56,168,80,2              // vfmadd213ps   0x8(%rax){1to8},%ymm2,%ymm10
+  .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
+  .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
+  .byte  196,98,125,24,37,197,250,2,0        // vbroadcastss  0x2fac5(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  98,114,37,56,168,37,195,250,2,0     // vfmadd213ps   0x2fac3(%rip){1to8},%ymm11,%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  98,113,44,56,84,21,181,250,2,0      // vandps        0x2fab5(%rip){1to8},%ymm10,%ymm10        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  98,113,44,56,86,21,15,250,2,0       // vorps         0x2fa0f(%rip){1to8},%ymm10,%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,45,56,188,37,169,250,2,0     // vfnmadd231ps  0x2faa9(%rip){1to8},%ymm10,%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  98,113,44,56,88,21,163,250,2,0      // vaddps        0x2faa3(%rip){1to8},%ymm10,%ymm10        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,29,158,250,2,0        // vbroadcastss  0x2fa9e(%rip),%ymm11        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,65,28,92,210                    // vsubps        %ymm10,%ymm12,%ymm10
+  .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
+  .byte  196,99,125,8,210,1                  // vroundps      $0x1,%ymm2,%ymm10
+  .byte  196,65,108,92,210                   // vsubps        %ymm10,%ymm2,%ymm10
+  .byte  98,241,108,56,88,21,126,250,2,0     // vaddps        0x2fa7e(%rip){1to8},%ymm2,%ymm2        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  98,242,45,56,188,21,120,250,2,0     // vfnmadd231ps  0x2fa78(%rip){1to8},%ymm10,%ymm2        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,98,125,24,29,115,250,2,0        // vbroadcastss  0x2fa73(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
+  .byte  196,98,125,24,29,105,250,2,0        // vbroadcastss  0x2fa69(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
+  .byte  98,241,108,56,89,21,89,250,2,0      // vmulps        0x2fa59(%rip){1to8},%ymm2,%ymm2        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
+  .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
+  .byte  197,172,88,210                      // vaddps        %ymm2,%ymm10,%ymm2
+  .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
+  .byte  98,241,108,56,93,21,117,249,2,0     // vminps        0x2f975(%rip){1to8},%ymm2,%ymm2        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_parametric_a_skx
+.globl _sk_parametric_a_skx
+FUNCTION(_sk_parametric_a_skx)
+_sk_parametric_a_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,241,100,56,194,64,4,2            // vcmpleps      0x10(%rax){1to8},%ymm3,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,98,125,24,72,12                 // vbroadcastss  0xc(%rax),%ymm9
+  .byte  98,114,101,56,168,72,6              // vfmadd213ps   0x18(%rax){1to8},%ymm3,%ymm9
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  98,114,101,56,168,80,2              // vfmadd213ps   0x8(%rax){1to8},%ymm3,%ymm10
+  .byte  196,226,125,24,24                   // vbroadcastss  (%rax),%ymm3
+  .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
+  .byte  196,98,125,24,37,200,249,2,0        // vbroadcastss  0x2f9c8(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  98,114,37,56,168,37,198,249,2,0     // vfmadd213ps   0x2f9c6(%rip){1to8},%ymm11,%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  98,113,44,56,84,21,184,249,2,0      // vandps        0x2f9b8(%rip){1to8},%ymm10,%ymm10        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  98,113,44,56,86,21,18,249,2,0       // vorps         0x2f912(%rip){1to8},%ymm10,%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,45,56,188,37,172,249,2,0     // vfnmadd231ps  0x2f9ac(%rip){1to8},%ymm10,%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  98,113,44,56,88,21,166,249,2,0      // vaddps        0x2f9a6(%rip){1to8},%ymm10,%ymm10        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,29,161,249,2,0        // vbroadcastss  0x2f9a1(%rip),%ymm11        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,65,28,92,210                    // vsubps        %ymm10,%ymm12,%ymm10
+  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
+  .byte  196,99,125,8,211,1                  // vroundps      $0x1,%ymm3,%ymm10
+  .byte  196,65,100,92,210                   // vsubps        %ymm10,%ymm3,%ymm10
+  .byte  98,241,100,56,88,29,129,249,2,0     // vaddps        0x2f981(%rip){1to8},%ymm3,%ymm3        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  98,242,45,56,188,29,123,249,2,0     // vfnmadd231ps  0x2f97b(%rip){1to8},%ymm10,%ymm3        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,98,125,24,29,118,249,2,0        // vbroadcastss  0x2f976(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
+  .byte  196,98,125,24,29,108,249,2,0        // vbroadcastss  0x2f96c(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
+  .byte  196,193,100,88,218                  // vaddps        %ymm10,%ymm3,%ymm3
+  .byte  98,241,100,56,89,29,92,249,2,0      // vmulps        0x2f95c(%rip){1to8},%ymm3,%ymm3        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
+  .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
+  .byte  197,172,88,219                      // vaddps        %ymm3,%ymm10,%ymm3
+  .byte  196,195,101,74,217,128              // vblendvps     %ymm8,%ymm9,%ymm3,%ymm3
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
+  .byte  98,241,100,56,93,29,120,248,2,0     // vminps        0x2f878(%rip){1to8},%ymm3,%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_gamma_skx
+.globl _sk_gamma_skx
+FUNCTION(_sk_gamma_skx)
+_sk_gamma_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,226,125,40,24,48                 // vbroadcastss  (%rax),%ymm22
+  .byte  197,124,91,200                      // vcvtdq2ps     %ymm0,%ymm9
+  .byte  196,98,125,24,21,243,248,2,0        // vbroadcastss  0x2f8f3(%rip),%ymm10        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,29,238,248,2,0        // vbroadcastss  0x2f8ee(%rip),%ymm11        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  196,193,124,84,195                  // vandps        %ymm11,%ymm0,%ymm0
+  .byte  196,98,125,24,37,68,248,2,0         // vbroadcastss  0x2f844(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,193,124,86,196                  // vorps         %ymm12,%ymm0,%ymm0
+  .byte  196,98,125,24,45,214,248,2,0        // vbroadcastss  0x2f8d6(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  196,66,45,168,205                   // vfmadd213ps   %ymm13,%ymm10,%ymm9
+  .byte  196,98,125,24,53,204,248,2,0        // vbroadcastss  0x2f8cc(%rip),%ymm14        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  196,66,125,188,206                  // vfnmadd231ps  %ymm14,%ymm0,%ymm9
+  .byte  196,98,125,24,61,194,248,2,0        // vbroadcastss  0x2f8c2(%rip),%ymm15        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,193,124,88,199                  // vaddps        %ymm15,%ymm0,%ymm0
+  .byte  98,226,125,40,24,5,183,248,2,0      // vbroadcastss  0x2f8b7(%rip),%ymm16        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  98,241,124,32,94,192                // vdivps        %ymm0,%ymm16,%ymm0
+  .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
+  .byte  98,177,124,40,89,198                // vmulps        %ymm22,%ymm0,%ymm0
+  .byte  196,99,125,8,200,1                  // vroundps      $0x1,%ymm0,%ymm9
+  .byte  196,65,124,92,201                   // vsubps        %ymm9,%ymm0,%ymm9
+  .byte  98,226,125,40,24,13,150,248,2,0     // vbroadcastss  0x2f896(%rip),%ymm17        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  98,177,124,40,88,193                // vaddps        %ymm17,%ymm0,%ymm0
+  .byte  98,226,125,40,24,21,138,248,2,0     // vbroadcastss  0x2f88a(%rip),%ymm18        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  98,178,53,40,188,194                // vfnmadd231ps  %ymm18,%ymm9,%ymm0
+  .byte  98,226,125,40,24,29,126,248,2,0     // vbroadcastss  0x2f87e(%rip),%ymm19        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  98,81,100,32,92,201                 // vsubps        %ymm9,%ymm19,%ymm9
+  .byte  98,226,125,40,24,37,114,248,2,0     // vbroadcastss  0x2f872(%rip),%ymm20        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  98,81,92,32,94,201                  // vdivps        %ymm9,%ymm20,%ymm9
+  .byte  196,193,124,88,193                  // vaddps        %ymm9,%ymm0,%ymm0
+  .byte  196,98,125,24,13,98,248,2,0         // vbroadcastss  0x2f862(%rip),%ymm9        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
+  .byte  98,225,124,40,91,233                // vcvtdq2ps     %ymm1,%ymm21
+  .byte  196,193,116,84,203                  // vandps        %ymm11,%ymm1,%ymm1
+  .byte  196,193,116,86,204                  // vorps         %ymm12,%ymm1,%ymm1
+  .byte  98,194,45,40,168,237                // vfmadd213ps   %ymm13,%ymm10,%ymm21
+  .byte  98,194,117,40,188,238               // vfnmadd231ps  %ymm14,%ymm1,%ymm21
+  .byte  196,193,116,88,207                  // vaddps        %ymm15,%ymm1,%ymm1
+  .byte  98,241,124,32,94,201                // vdivps        %ymm1,%ymm16,%ymm1
+  .byte  98,241,84,32,92,201                 // vsubps        %ymm1,%ymm21,%ymm1
+  .byte  98,177,116,40,89,206                // vmulps        %ymm22,%ymm1,%ymm1
+  .byte  196,99,125,8,193,1                  // vroundps      $0x1,%ymm1,%ymm8
+  .byte  196,65,116,92,192                   // vsubps        %ymm8,%ymm1,%ymm8
+  .byte  98,177,116,40,88,201                // vaddps        %ymm17,%ymm1,%ymm1
+  .byte  98,178,61,40,188,202                // vfnmadd231ps  %ymm18,%ymm8,%ymm1
+  .byte  98,81,100,32,92,192                 // vsubps        %ymm8,%ymm19,%ymm8
+  .byte  98,81,92,32,94,192                  // vdivps        %ymm8,%ymm20,%ymm8
+  .byte  196,193,116,88,200                  // vaddps        %ymm8,%ymm1,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
+  .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
+  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
+  .byte  196,193,108,84,211                  // vandps        %ymm11,%ymm2,%ymm2
+  .byte  196,193,108,86,212                  // vorps         %ymm12,%ymm2,%ymm2
+  .byte  196,66,45,168,197                   // vfmadd213ps   %ymm13,%ymm10,%ymm8
+  .byte  196,66,109,188,198                  // vfnmadd231ps  %ymm14,%ymm2,%ymm8
+  .byte  196,193,108,88,215                  // vaddps        %ymm15,%ymm2,%ymm2
+  .byte  98,241,124,32,94,210                // vdivps        %ymm2,%ymm16,%ymm2
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  98,177,108,40,89,214                // vmulps        %ymm22,%ymm2,%ymm2
+  .byte  196,99,125,8,194,1                  // vroundps      $0x1,%ymm2,%ymm8
+  .byte  196,65,108,92,192                   // vsubps        %ymm8,%ymm2,%ymm8
+  .byte  98,177,108,40,88,209                // vaddps        %ymm17,%ymm2,%ymm2
+  .byte  98,178,61,40,188,210                // vfnmadd231ps  %ymm18,%ymm8,%ymm2
+  .byte  98,81,100,32,92,192                 // vsubps        %ymm8,%ymm19,%ymm8
+  .byte  98,81,92,32,94,192                  // vdivps        %ymm8,%ymm20,%ymm8
+  .byte  196,193,108,88,208                  // vaddps        %ymm8,%ymm2,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
+  .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_lab_to_xyz_skx
+.globl _sk_lab_to_xyz_skx
+FUNCTION(_sk_lab_to_xyz_skx)
+_sk_lab_to_xyz_skx:
+  .byte  196,98,125,24,5,142,247,2,0         // vbroadcastss  0x2f78e(%rip),%ymm8        # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,98,125,24,13,241,246,2,0        // vbroadcastss  0x2f6f1(%rip),%ymm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,128,247,2,0        // vbroadcastss  0x2f780(%rip),%ymm10        # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,194,53,168,202                  // vfmadd213ps   %ymm10,%ymm9,%ymm1
+  .byte  196,194,53,168,210                  // vfmadd213ps   %ymm10,%ymm9,%ymm2
+  .byte  98,114,125,56,168,5,112,247,2,0     // vfmadd213ps   0x2f770(%rip){1to8},%ymm0,%ymm8        # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  98,241,60,56,89,5,106,247,2,0       // vmulps        0x2f76a(%rip){1to8},%ymm8,%ymm0        # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  98,242,125,56,152,13,100,247,2,0    // vfmadd132ps   0x2f764(%rip){1to8},%ymm0,%ymm1        # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+  .byte  98,242,125,56,156,21,94,247,2,0     // vfnmadd132ps  0x2f75e(%rip){1to8},%ymm0,%ymm2        # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+  .byte  197,116,89,193                      // vmulps        %ymm1,%ymm1,%ymm8
+  .byte  196,65,116,89,192                   // vmulps        %ymm8,%ymm1,%ymm8
+  .byte  196,98,125,24,13,80,247,2,0         // vbroadcastss  0x2f750(%rip),%ymm9        # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+  .byte  98,209,52,40,194,192,1              // vcmpltps      %ymm8,%ymm9,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  196,98,125,24,29,62,247,2,0         // vbroadcastss  0x2f73e(%rip),%ymm11        # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+  .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
+  .byte  196,98,125,24,37,52,247,2,0         // vbroadcastss  0x2f734(%rip),%ymm12        # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+  .byte  196,193,116,89,204                  // vmulps        %ymm12,%ymm1,%ymm1
+  .byte  196,67,117,74,192,160               // vblendvps     %ymm10,%ymm8,%ymm1,%ymm8
+  .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
+  .byte  197,252,89,201                      // vmulps        %ymm1,%ymm0,%ymm1
+  .byte  98,241,52,40,194,193,1              // vcmpltps      %ymm1,%ymm9,%k0
+  .byte  98,114,126,40,56,208                // vpmovm2d      %k0,%ymm10
+  .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
+  .byte  196,193,124,89,196                  // vmulps        %ymm12,%ymm0,%ymm0
+  .byte  196,227,125,74,201,160              // vblendvps     %ymm10,%ymm1,%ymm0,%ymm1
+  .byte  197,236,89,194                      // vmulps        %ymm2,%ymm2,%ymm0
+  .byte  197,236,89,192                      // vmulps        %ymm0,%ymm2,%ymm0
+  .byte  98,241,52,40,194,192,1              // vcmpltps      %ymm0,%ymm9,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
+  .byte  196,193,108,89,212                  // vmulps        %ymm12,%ymm2,%ymm2
+  .byte  196,227,109,74,208,144              // vblendvps     %ymm9,%ymm0,%ymm2,%ymm2
+  .byte  98,241,60,56,89,5,217,246,2,0       // vmulps        0x2f6d9(%rip){1to8},%ymm8,%ymm0        # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+  .byte  98,241,108,56,89,21,211,246,2,0     // vmulps        0x2f6d3(%rip){1to8},%ymm2,%ymm2        # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_load_a8_skx
+.globl _sk_load_a8_skx
+FUNCTION(_sk_load_a8_skx)
+_sk_load_a8_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,49                              // jne           336a <_sk_load_a8_skx+0x49>
+  .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
+  .byte  197,249,219,5,89,247,2,0            // vpand         0x2f759(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,29,34,246,2,0      // vmulps        0x2f622(%rip){1to8},%ymm0,%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,192                             // ja            333f <_sk_load_a8_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,134,0,0,0                 // lea           0x86(%rip),%r10        # 3410 <_sk_load_a8_skx+0xef>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  235,161                             // jmp           333f <_sk_load_a8_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
+  .byte  196,130,121,50,12,24                // vpmovzxbq     (%r8,%r11,1),%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
+  .byte  233,119,255,255,255                 // jmpq          333f <_sk_load_a8_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,249,196,192,5                   // vpinsrw       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,249,196,192,4                   // vpinsrw       $0x4,%eax,%xmm0,%xmm0
+  .byte  196,130,121,49,12,24                // vpmovzxbd     (%r8,%r11,1),%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  197,250,112,201,232                 // vpshufhw      $0xe8,%xmm1,%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
+  .byte  233,50,255,255,255                  // jmpq          333f <_sk_load_a8_skx+0x1e>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  131,255,255                         // cmp           $0xffffffff,%edi
+  .byte  255,157,255,255,255,142             // lcall         *-0x71000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,210                             // callq         *%rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,199                             // inc           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  184                                 // .byte         0xb8
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_a8_dst_skx
+.globl _sk_load_a8_dst_skx
+FUNCTION(_sk_load_a8_dst_skx)
+_sk_load_a8_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,49                              // jne           3475 <_sk_load_a8_dst_skx+0x49>
+  .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
+  .byte  197,217,219,37,78,246,2,0           // vpand         0x2f64e(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,226,125,51,228                  // vpmovzxwd     %xmm4,%ymm4
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  98,241,92,56,89,61,23,245,2,0       // vmulps        0x2f517(%rip){1to8},%ymm4,%ymm7        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
+  .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
+  .byte  197,204,87,246                      // vxorps        %ymm6,%ymm6,%ymm6
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,192                             // ja            344a <_sk_load_a8_dst_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,131,0,0,0                 // lea           0x83(%rip),%r10        # 3518 <_sk_load_a8_dst_skx+0xec>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,249,110,224                     // vmovd         %eax,%xmm4
+  .byte  235,161                             // jmp           344a <_sk_load_a8_dst_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
+  .byte  196,130,121,50,44,24                // vpmovzxbq     (%r8,%r11,1),%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
+  .byte  233,119,255,255,255                 // jmpq          344a <_sk_load_a8_dst_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,217,196,224,5                   // vpinsrw       $0x5,%eax,%xmm4,%xmm4
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,217,196,224,4                   // vpinsrw       $0x4,%eax,%xmm4,%xmm4
+  .byte  196,130,121,49,44,24                // vpmovzxbd     (%r8,%r11,1),%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  197,250,112,237,232                 // vpshufhw      $0xe8,%xmm5,%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
+  .byte  233,50,255,255,255                  // jmpq          344a <_sk_load_a8_dst_skx+0x1e>
+  .byte  134,255                             // xchg          %bh,%bh
+  .byte  255                                 // (bad)
+  .byte  255,160,255,255,255,145             // jmpq          *-0x6e000001(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,224                             // jmpq          *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,213                             // callq         *%rbp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,202                             // dec           %edx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  187                                 // .byte         0xbb
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_a8_skx
+.globl _sk_gather_a8_skx
+FUNCTION(_sk_gather_a8_skx)
+_sk_gather_a8_skx:
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,227,249,22,192,1                // vpextrq       $0x1,%xmm0,%rax
+  .byte  65,137,193                          // mov           %eax,%r9d
+  .byte  72,193,232,32                       // shr           $0x20,%rax
+  .byte  196,193,249,126,194                 // vmovq         %xmm0,%r10
+  .byte  69,137,211                          // mov           %r10d,%r11d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,192,1                // vextracti128  $0x1,%ymm0,%xmm0
+  .byte  196,227,249,22,195,1                // vpextrq       $0x1,%xmm0,%rbx
+  .byte  65,137,222                          // mov           %ebx,%r14d
+  .byte  72,193,235,32                       // shr           $0x20,%rbx
+  .byte  196,193,249,126,199                 // vmovq         %xmm0,%r15
+  .byte  69,137,252                          // mov           %r15d,%r12d
+  .byte  73,193,239,32                       // shr           $0x20,%r15
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  71,15,182,28,24                     // movzbl        (%r8,%r11,1),%r11d
+  .byte  196,193,121,110,195                 // vmovd         %r11d,%xmm0
+  .byte  196,195,121,32,194,1                // vpinsrb       $0x1,%r10d,%xmm0,%xmm0
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,2                // vpinsrb       $0x2,%r9d,%xmm0,%xmm0
+  .byte  65,15,182,4,0                       // movzbl        (%r8,%rax,1),%eax
+  .byte  196,227,121,32,192,3                // vpinsrb       $0x3,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,32                      // movzbl        (%r8,%r12,1),%eax
+  .byte  196,227,121,32,192,4                // vpinsrb       $0x4,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,56                      // movzbl        (%r8,%r15,1),%eax
+  .byte  196,227,121,32,192,5                // vpinsrb       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,48                      // movzbl        (%r8,%r14,1),%eax
+  .byte  196,227,121,32,192,6                // vpinsrb       $0x6,%eax,%xmm0,%xmm0
+  .byte  65,15,182,4,24                      // movzbl        (%r8,%rbx,1),%eax
+  .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
+  .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,29,90,243,2,0      // vmulps        0x2f35a(%rip){1to8},%ymm0,%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_a8_skx
+.globl _sk_store_a8_skx
+FUNCTION(_sk_store_a8_skx)
+_sk_store_a8_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  98,113,100,56,89,5,222,242,2,0      // vmulps        0x2f2de(%rip){1to8},%ymm3,%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
+  .byte  197,57,103,192                      // vpackuswb     %xmm0,%xmm8,%xmm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,10                              // jne           3679 <_sk_store_a8_skx+0x40>
+  .byte  196,1,121,214,4,24                  // vmovq         %xmm8,(%r8,%r11,1)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,235                             // ja            3675 <_sk_store_a8_skx+0x3c>
+  .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,78,0,0,0                  // lea           0x4e(%rip),%r10        # 36e8 <_sk_store_a8_skx+0xaf>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,3,121,20,4,24,0                 // vpextrb       $0x0,%xmm8,(%r8,%r11,1)
+  .byte  235,201                             // jmp           3675 <_sk_store_a8_skx+0x3c>
+  .byte  196,3,121,20,68,24,2,4              // vpextrb       $0x4,%xmm8,0x2(%r8,%r11,1)
+  .byte  196,66,121,49,192                   // vpmovzxbd     %xmm8,%xmm8
+  .byte  98,18,126,8,50,4,24                 // vpmovqb       %xmm8,(%r8,%r11,1)
+  .byte  235,179                             // jmp           3675 <_sk_store_a8_skx+0x3c>
+  .byte  196,3,121,20,68,24,6,12             // vpextrb       $0xc,%xmm8,0x6(%r8,%r11,1)
+  .byte  196,3,121,20,68,24,5,10             // vpextrb       $0xa,%xmm8,0x5(%r8,%r11,1)
+  .byte  196,3,121,20,68,24,4,8              // vpextrb       $0x8,%xmm8,0x4(%r8,%r11,1)
+  .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
+  .byte  98,18,126,8,49,4,24                 // vpmovdb       %xmm8,(%r8,%r11,1)
+  .byte  235,141                             // jmp           3675 <_sk_store_a8_skx+0x3c>
+  .byte  187,255,255,255,204                 // mov           $0xccffffff,%ebx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,196                             // inc           %esp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,242                             // push          %rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  234                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,226                             // jmpq          *%rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  218,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_g8_skx
+.globl _sk_load_g8_skx
+FUNCTION(_sk_load_g8_skx)
+_sk_load_g8_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,54                              // jne           3752 <_sk_load_g8_skx+0x4e>
+  .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
+  .byte  197,249,219,5,118,243,2,0           // vpand         0x2f376(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,63,242,2,0       // vmulps        0x2f23f(%rip){1to8},%ymm0,%ymm0        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,192,241,2,0       // vbroadcastss  0x2f1c0(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
+  .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,187                             // ja            3722 <_sk_load_g8_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,134,0,0,0                 // lea           0x86(%rip),%r10        # 37f8 <_sk_load_g8_skx+0xf4>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  235,156                             // jmp           3722 <_sk_load_g8_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
+  .byte  196,130,121,50,12,24                // vpmovzxbq     (%r8,%r11,1),%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
+  .byte  233,114,255,255,255                 // jmpq          3722 <_sk_load_g8_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,249,196,192,5                   // vpinsrw       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,249,196,192,4                   // vpinsrw       $0x4,%eax,%xmm0,%xmm0
+  .byte  196,130,121,49,12,24                // vpmovzxbd     (%r8,%r11,1),%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  197,250,112,201,232                 // vpshufhw      $0xe8,%xmm1,%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
+  .byte  233,45,255,255,255                  // jmpq          3722 <_sk_load_g8_skx+0x1e>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  131,255,255                         // cmp           $0xffffffff,%edi
+  .byte  255,157,255,255,255,142             // lcall         *-0x71000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,210                             // callq         *%rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,199                             // inc           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  184                                 // .byte         0xb8
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_g8_dst_skx
+.globl _sk_load_g8_dst_skx
+FUNCTION(_sk_load_g8_dst_skx)
+_sk_load_g8_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,54                              // jne           3862 <_sk_load_g8_dst_skx+0x4e>
+  .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
+  .byte  197,217,219,37,102,242,2,0          // vpand         0x2f266(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  196,226,125,51,228                  // vpmovzxwd     %xmm4,%ymm4
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  98,241,92,56,89,37,47,241,2,0       // vmulps        0x2f12f(%rip){1to8},%ymm4,%ymm4        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,61,176,240,2,0       // vbroadcastss  0x2f0b0(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,40,236                      // vmovaps       %ymm4,%ymm5
+  .byte  197,252,40,244                      // vmovaps       %ymm4,%ymm6
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,187                             // ja            3832 <_sk_load_g8_dst_skx+0x1e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,134,0,0,0                 // lea           0x86(%rip),%r10        # 3908 <_sk_load_g8_dst_skx+0xf4>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
+  .byte  197,249,110,224                     // vmovd         %eax,%xmm4
+  .byte  235,156                             // jmp           3832 <_sk_load_g8_dst_skx+0x1e>
+  .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
+  .byte  196,130,121,50,44,24                // vpmovzxbq     (%r8,%r11,1),%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
+  .byte  233,114,255,255,255                 // jmpq          3832 <_sk_load_g8_dst_skx+0x1e>
+  .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
+  .byte  67,15,182,68,24,5                   // movzbl        0x5(%r8,%r11,1),%eax
+  .byte  197,217,196,224,5                   // vpinsrw       $0x5,%eax,%xmm4,%xmm4
+  .byte  67,15,182,68,24,4                   // movzbl        0x4(%r8,%r11,1),%eax
+  .byte  197,217,196,224,4                   // vpinsrw       $0x4,%eax,%xmm4,%xmm4
+  .byte  196,130,121,49,44,24                // vpmovzxbd     (%r8,%r11,1),%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  197,250,112,237,232                 // vpshufhw      $0xe8,%xmm5,%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
+  .byte  233,45,255,255,255                  // jmpq          3832 <_sk_load_g8_dst_skx+0x1e>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  131,255,255                         // cmp           $0xffffffff,%edi
+  .byte  255,157,255,255,255,142             // lcall         *-0x71000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  221,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,210                             // callq         *%rdx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,199                             // inc           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  184                                 // .byte         0xb8
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_g8_skx
+.globl _sk_gather_g8_skx
+FUNCTION(_sk_gather_g8_skx)
+_sk_gather_g8_skx:
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,227,249,22,192,1                // vpextrq       $0x1,%xmm0,%rax
+  .byte  65,137,193                          // mov           %eax,%r9d
+  .byte  72,193,232,32                       // shr           $0x20,%rax
+  .byte  196,193,249,126,194                 // vmovq         %xmm0,%r10
+  .byte  69,137,211                          // mov           %r10d,%r11d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,192,1                // vextracti128  $0x1,%ymm0,%xmm0
+  .byte  196,227,249,22,195,1                // vpextrq       $0x1,%xmm0,%rbx
+  .byte  65,137,222                          // mov           %ebx,%r14d
+  .byte  72,193,235,32                       // shr           $0x20,%rbx
+  .byte  196,193,249,126,199                 // vmovq         %xmm0,%r15
+  .byte  69,137,252                          // mov           %r15d,%r12d
+  .byte  73,193,239,32                       // shr           $0x20,%r15
+  .byte  71,15,182,20,16                     // movzbl        (%r8,%r10,1),%r10d
+  .byte  71,15,182,28,24                     // movzbl        (%r8,%r11,1),%r11d
+  .byte  196,193,121,110,195                 // vmovd         %r11d,%xmm0
+  .byte  196,195,121,32,194,1                // vpinsrb       $0x1,%r10d,%xmm0,%xmm0
+  .byte  71,15,182,12,8                      // movzbl        (%r8,%r9,1),%r9d
+  .byte  196,195,121,32,193,2                // vpinsrb       $0x2,%r9d,%xmm0,%xmm0
+  .byte  65,15,182,4,0                       // movzbl        (%r8,%rax,1),%eax
+  .byte  196,227,121,32,192,3                // vpinsrb       $0x3,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,32                      // movzbl        (%r8,%r12,1),%eax
+  .byte  196,227,121,32,192,4                // vpinsrb       $0x4,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,56                      // movzbl        (%r8,%r15,1),%eax
+  .byte  196,227,121,32,192,5                // vpinsrb       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,182,4,48                      // movzbl        (%r8,%r14,1),%eax
+  .byte  196,227,121,32,192,6                // vpinsrb       $0x6,%eax,%xmm0,%xmm0
+  .byte  65,15,182,4,24                      // movzbl        (%r8,%rbx,1),%eax
+  .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
+  .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,106,239,2,0      // vmulps        0x2ef6a(%rip){1to8},%ymm0,%ymm0        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,235,238,2,0       // vbroadcastss  0x2eeeb(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
+  .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_load_565_skx
+.globl _sk_load_565_skx
+FUNCTION(_sk_load_565_skx)
+_sk_load_565_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,96                              // jne           3aa9 <_sk_load_565_skx+0x7b>
+  .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
+  .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
+  .byte  98,241,109,56,219,5,34,239,2,0      // vpandd        0x2ef22(%rip){1to8},%ymm2,%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,24,239,2,0       // vmulps        0x2ef18(%rip){1to8},%ymm0,%ymm0        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  98,241,109,56,219,13,18,239,2,0     // vpandd        0x2ef12(%rip){1to8},%ymm2,%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,241,116,56,89,13,8,239,2,0       // vmulps        0x2ef08(%rip){1to8},%ymm1,%ymm1        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  98,241,109,56,219,21,2,239,2,0      // vpandd        0x2ef02(%rip){1to8},%ymm2,%ymm2        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  98,241,108,56,89,21,248,238,2,0     // vmulps        0x2eef8(%rip){1to8},%ymm2,%ymm2        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,97,238,2,0        // vbroadcastss  0x2ee61(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,145                             // ja            3a4f <_sk_load_565_skx+0x21>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,123,0,0,0                 // lea           0x7b(%rip),%r10        # 3b44 <_sk_load_565_skx+0x116>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  233,111,255,255,255                 // jmpq          3a4f <_sk_load_565_skx+0x21>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,130,121,52,12,88                // vpmovzxwq     (%r8,%r11,2),%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
+  .byte  233,72,255,255,255                  // jmpq          3a4f <_sk_load_565_skx+0x21>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,130,121,51,12,88                // vpmovzxwd     (%r8,%r11,2),%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  197,250,112,201,232                 // vpshufhw      $0xe8,%xmm1,%xmm1
+  .byte  197,249,112,201,132                 // vpshufd       $0x84,%xmm1,%xmm1
+  .byte  197,241,109,192                     // vpunpckhqdq   %xmm0,%xmm1,%xmm0
+  .byte  233,14,255,255,255                  // jmpq          3a4f <_sk_load_565_skx+0x21>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  142,255                             // mov           %edi,%?
+  .byte  255                                 // (bad)
+  .byte  255,168,255,255,255,156             // ljmp          *-0x63000001(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  223,255                             // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,215                             // callq         *%rdi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,207                             // dec           %edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,195                             // inc           %ebx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_565_dst_skx
+.globl _sk_load_565_dst_skx
+FUNCTION(_sk_load_565_dst_skx)
+_sk_load_565_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,96                              // jne           3bdb <_sk_load_565_dst_skx+0x7b>
+  .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
+  .byte  196,226,125,51,244                  // vpmovzxwd     %xmm4,%ymm6
+  .byte  98,241,77,56,219,37,240,237,2,0     // vpandd        0x2edf0(%rip){1to8},%ymm6,%ymm4        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  98,241,92,56,89,37,230,237,2,0      // vmulps        0x2ede6(%rip){1to8},%ymm4,%ymm4        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  98,241,77,56,219,45,224,237,2,0     // vpandd        0x2ede0(%rip){1to8},%ymm6,%ymm5        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
+  .byte  98,241,84,56,89,45,214,237,2,0      // vmulps        0x2edd6(%rip){1to8},%ymm5,%ymm5        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  98,241,77,56,219,53,208,237,2,0     // vpandd        0x2edd0(%rip){1to8},%ymm6,%ymm6        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
+  .byte  98,241,76,56,89,53,198,237,2,0      // vmulps        0x2edc6(%rip){1to8},%ymm6,%ymm6        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,61,47,237,2,0        // vbroadcastss  0x2ed2f(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,145                             // ja            3b81 <_sk_load_565_dst_skx+0x21>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,121,0,0,0                 // lea           0x79(%rip),%r10        # 3c74 <_sk_load_565_dst_skx+0x114>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,249,110,224                     // vmovd         %eax,%xmm4
+  .byte  233,111,255,255,255                 // jmpq          3b81 <_sk_load_565_dst_skx+0x21>
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,130,121,52,44,88                // vpmovzxwq     (%r8,%r11,2),%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
+  .byte  233,72,255,255,255                  // jmpq          3b81 <_sk_load_565_dst_skx+0x21>
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,130,121,51,44,88                // vpmovzxwd     (%r8,%r11,2),%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  197,250,112,237,232                 // vpshufhw      $0xe8,%xmm5,%xmm5
+  .byte  197,249,112,237,132                 // vpshufd       $0x84,%xmm5,%xmm5
+  .byte  197,209,109,228                     // vpunpckhqdq   %xmm4,%xmm5,%xmm4
+  .byte  233,14,255,255,255                  // jmpq          3b81 <_sk_load_565_dst_skx+0x21>
+  .byte  144                                 // nop
+  .byte  144                                 // nop
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,170,255,255,255,158             // ljmp          *-0x61000001(%rdx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,225                             // jmpq          *%rcx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255,209                             // callq         *%rcx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_565_skx
+.globl _sk_gather_565_skx
+FUNCTION(_sk_gather_565_skx)
+_sk_gather_565_skx:
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,227,249,22,192,1                // vpextrq       $0x1,%xmm0,%rax
+  .byte  65,137,193                          // mov           %eax,%r9d
+  .byte  72,193,232,32                       // shr           $0x20,%rax
+  .byte  196,193,249,126,194                 // vmovq         %xmm0,%r10
+  .byte  69,137,211                          // mov           %r10d,%r11d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,192,1                // vextracti128  $0x1,%ymm0,%xmm0
+  .byte  196,227,249,22,195,1                // vpextrq       $0x1,%xmm0,%rbx
+  .byte  65,137,222                          // mov           %ebx,%r14d
+  .byte  72,193,235,32                       // shr           $0x20,%rbx
+  .byte  196,193,249,126,199                 // vmovq         %xmm0,%r15
+  .byte  69,137,252                          // mov           %r15d,%r12d
+  .byte  73,193,239,32                       // shr           $0x20,%r15
+  .byte  71,15,183,20,80                     // movzwl        (%r8,%r10,2),%r10d
+  .byte  71,15,183,28,88                     // movzwl        (%r8,%r11,2),%r11d
+  .byte  196,193,121,110,195                 // vmovd         %r11d,%xmm0
+  .byte  196,193,121,196,194,1               // vpinsrw       $0x1,%r10d,%xmm0,%xmm0
+  .byte  71,15,183,12,72                     // movzwl        (%r8,%r9,2),%r9d
+  .byte  196,193,121,196,193,2               // vpinsrw       $0x2,%r9d,%xmm0,%xmm0
+  .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
+  .byte  197,249,196,192,3                   // vpinsrw       $0x3,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,96                      // movzwl        (%r8,%r12,2),%eax
+  .byte  197,249,196,192,4                   // vpinsrw       $0x4,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,120                     // movzwl        (%r8,%r15,2),%eax
+  .byte  197,249,196,192,5                   // vpinsrw       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,112                     // movzwl        (%r8,%r14,2),%eax
+  .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
+  .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
+  .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
+  .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
+  .byte  98,241,109,56,219,5,11,236,2,0      // vpandd        0x2ec0b(%rip){1to8},%ymm2,%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,1,236,2,0        // vmulps        0x2ec01(%rip){1to8},%ymm0,%ymm0        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  98,241,109,56,219,13,251,235,2,0    // vpandd        0x2ebfb(%rip){1to8},%ymm2,%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,241,116,56,89,13,241,235,2,0     // vmulps        0x2ebf1(%rip){1to8},%ymm1,%ymm1        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  98,241,109,56,219,21,235,235,2,0    // vpandd        0x2ebeb(%rip){1to8},%ymm2,%ymm2        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  98,241,108,56,89,21,225,235,2,0     // vmulps        0x2ebe1(%rip){1to8},%ymm2,%ymm2        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,74,235,2,0        // vbroadcastss  0x2eb4a(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_565_skx
+.globl _sk_store_565_skx
+FUNCTION(_sk_store_565_skx)
+_sk_store_565_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  196,98,125,24,5,14,236,2,0          // vbroadcastss  0x2ec0e(%rip),%ymm8        # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
+  .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
+  .byte  196,193,53,114,241,11               // vpslld        $0xb,%ymm9,%ymm9
+  .byte  98,113,116,56,89,21,248,235,2,0     // vmulps        0x2ebf8(%rip){1to8},%ymm1,%ymm10        # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,5                // vpslld        $0x5,%ymm10,%ymm10
+  .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
+  .byte  196,65,108,89,192                   // vmulps        %ymm8,%ymm2,%ymm8
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,10                              // jne           3e39 <_sk_store_565_skx+0x72>
+  .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,235                             // ja            3e35 <_sk_store_565_skx+0x6e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,79,0,0,0                  // lea           0x4f(%rip),%r10        # 3ea4 <_sk_store_565_skx+0xdd>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
+  .byte  235,206                             // jmp           3e35 <_sk_store_565_skx+0x6e>
+  .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
+  .byte  196,66,121,52,192                   // vpmovzxwq     %xmm8,%xmm8
+  .byte  98,18,126,8,52,4,88                 // vpmovqw       %xmm8,(%r8,%r11,2)
+  .byte  235,184                             // jmp           3e35 <_sk_store_565_skx+0x6e>
+  .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
+  .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
+  .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
+  .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
+  .byte  98,18,126,8,51,4,88                 // vpmovdw       %xmm8,(%r8,%r11,2)
+  .byte  235,146                             // jmp           3e35 <_sk_store_565_skx+0x6e>
+  .byte  144                                 // nop
+  .byte  186,255,255,255,203                 // mov           $0xcbffffff,%edx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,195                             // inc           %ebx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,241                             // push          %rcx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  233,255,255,255,225                 // jmpq          ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1e3c>
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_4444_skx
+.globl _sk_load_4444_skx
+FUNCTION(_sk_load_4444_skx)
+_sk_load_4444_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,111                             // jne           3f4a <_sk_load_4444_skx+0x8a>
+  .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
+  .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
+  .byte  98,241,101,56,219,5,12,235,2,0      // vpandd        0x2eb0c(%rip){1to8},%ymm3,%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,2,235,2,0        // vmulps        0x2eb02(%rip){1to8},%ymm0,%ymm0        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+  .byte  98,241,101,56,219,13,252,234,2,0    // vpandd        0x2eafc(%rip){1to8},%ymm3,%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,241,116,56,89,13,242,234,2,0     // vmulps        0x2eaf2(%rip){1to8},%ymm1,%ymm1        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+  .byte  98,241,101,56,219,21,236,234,2,0    // vpandd        0x2eaec(%rip){1to8},%ymm3,%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  98,241,108,56,89,21,226,234,2,0     // vmulps        0x2eae2(%rip){1to8},%ymm2,%ymm2        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+  .byte  98,241,101,56,219,29,220,234,2,0    // vpandd        0x2eadc(%rip){1to8},%ymm3,%ymm3        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  98,241,100,56,89,29,210,234,2,0     // vmulps        0x2ead2(%rip){1to8},%ymm3,%ymm3        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,130                             // ja            3ee1 <_sk_load_4444_skx+0x21>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 3fe4 <_sk_load_4444_skx+0x124>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,249,110,192                     // vmovd         %eax,%xmm0
+  .byte  233,96,255,255,255                  // jmpq          3ee1 <_sk_load_4444_skx+0x21>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,130,121,52,12,88                // vpmovzxwq     (%r8,%r11,2),%xmm1
+  .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
+  .byte  233,57,255,255,255                  // jmpq          3ee1 <_sk_load_4444_skx+0x21>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
+  .byte  196,130,121,51,12,88                // vpmovzxwd     (%r8,%r11,2),%xmm1
+  .byte  197,251,112,201,232                 // vpshuflw      $0xe8,%xmm1,%xmm1
+  .byte  197,250,112,201,232                 // vpshufhw      $0xe8,%xmm1,%xmm1
+  .byte  197,249,112,201,132                 // vpshufd       $0x84,%xmm1,%xmm1
+  .byte  197,241,109,192                     // vpunpckhqdq   %xmm0,%xmm1,%xmm0
+  .byte  233,255,254,255,255                 // jmpq          3ee1 <_sk_load_4444_skx+0x21>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  143                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,169,255,255,255,157             // ljmp          *-0x62000001(%rcx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,224                             // jmpq          *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  216,255                             // fdivr         %st(7),%st
+  .byte  255                                 // (bad)
+  .byte  255,208                             // callq         *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,196                             // inc           %esp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_4444_dst_skx
+.globl _sk_load_4444_dst_skx
+FUNCTION(_sk_load_4444_dst_skx)
+_sk_load_4444_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,111                             // jne           408a <_sk_load_4444_dst_skx+0x8a>
+  .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
+  .byte  196,226,125,51,252                  // vpmovzxwd     %xmm4,%ymm7
+  .byte  98,241,69,56,219,37,204,233,2,0     // vpandd        0x2e9cc(%rip){1to8},%ymm7,%ymm4        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  98,241,92,56,89,37,194,233,2,0      // vmulps        0x2e9c2(%rip){1to8},%ymm4,%ymm4        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+  .byte  98,241,69,56,219,45,188,233,2,0     // vpandd        0x2e9bc(%rip){1to8},%ymm7,%ymm5        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+  .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
+  .byte  98,241,84,56,89,45,178,233,2,0      // vmulps        0x2e9b2(%rip){1to8},%ymm5,%ymm5        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+  .byte  98,241,69,56,219,53,172,233,2,0     // vpandd        0x2e9ac(%rip){1to8},%ymm7,%ymm6        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+  .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
+  .byte  98,241,76,56,89,53,162,233,2,0      // vmulps        0x2e9a2(%rip){1to8},%ymm6,%ymm6        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+  .byte  98,241,69,56,219,61,156,233,2,0     // vpandd        0x2e99c(%rip){1to8},%ymm7,%ymm7        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
+  .byte  98,241,68,56,89,61,146,233,2,0      // vmulps        0x2e992(%rip){1to8},%ymm7,%ymm7        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,130                             // ja            4021 <_sk_load_4444_dst_skx+0x21>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 4124 <_sk_load_4444_dst_skx+0x124>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
+  .byte  197,249,110,224                     // vmovd         %eax,%xmm4
+  .byte  233,96,255,255,255                  // jmpq          4021 <_sk_load_4444_dst_skx+0x21>
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,130,121,52,44,88                // vpmovzxwq     (%r8,%r11,2),%xmm5
+  .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
+  .byte  233,57,255,255,255                  // jmpq          4021 <_sk_load_4444_dst_skx+0x21>
+  .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
+  .byte  196,130,121,51,44,88                // vpmovzxwd     (%r8,%r11,2),%xmm5
+  .byte  197,251,112,237,232                 // vpshuflw      $0xe8,%xmm5,%xmm5
+  .byte  197,250,112,237,232                 // vpshufhw      $0xe8,%xmm5,%xmm5
+  .byte  197,249,112,237,132                 // vpshufd       $0x84,%xmm5,%xmm5
+  .byte  197,209,109,228                     // vpunpckhqdq   %xmm4,%xmm5,%xmm4
+  .byte  233,255,254,255,255                 // jmpq          4021 <_sk_load_4444_dst_skx+0x21>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  143                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,169,255,255,255,157             // ljmp          *-0x62000001(%rcx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,224                             // jmpq          *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  216,255                             // fdivr         %st(7),%st
+  .byte  255                                 // (bad)
+  .byte  255,208                             // callq         *%rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,196                             // inc           %esp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_4444_skx
+.globl _sk_gather_4444_skx
+FUNCTION(_sk_gather_4444_skx)
+_sk_gather_4444_skx:
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,227,249,22,192,1                // vpextrq       $0x1,%xmm0,%rax
+  .byte  65,137,193                          // mov           %eax,%r9d
+  .byte  72,193,232,32                       // shr           $0x20,%rax
+  .byte  196,193,249,126,194                 // vmovq         %xmm0,%r10
+  .byte  69,137,211                          // mov           %r10d,%r11d
+  .byte  73,193,234,32                       // shr           $0x20,%r10
+  .byte  196,227,125,57,192,1                // vextracti128  $0x1,%ymm0,%xmm0
+  .byte  196,227,249,22,195,1                // vpextrq       $0x1,%xmm0,%rbx
+  .byte  65,137,222                          // mov           %ebx,%r14d
+  .byte  72,193,235,32                       // shr           $0x20,%rbx
+  .byte  196,193,249,126,199                 // vmovq         %xmm0,%r15
+  .byte  69,137,252                          // mov           %r15d,%r12d
+  .byte  73,193,239,32                       // shr           $0x20,%r15
+  .byte  71,15,183,20,80                     // movzwl        (%r8,%r10,2),%r10d
+  .byte  71,15,183,28,88                     // movzwl        (%r8,%r11,2),%r11d
+  .byte  196,193,121,110,195                 // vmovd         %r11d,%xmm0
+  .byte  196,193,121,196,194,1               // vpinsrw       $0x1,%r10d,%xmm0,%xmm0
+  .byte  71,15,183,12,72                     // movzwl        (%r8,%r9,2),%r9d
+  .byte  196,193,121,196,193,2               // vpinsrw       $0x2,%r9d,%xmm0,%xmm0
+  .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
+  .byte  197,249,196,192,3                   // vpinsrw       $0x3,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,96                      // movzwl        (%r8,%r12,2),%eax
+  .byte  197,249,196,192,4                   // vpinsrw       $0x4,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,120                     // movzwl        (%r8,%r15,2),%eax
+  .byte  197,249,196,192,5                   // vpinsrw       $0x5,%eax,%xmm0,%xmm0
+  .byte  67,15,183,4,112                     // movzwl        (%r8,%r14,2),%eax
+  .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
+  .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
+  .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
+  .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
+  .byte  98,241,101,56,219,5,215,231,2,0     // vpandd        0x2e7d7(%rip){1to8},%ymm3,%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  98,241,124,56,89,5,205,231,2,0      // vmulps        0x2e7cd(%rip){1to8},%ymm0,%ymm0        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+  .byte  98,241,101,56,219,13,199,231,2,0    // vpandd        0x2e7c7(%rip){1to8},%ymm3,%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,241,116,56,89,13,189,231,2,0     // vmulps        0x2e7bd(%rip){1to8},%ymm1,%ymm1        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+  .byte  98,241,101,56,219,21,183,231,2,0    // vpandd        0x2e7b7(%rip){1to8},%ymm3,%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  98,241,108,56,89,21,173,231,2,0     // vmulps        0x2e7ad(%rip){1to8},%ymm2,%ymm2        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+  .byte  98,241,101,56,219,29,167,231,2,0    // vpandd        0x2e7a7(%rip){1to8},%ymm3,%ymm3        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  98,241,100,56,89,29,157,231,2,0     // vmulps        0x2e79d(%rip){1to8},%ymm3,%ymm3        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_4444_skx
+.globl _sk_store_4444_skx
+FUNCTION(_sk_store_4444_skx)
+_sk_store_4444_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  196,98,125,24,5,119,231,2,0         // vbroadcastss  0x2e777(%rip),%ymm8        # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
+  .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
+  .byte  196,193,53,114,241,12               // vpslld        $0xc,%ymm9,%ymm9
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,8                // vpslld        $0x8,%ymm10,%ymm10
+  .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,4                // vpslld        $0x4,%ymm10,%ymm10
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
+  .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,10                              // jne           4308 <_sk_store_4444_skx+0x82>
+  .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,235                             // ja            4304 <_sk_store_4444_skx+0x7e>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,80,0,0,0                  // lea           0x50(%rip),%r10        # 4374 <_sk_store_4444_skx+0xee>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
+  .byte  235,206                             // jmp           4304 <_sk_store_4444_skx+0x7e>
+  .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
+  .byte  196,66,121,52,192                   // vpmovzxwq     %xmm8,%xmm8
+  .byte  98,18,126,8,52,4,88                 // vpmovqw       %xmm8,(%r8,%r11,2)
+  .byte  235,184                             // jmp           4304 <_sk_store_4444_skx+0x7e>
+  .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
+  .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
+  .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
+  .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
+  .byte  98,18,126,8,51,4,88                 // vpmovdw       %xmm8,(%r8,%r11,2)
+  .byte  235,146                             // jmp           4304 <_sk_store_4444_skx+0x7e>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  185,255,255,255,202                 // mov           $0xcaffffff,%ecx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,194                             // inc           %edx
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,240                             // push          %rax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  232,255,255,255,224                 // callq         ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd230c>
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  216,255                             // fdivr         %st(7),%st
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_8888_skx
+.globl _sk_load_8888_skx
+FUNCTION(_sk_load_8888_skx)
+_sk_load_8888_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,97                              // jne           440d <_sk_load_8888_skx+0x7d>
+  .byte  196,129,126,111,28,152              // vmovdqu       (%r8,%r11,4),%ymm3
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,241,127,169,111,195              // vmovdqu8      %ymm3,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,5,174,229,2,0         // vbroadcastss  0x2e5ae(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  197,245,114,211,8                   // vpsrld        $0x8,%ymm3,%ymm1
+  .byte  98,241,127,169,111,201              // vmovdqu8      %ymm1,%ymm1{%k1}{z}
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
+  .byte  197,237,114,211,16                  // vpsrld        $0x10,%ymm3,%ymm2
+  .byte  98,241,127,169,111,210              // vmovdqu8      %ymm2,%ymm2{%k1}{z}
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
+  .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,144                             // ja            43b2 <_sk_load_8888_skx+0x22>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 44b8 <_sk_load_8888_skx+0x128>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,28,152              // vmovd         (%r8,%r11,4),%xmm3
+  .byte  233,113,255,255,255                 // jmpq          43b2 <_sk_load_8888_skx+0x22>
+  .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
+  .byte  176,4                               // mov           $0x4,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,130,121,53,4,152                // vpmovzxdq     (%r8,%r11,4),%xmm0
+  .byte  197,249,112,192,232                 // vpshufd       $0xe8,%xmm0,%xmm0
+  .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
+  .byte  233,72,255,255,255                  // jmpq          43b2 <_sk_load_8888_skx+0x22>
+  .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,131,121,34,68,152,20,1          // vpinsrd       $0x1,0x14(%r8,%r11,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,131,121,34,68,152,16,0          // vpinsrd       $0x0,0x10(%r8,%r11,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,129,122,111,4,152               // vmovdqu       (%r8,%r11,4),%xmm0
+  .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
+  .byte  233,252,254,255,255                 // jmpq          43b2 <_sk_load_8888_skx+0x22>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  126,255                             // jle           44b9 <_sk_load_8888_skx+0x129>
+  .byte  255                                 // (bad)
+  .byte  255,156,255,255,255,137,255         // lcall         *-0x760001(%rdi,%rdi,8)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  237                                 // in            (%dx),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  178,255                             // mov           $0xff,%dl
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_8888_dst_skx
+.globl _sk_load_8888_dst_skx
+FUNCTION(_sk_load_8888_dst_skx)
+_sk_load_8888_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,97                              // jne           4551 <_sk_load_8888_dst_skx+0x7d>
+  .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,241,127,169,111,231              // vmovdqu8      %ymm7,%ymm4{%k1}{z}
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  196,98,125,24,5,106,228,2,0         // vbroadcastss  0x2e46a(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,92,89,224                   // vmulps        %ymm8,%ymm4,%ymm4
+  .byte  197,213,114,215,8                   // vpsrld        $0x8,%ymm7,%ymm5
+  .byte  98,241,127,169,111,237              // vmovdqu8      %ymm5,%ymm5{%k1}{z}
+  .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
+  .byte  196,193,84,89,232                   // vmulps        %ymm8,%ymm5,%ymm5
+  .byte  197,205,114,215,16                  // vpsrld        $0x10,%ymm7,%ymm6
+  .byte  98,241,127,169,111,246              // vmovdqu8      %ymm6,%ymm6{%k1}{z}
+  .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
+  .byte  196,193,76,89,240                   // vmulps        %ymm8,%ymm6,%ymm6
+  .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
+  .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
+  .byte  196,193,68,89,248                   // vmulps        %ymm8,%ymm7,%ymm7
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,144                             // ja            44f6 <_sk_load_8888_dst_skx+0x22>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 45fc <_sk_load_8888_dst_skx+0x128>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
+  .byte  233,113,255,255,255                 // jmpq          44f6 <_sk_load_8888_dst_skx+0x22>
+  .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
+  .byte  176,4                               // mov           $0x4,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,130,121,53,36,152               // vpmovzxdq     (%r8,%r11,4),%xmm4
+  .byte  197,249,112,228,232                 // vpshufd       $0xe8,%xmm4,%xmm4
+  .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
+  .byte  233,72,255,255,255                  // jmpq          44f6 <_sk_load_8888_dst_skx+0x22>
+  .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,20,1          // vpinsrd       $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,16,0          // vpinsrd       $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
+  .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
+  .byte  233,252,254,255,255                 // jmpq          44f6 <_sk_load_8888_dst_skx+0x22>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  126,255                             // jle           45fd <_sk_load_8888_dst_skx+0x129>
+  .byte  255                                 // (bad)
+  .byte  255,156,255,255,255,137,255         // lcall         *-0x760001(%rdi,%rdi,8)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  237                                 // in            (%dx),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  178,255                             // mov           $0xff,%dl
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_8888_skx
+.globl _sk_gather_8888_skx
+FUNCTION(_sk_gather_8888_skx)
+_sk_gather_8888_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,66,101,144,4,128                // vpgatherdd    %ymm3,(%r8,%ymm0,4),%ymm8
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,209,127,169,111,192              // vmovdqu8      %ymm8,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,226,125,24,29,253,226,2,0       // vbroadcastss  0x2e2fd(%rip),%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
+  .byte  196,193,117,114,208,8               // vpsrld        $0x8,%ymm8,%ymm1
+  .byte  98,241,127,169,111,201              // vmovdqu8      %ymm1,%ymm1{%k1}{z}
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
+  .byte  196,193,109,114,208,16              // vpsrld        $0x10,%ymm8,%ymm2
+  .byte  98,241,127,169,111,210              // vmovdqu8      %ymm2,%ymm2{%k1}{z}
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
+  .byte  196,193,61,114,208,24               // vpsrld        $0x18,%ymm8,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_8888_skx
+.globl _sk_store_8888_skx
+FUNCTION(_sk_store_8888_skx)
+_sk_store_8888_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  196,98,125,24,5,86,226,2,0          // vbroadcastss  0x2e256(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
+  .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,8                // vpslld        $0x8,%ymm10,%ymm10
+  .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
+  .byte  196,65,108,89,208                   // vmulps        %ymm8,%ymm2,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,16               // vpslld        $0x10,%ymm10,%ymm10
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,193,61,114,240,24               // vpslld        $0x18,%ymm8,%ymm8
+  .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
+  .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,10                              // jne           4736 <_sk_store_8888_skx+0x78>
+  .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,235                             // ja            4732 <_sk_store_8888_skx+0x74>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,90,0,0,0                  // lea           0x5a(%rip),%r10        # 47ac <_sk_store_8888_skx+0xee>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
+  .byte  235,207                             // jmp           4732 <_sk_store_8888_skx+0x74>
+  .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
+  .byte  196,66,121,53,192                   // vpmovzxdq     %xmm8,%xmm8
+  .byte  98,18,126,8,53,4,152                // vpmovqd       %xmm8,(%r8,%r11,4)
+  .byte  235,185                             // jmp           4732 <_sk_store_8888_skx+0x74>
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,20,1            // vpextrd       $0x1,%xmm9,0x14(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
+  .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
+  .byte  235,136                             // jmp           4732 <_sk_store_8888_skx+0x74>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  175                                 // scas          %es:(%rdi),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  191,255,255,255,183                 // mov           $0xb7ffffff,%edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,246                             // push          %rsi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  233,255,255,255,219                 // jmpq          ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2744>
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,205                             // dec           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_bgra_skx
+.globl _sk_load_bgra_skx
+FUNCTION(_sk_load_bgra_skx)
+_sk_load_bgra_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,97                              // jne           4845 <_sk_load_bgra_skx+0x7d>
+  .byte  196,129,126,111,28,152              // vmovdqu       (%r8,%r11,4),%ymm3
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,241,127,169,111,195              // vmovdqu8      %ymm3,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,5,118,225,2,0         // vbroadcastss  0x2e176(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,124,89,208                  // vmulps        %ymm8,%ymm0,%ymm2
+  .byte  197,253,114,211,8                   // vpsrld        $0x8,%ymm3,%ymm0
+  .byte  98,241,127,169,111,192              // vmovdqu8      %ymm0,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,193,124,89,200                  // vmulps        %ymm8,%ymm0,%ymm1
+  .byte  197,253,114,211,16                  // vpsrld        $0x10,%ymm3,%ymm0
+  .byte  98,241,127,169,111,192              // vmovdqu8      %ymm0,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,144                             // ja            47ea <_sk_load_bgra_skx+0x22>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 48f0 <_sk_load_bgra_skx+0x128>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,28,152              // vmovd         (%r8,%r11,4),%xmm3
+  .byte  233,113,255,255,255                 // jmpq          47ea <_sk_load_bgra_skx+0x22>
+  .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
+  .byte  176,4                               // mov           $0x4,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,130,121,53,4,152                // vpmovzxdq     (%r8,%r11,4),%xmm0
+  .byte  197,249,112,192,232                 // vpshufd       $0xe8,%xmm0,%xmm0
+  .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
+  .byte  233,72,255,255,255                  // jmpq          47ea <_sk_load_bgra_skx+0x22>
+  .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,216              // vpexpandd     %ymm0,%ymm3{%k1}{z}
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,131,121,34,68,152,20,1          // vpinsrd       $0x1,0x14(%r8,%r11,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,227,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm0
+  .byte  196,131,121,34,68,152,16,0          // vpinsrd       $0x0,0x10(%r8,%r11,4),%xmm0,%xmm0
+  .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
+  .byte  196,129,122,111,4,152               // vmovdqu       (%r8,%r11,4),%xmm0
+  .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
+  .byte  233,252,254,255,255                 // jmpq          47ea <_sk_load_bgra_skx+0x22>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  126,255                             // jle           48f1 <_sk_load_bgra_skx+0x129>
+  .byte  255                                 // (bad)
+  .byte  255,156,255,255,255,137,255         // lcall         *-0x760001(%rdi,%rdi,8)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  237                                 // in            (%dx),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  178,255                             // mov           $0xff,%dl
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_bgra_dst_skx
+.globl _sk_load_bgra_dst_skx
+FUNCTION(_sk_load_bgra_dst_skx)
+_sk_load_bgra_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,97                              // jne           4989 <_sk_load_bgra_dst_skx+0x7d>
+  .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,241,127,169,111,231              // vmovdqu8      %ymm7,%ymm4{%k1}{z}
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  196,98,125,24,5,50,224,2,0          // vbroadcastss  0x2e032(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,193,92,89,240                   // vmulps        %ymm8,%ymm4,%ymm6
+  .byte  197,221,114,215,8                   // vpsrld        $0x8,%ymm7,%ymm4
+  .byte  98,241,127,169,111,228              // vmovdqu8      %ymm4,%ymm4{%k1}{z}
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  196,193,92,89,232                   // vmulps        %ymm8,%ymm4,%ymm5
+  .byte  197,221,114,215,16                  // vpsrld        $0x10,%ymm7,%ymm4
+  .byte  98,241,127,169,111,228              // vmovdqu8      %ymm4,%ymm4{%k1}{z}
+  .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
+  .byte  196,193,92,89,224                   // vmulps        %ymm8,%ymm4,%ymm4
+  .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
+  .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
+  .byte  196,193,68,89,248                   // vmulps        %ymm8,%ymm7,%ymm7
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,144                             // ja            492e <_sk_load_bgra_dst_skx+0x22>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 4a34 <_sk_load_bgra_dst_skx+0x128>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
+  .byte  233,113,255,255,255                 // jmpq          492e <_sk_load_bgra_dst_skx+0x22>
+  .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
+  .byte  176,4                               // mov           $0x4,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,130,121,53,36,152               // vpmovzxdq     (%r8,%r11,4),%xmm4
+  .byte  197,249,112,228,232                 // vpshufd       $0xe8,%xmm4,%xmm4
+  .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
+  .byte  233,72,255,255,255                  // jmpq          492e <_sk_load_bgra_dst_skx+0x22>
+  .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,242,125,169,137,252              // vpexpandd     %ymm4,%ymm7{%k1}{z}
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,20,1          // vpinsrd       $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,227,125,57,252,1                // vextracti128  $0x1,%ymm7,%xmm4
+  .byte  196,131,89,34,100,152,16,0          // vpinsrd       $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+  .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
+  .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
+  .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
+  .byte  233,252,254,255,255                 // jmpq          492e <_sk_load_bgra_dst_skx+0x22>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  126,255                             // jle           4a35 <_sk_load_bgra_dst_skx+0x129>
+  .byte  255                                 // (bad)
+  .byte  255,156,255,255,255,137,255         // lcall         *-0x760001(%rdi,%rdi,8)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  237                                 // in            (%dx),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  217,255                             // fcos
+  .byte  255                                 // (bad)
+  .byte  255,197                             // inc           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+  .byte  178,255                             // mov           $0xff,%dl
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_gather_bgra_skx
+.globl _sk_gather_bgra_skx
+FUNCTION(_sk_gather_bgra_skx)
+_sk_gather_bgra_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  196,66,101,144,4,128                // vpgatherdd    %ymm3,(%r8,%ymm0,4),%ymm8
+  .byte  184,17,17,17,17                     // mov           $0x11111111,%eax
+  .byte  197,251,146,200                     // kmovd         %eax,%k1
+  .byte  98,209,127,169,111,192              // vmovdqu8      %ymm8,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,226,125,24,29,197,222,2,0       // vbroadcastss  0x2dec5(%rip),%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  197,252,89,211                      // vmulps        %ymm3,%ymm0,%ymm2
+  .byte  196,193,125,114,208,8               // vpsrld        $0x8,%ymm8,%ymm0
+  .byte  98,241,127,169,111,192              // vmovdqu8      %ymm0,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  197,252,89,203                      // vmulps        %ymm3,%ymm0,%ymm1
+  .byte  196,193,125,114,208,16              // vpsrld        $0x10,%ymm8,%ymm0
+  .byte  98,241,127,169,111,192              // vmovdqu8      %ymm0,%ymm0{%k1}{z}
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
+  .byte  196,193,61,114,208,24               // vpsrld        $0x18,%ymm8,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_bgra_skx
+.globl _sk_store_bgra_skx
+FUNCTION(_sk_store_bgra_skx)
+_sk_store_bgra_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  76,99,218                           // movslq        %edx,%r11
+  .byte  196,98,125,24,5,30,222,2,0          // vbroadcastss  0x2de1e(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,65,108,89,200                   // vmulps        %ymm8,%ymm2,%ymm9
+  .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,8                // vpslld        $0x8,%ymm10,%ymm10
+  .byte  196,65,45,235,201                   // vpor          %ymm9,%ymm10,%ymm9
+  .byte  196,65,124,89,208                   // vmulps        %ymm8,%ymm0,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,193,45,114,242,16               // vpslld        $0x10,%ymm10,%ymm10
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,193,61,114,240,24               // vpslld        $0x18,%ymm8,%ymm8
+  .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
+  .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,10                              // jne           4b6e <_sk_store_bgra_skx+0x78>
+  .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  65,137,249                          // mov           %edi,%r9d
+  .byte  65,128,225,7                        // and           $0x7,%r9b
+  .byte  65,128,193,255                      // add           $0xff,%r9b
+  .byte  65,128,249,6                        // cmp           $0x6,%r9b
+  .byte  119,235                             // ja            4b6a <_sk_store_bgra_skx+0x74>
+  .byte  69,15,182,201                       // movzbl        %r9b,%r9d
+  .byte  76,141,21,90,0,0,0                  // lea           0x5a(%rip),%r10        # 4be4 <_sk_store_bgra_skx+0xee>
+  .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
+  .byte  235,207                             // jmp           4b6a <_sk_store_bgra_skx+0x74>
+  .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
+  .byte  196,66,121,53,192                   // vpmovzxdq     %xmm8,%xmm8
+  .byte  98,18,126,8,53,4,152                // vpmovqd       %xmm8,(%r8,%r11,4)
+  .byte  235,185                             // jmp           4b6a <_sk_store_bgra_skx+0x74>
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,3,121,22,76,152,20,1            // vpextrd       $0x1,%xmm9,0x14(%r8,%r11,4)
+  .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
+  .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
+  .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
+  .byte  235,136                             // jmp           4b6a <_sk_store_bgra_skx+0x74>
+  .byte  102,144                             // xchg          %ax,%ax
+  .byte  175                                 // scas          %es:(%rdi),%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  191,255,255,255,183                 // mov           $0xb7ffffff,%edi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,246                             // push          %rsi
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  233,255,255,255,219                 // jmpq          ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2b7c>
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,205                             // dec           %ebp
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_f16_skx
+.globl _sk_load_f16_skx
+FUNCTION(_sk_load_f16_skx)
+_sk_load_f16_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,3                        // shl           $0x3,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  72,99,194                           // movslq        %edx,%rax
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,101                             // jne           4c81 <_sk_load_f16_skx+0x81>
+  .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
+  .byte  196,193,121,16,84,192,16            // vmovupd       0x10(%r8,%rax,8),%xmm2
+  .byte  196,193,121,16,76,192,32            // vmovupd       0x20(%r8,%rax,8),%xmm1
+  .byte  196,65,122,111,76,192,48            // vmovdqu       0x30(%r8,%rax,8),%xmm9
+  .byte  197,185,97,194                      // vpunpcklwd    %xmm2,%xmm8,%xmm0
+  .byte  197,185,105,210                     // vpunpckhwd    %xmm2,%xmm8,%xmm2
+  .byte  196,65,113,97,193                   // vpunpcklwd    %xmm9,%xmm1,%xmm8
+  .byte  196,193,113,105,217                 // vpunpckhwd    %xmm9,%xmm1,%xmm3
+  .byte  197,249,97,202                      // vpunpcklwd    %xmm2,%xmm0,%xmm1
+  .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
+  .byte  197,185,97,195                      // vpunpcklwd    %xmm3,%xmm8,%xmm0
+  .byte  197,241,108,208                     // vpunpcklqdq   %xmm0,%xmm1,%xmm2
+  .byte  197,241,109,200                     // vpunpckhqdq   %xmm0,%xmm1,%xmm1
+  .byte  196,226,125,19,194                  // vcvtph2ps     %xmm2,%ymm0
+  .byte  196,226,125,19,201                  // vcvtph2ps     %xmm1,%ymm1
+  .byte  197,185,105,219                     // vpunpckhwd    %xmm3,%xmm8,%xmm3
+  .byte  197,177,108,211                     // vpunpcklqdq   %xmm3,%xmm9,%xmm2
+  .byte  196,226,125,19,210                  // vcvtph2ps     %xmm2,%ymm2
+  .byte  197,177,109,219                     // vpunpckhqdq   %xmm3,%xmm9,%xmm3
+  .byte  196,226,125,19,219                  // vcvtph2ps     %xmm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
+  .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,85                              // je            4ce7 <_sk_load_f16_skx+0xe7>
+  .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,72                              // jb            4ce7 <_sk_load_f16_skx+0xe7>
+  .byte  196,193,123,16,84,192,16            // vmovsd        0x10(%r8,%rax,8),%xmm2
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  116,72                              // je            4cf4 <_sk_load_f16_skx+0xf4>
+  .byte  196,193,105,22,84,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm2,%xmm2
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,59                              // jb            4cf4 <_sk_load_f16_skx+0xf4>
+  .byte  196,193,123,16,76,192,32            // vmovsd        0x20(%r8,%rax,8),%xmm1
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  15,132,109,255,255,255              // je            4c37 <_sk_load_f16_skx+0x37>
+  .byte  196,193,113,22,76,192,40            // vmovhpd       0x28(%r8,%rax,8),%xmm1,%xmm1
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,130,92,255,255,255               // jb            4c37 <_sk_load_f16_skx+0x37>
+  .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
+  .byte  233,80,255,255,255                  // jmpq          4c37 <_sk_load_f16_skx+0x37>
+  .byte  197,241,87,201                      // vxorpd        %xmm1,%xmm1,%xmm1
+  .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
+  .byte  233,67,255,255,255                  // jmpq          4c37 <_sk_load_f16_skx+0x37>
+  .byte  197,241,87,201                      // vxorpd        %xmm1,%xmm1,%xmm1
+  .byte  233,58,255,255,255                  // jmpq          4c37 <_sk_load_f16_skx+0x37>
+
+HIDDEN _sk_load_f16_dst_skx
+.globl _sk_load_f16_dst_skx
+FUNCTION(_sk_load_f16_dst_skx)
+_sk_load_f16_dst_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,3                        // shl           $0x3,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  72,99,194                           // movslq        %edx,%rax
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,101                             // jne           4d7e <_sk_load_f16_dst_skx+0x81>
+  .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
+  .byte  196,193,121,16,116,192,16           // vmovupd       0x10(%r8,%rax,8),%xmm6
+  .byte  196,193,121,16,108,192,32           // vmovupd       0x20(%r8,%rax,8),%xmm5
+  .byte  196,65,122,111,76,192,48            // vmovdqu       0x30(%r8,%rax,8),%xmm9
+  .byte  197,185,97,230                      // vpunpcklwd    %xmm6,%xmm8,%xmm4
+  .byte  197,185,105,246                     // vpunpckhwd    %xmm6,%xmm8,%xmm6
+  .byte  196,65,81,97,193                    // vpunpcklwd    %xmm9,%xmm5,%xmm8
+  .byte  196,193,81,105,249                  // vpunpckhwd    %xmm9,%xmm5,%xmm7
+  .byte  197,217,97,238                      // vpunpcklwd    %xmm6,%xmm4,%xmm5
+  .byte  197,89,105,206                      // vpunpckhwd    %xmm6,%xmm4,%xmm9
+  .byte  197,185,97,231                      // vpunpcklwd    %xmm7,%xmm8,%xmm4
+  .byte  197,209,108,244                     // vpunpcklqdq   %xmm4,%xmm5,%xmm6
+  .byte  197,209,109,236                     // vpunpckhqdq   %xmm4,%xmm5,%xmm5
+  .byte  196,226,125,19,230                  // vcvtph2ps     %xmm6,%ymm4
+  .byte  196,226,125,19,237                  // vcvtph2ps     %xmm5,%ymm5
+  .byte  197,185,105,255                     // vpunpckhwd    %xmm7,%xmm8,%xmm7
+  .byte  197,177,108,247                     // vpunpcklqdq   %xmm7,%xmm9,%xmm6
+  .byte  196,226,125,19,246                  // vcvtph2ps     %xmm6,%ymm6
+  .byte  197,177,109,255                     // vpunpckhqdq   %xmm7,%xmm9,%xmm7
+  .byte  196,226,125,19,255                  // vcvtph2ps     %xmm7,%ymm7
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
+  .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,85                              // je            4de4 <_sk_load_f16_dst_skx+0xe7>
+  .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,72                              // jb            4de4 <_sk_load_f16_dst_skx+0xe7>
+  .byte  196,193,123,16,116,192,16           // vmovsd        0x10(%r8,%rax,8),%xmm6
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  116,72                              // je            4df1 <_sk_load_f16_dst_skx+0xf4>
+  .byte  196,193,73,22,116,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm6,%xmm6
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,59                              // jb            4df1 <_sk_load_f16_dst_skx+0xf4>
+  .byte  196,193,123,16,108,192,32           // vmovsd        0x20(%r8,%rax,8),%xmm5
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  15,132,109,255,255,255              // je            4d34 <_sk_load_f16_dst_skx+0x37>
+  .byte  196,193,81,22,108,192,40            // vmovhpd       0x28(%r8,%rax,8),%xmm5,%xmm5
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,130,92,255,255,255               // jb            4d34 <_sk_load_f16_dst_skx+0x37>
+  .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
+  .byte  233,80,255,255,255                  // jmpq          4d34 <_sk_load_f16_dst_skx+0x37>
+  .byte  197,209,87,237                      // vxorpd        %xmm5,%xmm5,%xmm5
+  .byte  197,201,87,246                      // vxorpd        %xmm6,%xmm6,%xmm6
+  .byte  233,67,255,255,255                  // jmpq          4d34 <_sk_load_f16_dst_skx+0x37>
+  .byte  197,209,87,237                      // vxorpd        %xmm5,%xmm5,%xmm5
+  .byte  233,58,255,255,255                  // jmpq          4d34 <_sk_load_f16_dst_skx+0x37>
+
+HIDDEN _sk_gather_f16_skx
+.globl _sk_gather_f16_skx
+FUNCTION(_sk_gather_f16_skx)
+_sk_gather_f16_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,88,80,12                // vpbroadcastd  0xc(%rax),%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  197,252,93,194                      // vminps        %ymm2,%ymm0,%ymm0
+  .byte  196,226,125,88,80,16                // vpbroadcastd  0x10(%rax),%ymm2
+  .byte  197,237,254,211                     // vpaddd        %ymm3,%ymm2,%ymm2
+  .byte  197,188,95,201                      // vmaxps        %ymm1,%ymm8,%ymm1
+  .byte  197,244,93,202                      // vminps        %ymm2,%ymm1,%ymm1
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,242,117,56,64,72,2               // vpmulld       0x8(%rax){1to8},%ymm1,%ymm1
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  197,237,239,210                     // vpxor         %ymm2,%ymm2,%ymm2
+  .byte  196,194,245,144,20,192              // vpgatherdq    %ymm1,(%r8,%xmm0,8),%ymm2
+  .byte  196,227,125,57,192,1                // vextracti128  $0x1,%ymm0,%xmm0
+  .byte  196,66,229,144,4,192                // vpgatherdq    %ymm3,(%r8,%xmm0,8),%ymm8
+  .byte  98,211,253,72,58,192,1              // vinserti64x4  $0x1,%ymm8,%zmm0,%zmm0
+  .byte  98,211,237,72,58,200,1              // vinserti64x4  $0x1,%ymm8,%zmm2,%zmm1
+  .byte  98,243,253,72,57,202,1              // vextracti64x2 $0x1,%zmm1,%xmm2
+  .byte  98,243,253,72,57,195,2              // vextracti64x2 $0x2,%zmm0,%xmm3
+  .byte  98,243,253,72,57,192,3              // vextracti64x2 $0x3,%zmm0,%xmm0
+  .byte  197,113,97,194                      // vpunpcklwd    %xmm2,%xmm1,%xmm8
+  .byte  197,241,105,202                     // vpunpckhwd    %xmm2,%xmm1,%xmm1
+  .byte  197,225,97,208                      // vpunpcklwd    %xmm0,%xmm3,%xmm2
+  .byte  197,225,105,216                     // vpunpckhwd    %xmm0,%xmm3,%xmm3
+  .byte  197,185,97,193                      // vpunpcklwd    %xmm1,%xmm8,%xmm0
+  .byte  197,57,105,193                      // vpunpckhwd    %xmm1,%xmm8,%xmm8
+  .byte  197,233,97,203                      // vpunpcklwd    %xmm3,%xmm2,%xmm1
+  .byte  197,121,108,201                     // vpunpcklqdq   %xmm1,%xmm0,%xmm9
+  .byte  197,249,109,201                     // vpunpckhqdq   %xmm1,%xmm0,%xmm1
+  .byte  196,194,125,19,193                  // vcvtph2ps     %xmm9,%ymm0
+  .byte  196,226,125,19,201                  // vcvtph2ps     %xmm1,%ymm1
+  .byte  197,233,105,219                     // vpunpckhwd    %xmm3,%xmm2,%xmm3
+  .byte  197,185,108,211                     // vpunpcklqdq   %xmm3,%xmm8,%xmm2
+  .byte  196,226,125,19,210                  // vcvtph2ps     %xmm2,%ymm2
+  .byte  197,185,109,219                     // vpunpckhqdq   %xmm3,%xmm8,%xmm3
+  .byte  196,226,125,19,219                  // vcvtph2ps     %xmm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_store_f16_skx
+.globl _sk_store_f16_skx
+FUNCTION(_sk_store_f16_skx)
+_sk_store_f16_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  73,193,224,3                        // shl           $0x3,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  196,195,125,29,192,4                // vcvtps2ph     $0x4,%ymm0,%xmm8
+  .byte  196,195,125,29,201,4                // vcvtps2ph     $0x4,%ymm1,%xmm9
+  .byte  196,195,125,29,210,4                // vcvtps2ph     $0x4,%ymm2,%xmm10
+  .byte  72,99,194                           // movslq        %edx,%rax
+  .byte  196,195,125,29,219,4                // vcvtps2ph     $0x4,%ymm3,%xmm11
+  .byte  196,65,57,97,225                    // vpunpcklwd    %xmm9,%xmm8,%xmm12
+  .byte  196,65,57,105,193                   // vpunpckhwd    %xmm9,%xmm8,%xmm8
+  .byte  196,65,41,97,203                    // vpunpcklwd    %xmm11,%xmm10,%xmm9
+  .byte  196,65,41,105,235                   // vpunpckhwd    %xmm11,%xmm10,%xmm13
+  .byte  196,65,25,98,217                    // vpunpckldq    %xmm9,%xmm12,%xmm11
+  .byte  196,65,25,106,209                   // vpunpckhdq    %xmm9,%xmm12,%xmm10
+  .byte  196,65,57,98,205                    // vpunpckldq    %xmm13,%xmm8,%xmm9
+  .byte  196,65,57,106,197                   // vpunpckhdq    %xmm13,%xmm8,%xmm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,31                              // jne           4f3f <_sk_store_f16_skx+0x7b>
+  .byte  196,65,122,127,28,192               // vmovdqu       %xmm11,(%r8,%rax,8)
+  .byte  196,65,122,127,84,192,16            // vmovdqu       %xmm10,0x10(%r8,%rax,8)
+  .byte  196,65,122,127,76,192,32            // vmovdqu       %xmm9,0x20(%r8,%rax,8)
+  .byte  196,65,122,127,68,192,48            // vmovdqu       %xmm8,0x30(%r8,%rax,8)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,121,214,28,192               // vmovq         %xmm11,(%r8,%rax,8)
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,240                             // je            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,23,92,192,8              // vmovhpd       %xmm11,0x8(%r8,%rax,8)
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,227                             // jb            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,214,84,192,16            // vmovq         %xmm10,0x10(%r8,%rax,8)
+  .byte  116,218                             // je            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,23,84,192,24             // vmovhpd       %xmm10,0x18(%r8,%rax,8)
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,205                             // jb            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,214,76,192,32            // vmovq         %xmm9,0x20(%r8,%rax,8)
+  .byte  116,196                             // je            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,23,76,192,40             // vmovhpd       %xmm9,0x28(%r8,%rax,8)
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  114,183                             // jb            4f3b <_sk_store_f16_skx+0x77>
+  .byte  196,65,121,214,68,192,48            // vmovq         %xmm8,0x30(%r8,%rax,8)
+  .byte  235,174                             // jmp           4f3b <_sk_store_f16_skx+0x77>
+
+HIDDEN _sk_load_u16_be_skx
+.globl _sk_load_u16_be_skx
+FUNCTION(_sk_load_u16_be_skx)
+_sk_load_u16_be_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9d
+  .byte  76,99,80,8                          // movslq        0x8(%rax),%r10
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,194                       // imul          %r10,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  73,99,193                           // movslq        %r9d,%rax
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,204,0,0,0                    // jne           5080 <_sk_load_u16_be_skx+0xf3>
+  .byte  196,65,121,16,4,64                  // vmovupd       (%r8,%rax,2),%xmm8
+  .byte  196,193,121,16,84,64,16             // vmovupd       0x10(%r8,%rax,2),%xmm2
+  .byte  196,193,121,16,92,64,32             // vmovupd       0x20(%r8,%rax,2),%xmm3
+  .byte  196,65,122,111,76,64,48             // vmovdqu       0x30(%r8,%rax,2),%xmm9
+  .byte  197,185,97,194                      // vpunpcklwd    %xmm2,%xmm8,%xmm0
+  .byte  197,185,105,210                     // vpunpckhwd    %xmm2,%xmm8,%xmm2
+  .byte  196,193,97,97,201                   // vpunpcklwd    %xmm9,%xmm3,%xmm1
+  .byte  196,193,97,105,217                  // vpunpckhwd    %xmm9,%xmm3,%xmm3
+  .byte  197,121,97,194                      // vpunpcklwd    %xmm2,%xmm0,%xmm8
+  .byte  197,121,105,202                     // vpunpckhwd    %xmm2,%xmm0,%xmm9
+  .byte  197,241,97,211                      // vpunpcklwd    %xmm3,%xmm1,%xmm2
+  .byte  197,113,105,219                     // vpunpckhwd    %xmm3,%xmm1,%xmm11
+  .byte  197,185,108,194                     // vpunpcklqdq   %xmm2,%xmm8,%xmm0
+  .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
+  .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
+  .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
+  .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,21,131,217,2,0        // vbroadcastss  0x2d983(%rip),%ymm10        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+  .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
+  .byte  197,185,109,202                     // vpunpckhqdq   %xmm2,%xmm8,%xmm1
+  .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
+  .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
+  .byte  197,233,235,201                     // vpor          %xmm1,%xmm2,%xmm1
+  .byte  196,226,125,51,201                  // vpmovzxwd     %xmm1,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
+  .byte  196,193,49,108,211                  // vpunpcklqdq   %xmm11,%xmm9,%xmm2
+  .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
+  .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
+  .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
+  .byte  196,226,125,51,210                  // vpmovzxwd     %xmm2,%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
+  .byte  196,193,49,109,219                  // vpunpckhqdq   %xmm11,%xmm9,%xmm3
+  .byte  197,185,113,243,8                   // vpsllw        $0x8,%xmm3,%xmm8
+  .byte  197,225,113,211,8                   // vpsrlw        $0x8,%xmm3,%xmm3
+  .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
+  .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
+  .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
+  .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,123,16,4,64                  // vmovsd        (%r8,%rax,2),%xmm8
+  .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,85                              // je            50e6 <_sk_load_u16_be_skx+0x159>
+  .byte  196,65,57,22,68,64,8                // vmovhpd       0x8(%r8,%rax,2),%xmm8,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,72                              // jb            50e6 <_sk_load_u16_be_skx+0x159>
+  .byte  196,193,123,16,84,64,16             // vmovsd        0x10(%r8,%rax,2),%xmm2
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  116,72                              // je            50f3 <_sk_load_u16_be_skx+0x166>
+  .byte  196,193,105,22,84,64,24             // vmovhpd       0x18(%r8,%rax,2),%xmm2,%xmm2
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,59                              // jb            50f3 <_sk_load_u16_be_skx+0x166>
+  .byte  196,193,123,16,92,64,32             // vmovsd        0x20(%r8,%rax,2),%xmm3
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  15,132,6,255,255,255                // je            4fcf <_sk_load_u16_be_skx+0x42>
+  .byte  196,193,97,22,92,64,40              // vmovhpd       0x28(%r8,%rax,2),%xmm3,%xmm3
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,130,245,254,255,255              // jb            4fcf <_sk_load_u16_be_skx+0x42>
+  .byte  196,65,122,126,76,64,48             // vmovq         0x30(%r8,%rax,2),%xmm9
+  .byte  233,233,254,255,255                 // jmpq          4fcf <_sk_load_u16_be_skx+0x42>
+  .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
+  .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
+  .byte  233,220,254,255,255                 // jmpq          4fcf <_sk_load_u16_be_skx+0x42>
+  .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
+  .byte  233,211,254,255,255                 // jmpq          4fcf <_sk_load_u16_be_skx+0x42>
+
+HIDDEN _sk_load_rgb_u16_be_skx
+.globl _sk_load_rgb_u16_be_skx
+FUNCTION(_sk_load_rgb_u16_be_skx)
+_sk_load_rgb_u16_be_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,99,72,8                          // movslq        0x8(%rax),%r9
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,193                       // imul          %r9,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  72,137,208                          // mov           %rdx,%rax
+  .byte  72,193,224,32                       // shl           $0x20,%rax
+  .byte  72,141,4,64                         // lea           (%rax,%rax,2),%rax
+  .byte  72,193,248,32                       // sar           $0x20,%rax
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  15,133,202,0,0,0                    // jne           51f1 <_sk_load_rgb_u16_be_skx+0xf5>
+  .byte  196,65,121,16,28,64                 // vmovupd       (%r8,%rax,2),%xmm11
+  .byte  196,193,121,16,92,64,12             // vmovupd       0xc(%r8,%rax,2),%xmm3
+  .byte  196,193,121,16,84,64,24             // vmovupd       0x18(%r8,%rax,2),%xmm2
+  .byte  98,209,125,8,115,92,64,2,4          // vpsrldq       $0x4,0x20(%r8,%rax,2),%xmm0
+  .byte  196,193,57,115,219,6                // vpsrldq       $0x6,%xmm11,%xmm8
+  .byte  197,169,115,219,6                   // vpsrldq       $0x6,%xmm3,%xmm10
+  .byte  197,241,115,218,6                   // vpsrldq       $0x6,%xmm2,%xmm1
+  .byte  197,177,115,216,6                   // vpsrldq       $0x6,%xmm0,%xmm9
+  .byte  196,193,113,97,201                  // vpunpcklwd    %xmm9,%xmm1,%xmm1
+  .byte  197,233,97,192                      // vpunpcklwd    %xmm0,%xmm2,%xmm0
+  .byte  196,193,57,97,210                   // vpunpcklwd    %xmm10,%xmm8,%xmm2
+  .byte  197,161,97,219                      // vpunpcklwd    %xmm3,%xmm11,%xmm3
+  .byte  197,97,97,194                       // vpunpcklwd    %xmm2,%xmm3,%xmm8
+  .byte  197,225,105,210                     // vpunpckhwd    %xmm2,%xmm3,%xmm2
+  .byte  197,249,97,217                      // vpunpcklwd    %xmm1,%xmm0,%xmm3
+  .byte  197,249,105,193                     // vpunpckhwd    %xmm1,%xmm0,%xmm0
+  .byte  197,233,108,208                     // vpunpcklqdq   %xmm0,%xmm2,%xmm2
+  .byte  197,185,108,195                     // vpunpcklqdq   %xmm3,%xmm8,%xmm0
+  .byte  197,241,113,240,8                   // vpsllw        $0x8,%xmm0,%xmm1
+  .byte  197,249,113,208,8                   // vpsrlw        $0x8,%xmm0,%xmm0
+  .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
+  .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  196,98,125,24,13,245,215,2,0        // vbroadcastss  0x2d7f5(%rip),%ymm9        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+  .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
+  .byte  197,185,109,203                     // vpunpckhqdq   %xmm3,%xmm8,%xmm1
+  .byte  197,225,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm3
+  .byte  197,241,113,209,8                   // vpsrlw        $0x8,%xmm1,%xmm1
+  .byte  197,225,235,201                     // vpor          %xmm1,%xmm3,%xmm1
+  .byte  196,226,125,51,201                  // vpmovzxwd     %xmm1,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
+  .byte  197,225,113,242,8                   // vpsllw        $0x8,%xmm2,%xmm3
+  .byte  197,233,113,210,8                   // vpsrlw        $0x8,%xmm2,%xmm2
+  .byte  197,225,235,210                     // vpor          %xmm2,%xmm3,%xmm2
+  .byte  196,226,125,51,210                  // vpmovzxwd     %xmm2,%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,25,215,2,0        // vbroadcastss  0x2d719(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,193,121,110,4,64                // vmovd         (%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,65,121,196,92,64,4,2            // vpinsrw       $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  117,31                              // jne           5229 <_sk_load_rgb_u16_be_skx+0x12d>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
+  .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
+  .byte  233,48,255,255,255                  // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  196,193,121,110,68,64,6             // vmovd         0x6(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,65,121,196,68,64,10,2           // vpinsrw       $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,48                              // jb            5273 <_sk_load_rgb_u16_be_skx+0x177>
+  .byte  196,193,121,110,68,64,12            // vmovd         0xc(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,193,121,196,92,64,16,2          // vpinsrw       $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  117,48                              // jne           528d <_sk_load_rgb_u16_be_skx+0x191>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  233,230,254,255,255                 // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
+  .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
+  .byte  233,204,254,255,255                 // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  196,193,121,110,68,64,18            // vmovd         0x12(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,65,121,196,84,64,22,2           // vpinsrw       $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,39                              // jb            52ce <_sk_load_rgb_u16_be_skx+0x1d2>
+  .byte  196,193,121,110,68,64,24            // vmovd         0x18(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,193,121,196,84,64,28,2          // vpinsrw       $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  117,30                              // jne           52df <_sk_load_rgb_u16_be_skx+0x1e3>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  233,139,254,255,255                 // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
+  .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
+  .byte  233,122,254,255,255                 // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  196,193,121,110,68,64,30            // vmovd         0x1e(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,193,121,196,76,64,34,2          // vpinsrw       $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  114,25                              // jb            5312 <_sk_load_rgb_u16_be_skx+0x216>
+  .byte  196,193,121,110,68,64,36            // vmovd         0x24(%r8,%rax,2),%xmm0
+  .byte  196,65,49,87,201                    // vxorpd        %xmm9,%xmm9,%xmm9
+  .byte  196,193,121,196,68,64,40,2          // vpinsrw       $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
+  .byte  233,71,254,255,255                  // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+  .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
+  .byte  233,62,254,255,255                  // jmpq          5159 <_sk_load_rgb_u16_be_skx+0x5d>
+
+HIDDEN _sk_store_u16_be_skx
+.globl _sk_store_u16_be_skx
+FUNCTION(_sk_store_u16_be_skx)
+_sk_store_u16_be_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9d
+  .byte  76,99,80,8                          // movslq        0x8(%rax),%r10
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,194                       // imul          %r10,%r8
+  .byte  77,1,192                            // add           %r8,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  73,99,193                           // movslq        %r9d,%rax
+  .byte  196,98,125,24,5,222,214,2,0         // vbroadcastss  0x2d6de(%rip),%ymm8        # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
+  .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
+  .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
+  .byte  196,66,49,43,202                    // vpackusdw     %xmm10,%xmm9,%xmm9
+  .byte  196,193,41,113,241,8                // vpsllw        $0x8,%xmm9,%xmm10
+  .byte  196,193,49,113,209,8                // vpsrlw        $0x8,%xmm9,%xmm9
+  .byte  196,65,41,235,201                   // vpor          %xmm9,%xmm10,%xmm9
+  .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
+  .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
+  .byte  196,67,125,57,211,1                 // vextracti128  $0x1,%ymm10,%xmm11
+  .byte  196,66,41,43,211                    // vpackusdw     %xmm11,%xmm10,%xmm10
+  .byte  196,193,33,113,242,8                // vpsllw        $0x8,%xmm10,%xmm11
+  .byte  196,193,41,113,210,8                // vpsrlw        $0x8,%xmm10,%xmm10
+  .byte  196,65,33,235,210                   // vpor          %xmm10,%xmm11,%xmm10
+  .byte  196,65,108,89,216                   // vmulps        %ymm8,%ymm2,%ymm11
+  .byte  196,65,125,91,219                   // vcvtps2dq     %ymm11,%ymm11
+  .byte  196,67,125,57,220,1                 // vextracti128  $0x1,%ymm11,%xmm12
+  .byte  196,66,33,43,220                    // vpackusdw     %xmm12,%xmm11,%xmm11
+  .byte  196,193,25,113,243,8                // vpsllw        $0x8,%xmm11,%xmm12
+  .byte  196,193,33,113,211,8                // vpsrlw        $0x8,%xmm11,%xmm11
+  .byte  196,65,25,235,219                   // vpor          %xmm11,%xmm12,%xmm11
+  .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
+  .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
+  .byte  196,67,125,57,196,1                 // vextracti128  $0x1,%ymm8,%xmm12
+  .byte  196,66,57,43,196                    // vpackusdw     %xmm12,%xmm8,%xmm8
+  .byte  196,193,25,113,240,8                // vpsllw        $0x8,%xmm8,%xmm12
+  .byte  196,193,57,113,208,8                // vpsrlw        $0x8,%xmm8,%xmm8
+  .byte  196,65,25,235,192                   // vpor          %xmm8,%xmm12,%xmm8
+  .byte  196,65,49,97,226                    // vpunpcklwd    %xmm10,%xmm9,%xmm12
+  .byte  196,65,49,105,234                   // vpunpckhwd    %xmm10,%xmm9,%xmm13
+  .byte  196,65,33,97,200                    // vpunpcklwd    %xmm8,%xmm11,%xmm9
+  .byte  196,65,33,105,192                   // vpunpckhwd    %xmm8,%xmm11,%xmm8
+  .byte  196,65,25,98,217                    // vpunpckldq    %xmm9,%xmm12,%xmm11
+  .byte  196,65,25,106,209                   // vpunpckhdq    %xmm9,%xmm12,%xmm10
+  .byte  196,65,17,98,200                    // vpunpckldq    %xmm8,%xmm13,%xmm9
+  .byte  196,65,17,106,192                   // vpunpckhdq    %xmm8,%xmm13,%xmm8
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,31                              // jne           5426 <_sk_store_u16_be_skx+0x10b>
+  .byte  196,65,122,127,28,64                // vmovdqu       %xmm11,(%r8,%rax,2)
+  .byte  196,65,122,127,84,64,16             // vmovdqu       %xmm10,0x10(%r8,%rax,2)
+  .byte  196,65,122,127,76,64,32             // vmovdqu       %xmm9,0x20(%r8,%rax,2)
+  .byte  196,65,122,127,68,64,48             // vmovdqu       %xmm8,0x30(%r8,%rax,2)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,121,214,28,64                // vmovq         %xmm11,(%r8,%rax,2)
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,240                             // je            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,23,92,64,8               // vmovhpd       %xmm11,0x8(%r8,%rax,2)
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,227                             // jb            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,214,84,64,16             // vmovq         %xmm10,0x10(%r8,%rax,2)
+  .byte  116,218                             // je            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,23,84,64,24              // vmovhpd       %xmm10,0x18(%r8,%rax,2)
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,205                             // jb            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,214,76,64,32             // vmovq         %xmm9,0x20(%r8,%rax,2)
+  .byte  116,196                             // je            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,23,76,64,40              // vmovhpd       %xmm9,0x28(%r8,%rax,2)
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  114,183                             // jb            5422 <_sk_store_u16_be_skx+0x107>
+  .byte  196,65,121,214,68,64,48             // vmovq         %xmm8,0x30(%r8,%rax,2)
+  .byte  235,174                             // jmp           5422 <_sk_store_u16_be_skx+0x107>
+
+HIDDEN _sk_load_f32_skx
+.globl _sk_load_f32_skx
+FUNCTION(_sk_load_f32_skx)
+_sk_load_f32_skx:
+  .byte  98,225,253,40,40,223                // vmovapd       %ymm7,%ymm19
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,197,87,255                      // vxorpd        %ymm7,%ymm7,%ymm7
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,135,63,1,0,0                     // ja            55c9 <_sk_load_f32_skx+0x155>
+  .byte  68,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9d
+  .byte  76,99,80,8                          // movslq        0x8(%rax),%r10
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,194                       // imul          %r10,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  77,99,201                           // movslq        %r9d,%r9
+  .byte  76,141,21,46,1,0,0                  // lea           0x12e(%rip),%r10        # 55dc <_sk_load_f32_skx+0x168>
+  .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  197,245,87,201                      // vxorpd        %ymm1,%ymm1,%ymm1
+  .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
+  .byte  197,237,87,210                      // vxorpd        %ymm2,%ymm2,%ymm2
+  .byte  98,161,253,32,87,192                // vxorpd        %ymm16,%ymm16,%ymm16
+  .byte  196,65,29,87,228                    // vxorpd        %ymm12,%ymm12,%ymm12
+  .byte  197,229,87,219                      // vxorpd        %ymm3,%ymm3,%ymm3
+  .byte  196,65,37,87,219                    // vxorpd        %ymm11,%ymm11,%ymm11
+  .byte  98,161,237,32,87,210                // vxorpd        %ymm18,%ymm18,%ymm18
+  .byte  196,65,5,87,255                     // vxorpd        %ymm15,%ymm15,%ymm15
+  .byte  196,65,13,87,246                    // vxorpd        %ymm14,%ymm14,%ymm14
+  .byte  196,65,21,87,237                    // vxorpd        %ymm13,%ymm13,%ymm13
+  .byte  98,161,245,32,87,201                // vxorpd        %ymm17,%ymm17,%ymm17
+  .byte  196,65,61,87,192                    // vxorpd        %ymm8,%ymm8,%ymm8
+  .byte  196,65,53,87,201                    // vxorpd        %ymm9,%ymm9,%ymm9
+  .byte  197,253,87,192                      // vxorpd        %ymm0,%ymm0,%ymm0
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,16,68,136,112           // vmovupd       0x70(%r8,%r9,4),%xmm0
+  .byte  196,227,125,6,248,40                // vperm2f128    $0x28,%ymm0,%ymm0,%ymm7
+  .byte  196,129,121,16,68,136,96            // vmovupd       0x60(%r8,%r9,4),%xmm0
+  .byte  196,227,125,6,200,40                // vperm2f128    $0x28,%ymm0,%ymm0,%ymm1
+  .byte  196,129,121,16,68,136,80            // vmovupd       0x50(%r8,%r9,4),%xmm0
+  .byte  196,227,125,6,208,40                // vperm2f128    $0x28,%ymm0,%ymm0,%ymm2
+  .byte  197,125,40,209                      // vmovapd       %ymm1,%ymm10
+  .byte  196,129,121,16,68,136,64            // vmovupd       0x40(%r8,%r9,4),%xmm0
+  .byte  196,227,125,6,216,40                // vperm2f128    $0x28,%ymm0,%ymm0,%ymm3
+  .byte  98,193,253,40,40,194                // vmovapd       %ymm10,%ymm16
+  .byte  197,125,40,226                      // vmovapd       %ymm2,%ymm12
+  .byte  196,129,121,16,68,136,48            // vmovupd       0x30(%r8,%r9,4),%xmm0
+  .byte  196,227,125,13,255,12               // vblendpd      $0xc,%ymm7,%ymm0,%ymm7
+  .byte  98,49,253,40,40,216                 // vmovapd       %ymm16,%ymm11
+  .byte  98,193,253,40,40,212                // vmovapd       %ymm12,%ymm18
+  .byte  197,125,40,251                      // vmovapd       %ymm3,%ymm15
+  .byte  196,129,121,16,68,136,32            // vmovupd       0x20(%r8,%r9,4),%xmm0
+  .byte  196,67,125,13,243,12                // vblendpd      $0xc,%ymm11,%ymm0,%ymm14
+  .byte  98,49,253,40,40,234                 // vmovapd       %ymm18,%ymm13
+  .byte  98,193,253,40,40,207                // vmovapd       %ymm15,%ymm17
+  .byte  196,129,121,16,68,136,16            // vmovupd       0x10(%r8,%r9,4),%xmm0
+  .byte  196,67,125,13,205,12                // vblendpd      $0xc,%ymm13,%ymm0,%ymm9
+  .byte  196,65,125,40,198                   // vmovapd       %ymm14,%ymm8
+  .byte  98,177,253,40,40,193                // vmovapd       %ymm17,%ymm0
+  .byte  196,129,121,16,12,136               // vmovupd       (%r8,%r9,4),%xmm1
+  .byte  196,227,117,13,200,12               // vblendpd      $0xc,%ymm0,%ymm1,%ymm1
+  .byte  196,193,116,20,209                  // vunpcklps     %ymm9,%ymm1,%ymm2
+  .byte  196,193,116,21,217                  // vunpckhps     %ymm9,%ymm1,%ymm3
+  .byte  197,188,20,207                      // vunpcklps     %ymm7,%ymm8,%ymm1
+  .byte  197,188,21,255                      // vunpckhps     %ymm7,%ymm8,%ymm7
+  .byte  197,237,20,193                      // vunpcklpd     %ymm1,%ymm2,%ymm0
+  .byte  197,237,21,201                      // vunpckhpd     %ymm1,%ymm2,%ymm1
+  .byte  197,229,20,215                      // vunpcklpd     %ymm7,%ymm3,%ymm2
+  .byte  197,229,21,223                      // vunpckhpd     %ymm7,%ymm3,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,177,124,40,40,251                // vmovaps       %ymm19,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,61,87,192                    // vxorpd        %ymm8,%ymm8,%ymm8
+  .byte  196,65,53,87,201                    // vxorpd        %ymm9,%ymm9,%ymm9
+  .byte  197,245,87,201                      // vxorpd        %ymm1,%ymm1,%ymm1
+  .byte  235,196                             // jmp           559d <_sk_load_f32_skx+0x129>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  37,255,255,255,181                  // and           $0xb5ffffff,%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,157,255,255,255,132             // lcall         *-0x7b000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,103,255                         // jmpq          *-0x1(%rdi)
+  .byte  255                                 // (bad)
+  .byte  255,80,255                          // callq         *-0x1(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  63                                  // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,50                              // pushq         (%rdx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_load_f32_dst_skx
+.globl _sk_load_f32_dst_skx
+FUNCTION(_sk_load_f32_dst_skx)
+_sk_load_f32_dst_skx:
+  .byte  98,225,253,40,40,219                // vmovapd       %ymm3,%ymm19
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,229,87,219                      // vxorpd        %ymm3,%ymm3,%ymm3
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  15,135,63,1,0,0                     // ja            5751 <_sk_load_f32_dst_skx+0x155>
+  .byte  68,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9d
+  .byte  76,99,80,8                          // movslq        0x8(%rax),%r10
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,194                       // imul          %r10,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  77,99,201                           // movslq        %r9d,%r9
+  .byte  76,141,21,46,1,0,0                  // lea           0x12e(%rip),%r10        # 5764 <_sk_load_f32_dst_skx+0x168>
+  .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
+  .byte  76,1,208                            // add           %r10,%rax
+  .byte  197,213,87,237                      // vxorpd        %ymm5,%ymm5,%ymm5
+  .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
+  .byte  197,205,87,246                      // vxorpd        %ymm6,%ymm6,%ymm6
+  .byte  98,161,253,32,87,192                // vxorpd        %ymm16,%ymm16,%ymm16
+  .byte  196,65,29,87,228                    // vxorpd        %ymm12,%ymm12,%ymm12
+  .byte  197,197,87,255                      // vxorpd        %ymm7,%ymm7,%ymm7
+  .byte  196,65,37,87,219                    // vxorpd        %ymm11,%ymm11,%ymm11
+  .byte  98,161,237,32,87,210                // vxorpd        %ymm18,%ymm18,%ymm18
+  .byte  196,65,5,87,255                     // vxorpd        %ymm15,%ymm15,%ymm15
+  .byte  196,65,13,87,246                    // vxorpd        %ymm14,%ymm14,%ymm14
+  .byte  196,65,21,87,237                    // vxorpd        %ymm13,%ymm13,%ymm13
+  .byte  98,161,245,32,87,201                // vxorpd        %ymm17,%ymm17,%ymm17
+  .byte  196,65,61,87,192                    // vxorpd        %ymm8,%ymm8,%ymm8
+  .byte  196,65,53,87,201                    // vxorpd        %ymm9,%ymm9,%ymm9
+  .byte  197,221,87,228                      // vxorpd        %ymm4,%ymm4,%ymm4
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,129,121,16,92,136,112           // vmovupd       0x70(%r8,%r9,4),%xmm3
+  .byte  196,227,125,6,219,40                // vperm2f128    $0x28,%ymm3,%ymm0,%ymm3
+  .byte  196,129,121,16,100,136,96           // vmovupd       0x60(%r8,%r9,4),%xmm4
+  .byte  196,227,125,6,236,40                // vperm2f128    $0x28,%ymm4,%ymm0,%ymm5
+  .byte  196,129,121,16,100,136,80           // vmovupd       0x50(%r8,%r9,4),%xmm4
+  .byte  196,227,125,6,244,40                // vperm2f128    $0x28,%ymm4,%ymm0,%ymm6
+  .byte  197,125,40,213                      // vmovapd       %ymm5,%ymm10
+  .byte  196,129,121,16,100,136,64           // vmovupd       0x40(%r8,%r9,4),%xmm4
+  .byte  196,227,125,6,252,40                // vperm2f128    $0x28,%ymm4,%ymm0,%ymm7
+  .byte  98,193,253,40,40,194                // vmovapd       %ymm10,%ymm16
+  .byte  197,125,40,230                      // vmovapd       %ymm6,%ymm12
+  .byte  196,129,121,16,100,136,48           // vmovupd       0x30(%r8,%r9,4),%xmm4
+  .byte  196,227,93,13,219,12                // vblendpd      $0xc,%ymm3,%ymm4,%ymm3
+  .byte  98,49,253,40,40,216                 // vmovapd       %ymm16,%ymm11
+  .byte  98,193,253,40,40,212                // vmovapd       %ymm12,%ymm18
+  .byte  197,125,40,255                      // vmovapd       %ymm7,%ymm15
+  .byte  196,129,121,16,100,136,32           // vmovupd       0x20(%r8,%r9,4),%xmm4
+  .byte  196,67,93,13,243,12                 // vblendpd      $0xc,%ymm11,%ymm4,%ymm14
+  .byte  98,49,253,40,40,234                 // vmovapd       %ymm18,%ymm13
+  .byte  98,193,253,40,40,207                // vmovapd       %ymm15,%ymm17
+  .byte  196,129,121,16,100,136,16           // vmovupd       0x10(%r8,%r9,4),%xmm4
+  .byte  196,67,93,13,205,12                 // vblendpd      $0xc,%ymm13,%ymm4,%ymm9
+  .byte  196,65,125,40,198                   // vmovapd       %ymm14,%ymm8
+  .byte  98,177,253,40,40,225                // vmovapd       %ymm17,%ymm4
+  .byte  196,129,121,16,44,136               // vmovupd       (%r8,%r9,4),%xmm5
+  .byte  196,227,85,13,236,12                // vblendpd      $0xc,%ymm4,%ymm5,%ymm5
+  .byte  196,193,84,20,241                   // vunpcklps     %ymm9,%ymm5,%ymm6
+  .byte  196,193,84,21,249                   // vunpckhps     %ymm9,%ymm5,%ymm7
+  .byte  197,188,20,235                      // vunpcklps     %ymm3,%ymm8,%ymm5
+  .byte  197,188,21,219                      // vunpckhps     %ymm3,%ymm8,%ymm3
+  .byte  197,205,20,229                      // vunpcklpd     %ymm5,%ymm6,%ymm4
+  .byte  197,205,21,237                      // vunpckhpd     %ymm5,%ymm6,%ymm5
+  .byte  197,197,20,243                      // vunpcklpd     %ymm3,%ymm7,%ymm6
+  .byte  197,197,21,251                      // vunpckhpd     %ymm3,%ymm7,%ymm7
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,177,124,40,40,219                // vmovaps       %ymm19,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,61,87,192                    // vxorpd        %ymm8,%ymm8,%ymm8
+  .byte  196,65,53,87,201                    // vxorpd        %ymm9,%ymm9,%ymm9
+  .byte  197,213,87,237                      // vxorpd        %ymm5,%ymm5,%ymm5
+  .byte  235,196                             // jmp           5725 <_sk_load_f32_dst_skx+0x129>
+  .byte  15,31,0                             // nopl          (%rax)
+  .byte  37,255,255,255,181                  // and           $0xb5ffffff,%eax
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,157,255,255,255,132             // lcall         *-0x7b000001(%rbp)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,103,255                         // jmpq          *-0x1(%rdi)
+  .byte  255                                 // (bad)
+  .byte  255,80,255                          // callq         *-0x1(%rax)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  63                                  // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255,50                              // pushq         (%rdx)
+  .byte  255                                 // (bad)
+  .byte  255                                 // (bad)
+  .byte  255                                 // .byte         0xff
+
+HIDDEN _sk_store_f32_skx
+.globl _sk_store_f32_skx
+FUNCTION(_sk_store_f32_skx)
+_sk_store_f32_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9d
+  .byte  76,99,80,8                          // movslq        0x8(%rax),%r10
+  .byte  76,99,193                           // movslq        %ecx,%r8
+  .byte  77,15,175,194                       // imul          %r10,%r8
+  .byte  73,193,224,2                        // shl           $0x2,%r8
+  .byte  76,3,0                              // add           (%rax),%r8
+  .byte  73,99,193                           // movslq        %r9d,%rax
+  .byte  197,124,20,193                      // vunpcklps     %ymm1,%ymm0,%ymm8
+  .byte  197,124,21,217                      // vunpckhps     %ymm1,%ymm0,%ymm11
+  .byte  197,108,20,203                      // vunpcklps     %ymm3,%ymm2,%ymm9
+  .byte  197,108,21,227                      // vunpckhps     %ymm3,%ymm2,%ymm12
+  .byte  196,65,61,20,209                    // vunpcklpd     %ymm9,%ymm8,%ymm10
+  .byte  196,65,61,21,201                    // vunpckhpd     %ymm9,%ymm8,%ymm9
+  .byte  196,65,37,20,196                    // vunpcklpd     %ymm12,%ymm11,%ymm8
+  .byte  196,65,37,21,220                    // vunpckhpd     %ymm12,%ymm11,%ymm11
+  .byte  72,133,255                          // test          %rdi,%rdi
+  .byte  117,55                              // jne           5803 <_sk_store_f32_skx+0x7f>
+  .byte  196,67,45,24,225,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm12
+  .byte  196,67,61,24,235,1                  // vinsertf128   $0x1,%xmm11,%ymm8,%ymm13
+  .byte  196,67,45,6,201,49                  // vperm2f128    $0x31,%ymm9,%ymm10,%ymm9
+  .byte  196,67,61,6,195,49                  // vperm2f128    $0x31,%ymm11,%ymm8,%ymm8
+  .byte  196,65,125,17,36,128                // vmovupd       %ymm12,(%r8,%rax,4)
+  .byte  196,65,125,17,108,128,32            // vmovupd       %ymm13,0x20(%r8,%rax,4)
+  .byte  196,65,124,17,76,128,64             // vmovups       %ymm9,0x40(%r8,%rax,4)
+  .byte  196,65,125,17,68,128,96             // vmovupd       %ymm8,0x60(%r8,%rax,4)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+  .byte  196,65,121,17,20,128                // vmovupd       %xmm10,(%r8,%rax,4)
+  .byte  72,131,255,1                        // cmp           $0x1,%rdi
+  .byte  116,240                             // je            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,65,121,17,76,128,16             // vmovupd       %xmm9,0x10(%r8,%rax,4)
+  .byte  72,131,255,3                        // cmp           $0x3,%rdi
+  .byte  114,227                             // jb            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,65,121,17,68,128,32             // vmovupd       %xmm8,0x20(%r8,%rax,4)
+  .byte  116,218                             // je            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,65,121,17,92,128,48             // vmovupd       %xmm11,0x30(%r8,%rax,4)
+  .byte  72,131,255,5                        // cmp           $0x5,%rdi
+  .byte  114,205                             // jb            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,67,125,25,84,128,64,1           // vextractf128  $0x1,%ymm10,0x40(%r8,%rax,4)
+  .byte  116,195                             // je            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,67,125,25,76,128,80,1           // vextractf128  $0x1,%ymm9,0x50(%r8,%rax,4)
+  .byte  72,131,255,7                        // cmp           $0x7,%rdi
+  .byte  114,181                             // jb            57ff <_sk_store_f32_skx+0x7b>
+  .byte  196,67,125,25,68,128,96,1           // vextractf128  $0x1,%ymm8,0x60(%r8,%rax,4)
+  .byte  235,171                             // jmp           57ff <_sk_store_f32_skx+0x7b>
+
+HIDDEN _sk_repeat_x_skx
+.globl _sk_repeat_x_skx
+FUNCTION(_sk_repeat_x_skx)
+_sk_repeat_x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,113,124,56,89,64,1               // vmulps        0x4(%rax){1to8},%ymm0,%ymm8
+  .byte  196,67,125,8,192,1                  // vroundps      $0x1,%ymm8,%ymm8
+  .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
+  .byte  196,194,61,188,193                  // vfnmadd231ps  %ymm9,%ymm8,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_repeat_y_skx
+.globl _sk_repeat_y_skx
+FUNCTION(_sk_repeat_y_skx)
+_sk_repeat_y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,113,116,56,89,64,1               // vmulps        0x4(%rax){1to8},%ymm1,%ymm8
+  .byte  196,67,125,8,192,1                  // vroundps      $0x1,%ymm8,%ymm8
+  .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
+  .byte  196,194,61,188,201                  // vfnmadd231ps  %ymm9,%ymm8,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_mirror_x_skx
+.globl _sk_mirror_x_skx
+FUNCTION(_sk_mirror_x_skx)
+_sk_mirror_x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,122,16,0                        // vmovss        (%rax),%xmm8
+  .byte  197,122,16,72,4                     // vmovss        0x4(%rax),%xmm9
+  .byte  196,66,125,24,208                   // vbroadcastss  %xmm8,%ymm10
+  .byte  196,65,124,92,218                   // vsubps        %ymm10,%ymm0,%ymm11
+  .byte  196,193,58,88,192                   // vaddss        %xmm8,%xmm8,%xmm0
+  .byte  196,98,125,24,192                   // vbroadcastss  %xmm0,%ymm8
+  .byte  197,178,89,5,79,208,2,0             // vmulss        0x2d04f(%rip),%xmm9,%xmm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
+  .byte  197,164,89,192                      // vmulps        %ymm0,%ymm11,%ymm0
+  .byte  196,227,125,8,192,1                 // vroundps      $0x1,%ymm0,%ymm0
+  .byte  196,194,61,172,195                  // vfnmadd213ps  %ymm11,%ymm8,%ymm0
+  .byte  196,193,124,92,194                  // vsubps        %ymm10,%ymm0,%ymm0
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,60,92,192                       // vsubps        %ymm0,%ymm8,%ymm8
+  .byte  197,188,84,192                      // vandps        %ymm0,%ymm8,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_mirror_y_skx
+.globl _sk_mirror_y_skx
+FUNCTION(_sk_mirror_y_skx)
+_sk_mirror_y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,122,16,0                        // vmovss        (%rax),%xmm8
+  .byte  197,122,16,72,4                     // vmovss        0x4(%rax),%xmm9
+  .byte  196,66,125,24,208                   // vbroadcastss  %xmm8,%ymm10
+  .byte  196,65,116,92,218                   // vsubps        %ymm10,%ymm1,%ymm11
+  .byte  196,193,58,88,200                   // vaddss        %xmm8,%xmm8,%xmm1
+  .byte  196,98,125,24,193                   // vbroadcastss  %xmm1,%ymm8
+  .byte  197,178,89,13,254,207,2,0           // vmulss        0x2cffe(%rip),%xmm9,%xmm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,226,125,24,201                  // vbroadcastss  %xmm1,%ymm1
+  .byte  197,164,89,201                      // vmulps        %ymm1,%ymm11,%ymm1
+  .byte  196,227,125,8,201,1                 // vroundps      $0x1,%ymm1,%ymm1
+  .byte  196,194,61,172,203                  // vfnmadd213ps  %ymm11,%ymm8,%ymm1
+  .byte  196,193,116,92,202                  // vsubps        %ymm10,%ymm1,%ymm1
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,60,92,193                       // vsubps        %ymm1,%ymm8,%ymm8
+  .byte  197,188,84,201                      // vandps        %ymm1,%ymm8,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clamp_x_1_skx
+.globl _sk_clamp_x_1_skx
+FUNCTION(_sk_clamp_x_1_skx)
+_sk_clamp_x_1_skx:
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
+  .byte  98,241,124,56,93,5,197,207,2,0      // vminps        0x2cfc5(%rip){1to8},%ymm0,%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_repeat_x_1_skx
+.globl _sk_repeat_x_1_skx
+FUNCTION(_sk_repeat_x_1_skx)
+_sk_repeat_x_1_skx:
+  .byte  196,99,125,8,192,1                  // vroundps      $0x1,%ymm0,%ymm8
+  .byte  196,193,124,92,192                  // vsubps        %ymm8,%ymm0,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_mirror_x_1_skx
+.globl _sk_mirror_x_1_skx
+FUNCTION(_sk_mirror_x_1_skx)
+_sk_mirror_x_1_skx:
+  .byte  196,98,125,24,5,193,207,2,0         // vbroadcastss  0x2cfc1(%rip),%ymm8        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+  .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
+  .byte  98,113,124,56,89,13,150,207,2,0     // vmulps        0x2cf96(%rip){1to8},%ymm0,%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,67,125,8,201,1                  // vroundps      $0x1,%ymm9,%ymm9
+  .byte  196,65,52,88,201                    // vaddps        %ymm9,%ymm9,%ymm9
+  .byte  196,193,124,92,193                  // vsubps        %ymm9,%ymm0,%ymm0
+  .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,60,92,192                       // vsubps        %ymm0,%ymm8,%ymm8
+  .byte  197,188,84,192                      // vandps        %ymm0,%ymm8,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_luminance_to_alpha_skx
+.globl _sk_luminance_to_alpha_skx
+FUNCTION(_sk_luminance_to_alpha_skx)
+_sk_luminance_to_alpha_skx:
+  .byte  98,241,116,56,89,29,134,208,2,0     // vmulps        0x2d086(%rip){1to8},%ymm1,%ymm3        # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+  .byte  98,242,125,56,184,29,128,208,2,0    // vfmadd231ps   0x2d080(%rip){1to8},%ymm0,%ymm3        # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  98,242,109,56,184,29,122,208,2,0    // vfmadd231ps   0x2d07a(%rip){1to8},%ymm2,%ymm3        # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_translate_skx
+.globl _sk_matrix_translate_skx
+FUNCTION(_sk_matrix_translate_skx)
+_sk_matrix_translate_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  98,241,124,56,88,0                  // vaddps        (%rax){1to8},%ymm0,%ymm0
+  .byte  98,241,116,56,88,72,1               // vaddps        0x4(%rax){1to8},%ymm1,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_scale_translate_skx
+.globl _sk_matrix_scale_translate_skx
+FUNCTION(_sk_matrix_scale_translate_skx)
+_sk_matrix_scale_translate_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,64,8                  // vbroadcastss  0x8(%rax),%ymm8
+  .byte  98,242,61,56,168,0                  // vfmadd213ps   (%rax){1to8},%ymm8,%ymm0
+  .byte  196,98,125,24,64,12                 // vbroadcastss  0xc(%rax),%ymm8
+  .byte  98,242,61,56,168,72,1               // vfmadd213ps   0x4(%rax){1to8},%ymm8,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_2x3_skx
+.globl _sk_matrix_2x3_skx
+FUNCTION(_sk_matrix_2x3_skx)
+_sk_matrix_2x3_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
+  .byte  196,98,125,24,64,8                  // vbroadcastss  0x8(%rax),%ymm8
+  .byte  98,114,117,56,168,64,4              // vfmadd213ps   0x10(%rax){1to8},%ymm1,%ymm8
+  .byte  196,66,125,184,193                  // vfmadd231ps   %ymm9,%ymm0,%ymm8
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  196,98,125,24,72,12                 // vbroadcastss  0xc(%rax),%ymm9
+  .byte  98,114,117,56,168,72,5              // vfmadd213ps   0x14(%rax){1to8},%ymm1,%ymm9
+  .byte  196,66,125,184,202                  // vfmadd231ps   %ymm10,%ymm0,%ymm9
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  197,124,41,201                      // vmovaps       %ymm9,%ymm1
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_3x4_skx
+.globl _sk_matrix_3x4_skx
+FUNCTION(_sk_matrix_3x4_skx)
+_sk_matrix_3x4_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
+  .byte  196,98,125,24,80,12                 // vbroadcastss  0xc(%rax),%ymm10
+  .byte  196,98,125,24,64,24                 // vbroadcastss  0x18(%rax),%ymm8
+  .byte  98,114,109,56,168,64,9              // vfmadd213ps   0x24(%rax){1to8},%ymm2,%ymm8
+  .byte  196,66,117,184,194                  // vfmadd231ps   %ymm10,%ymm1,%ymm8
+  .byte  196,66,125,184,193                  // vfmadd231ps   %ymm9,%ymm0,%ymm8
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  196,98,125,24,88,16                 // vbroadcastss  0x10(%rax),%ymm11
+  .byte  196,98,125,24,72,28                 // vbroadcastss  0x1c(%rax),%ymm9
+  .byte  98,114,109,56,168,72,10             // vfmadd213ps   0x28(%rax){1to8},%ymm2,%ymm9
+  .byte  196,66,117,184,203                  // vfmadd231ps   %ymm11,%ymm1,%ymm9
+  .byte  196,66,125,184,202                  // vfmadd231ps   %ymm10,%ymm0,%ymm9
+  .byte  196,98,125,24,88,8                  // vbroadcastss  0x8(%rax),%ymm11
+  .byte  196,98,125,24,96,20                 // vbroadcastss  0x14(%rax),%ymm12
+  .byte  196,98,125,24,80,32                 // vbroadcastss  0x20(%rax),%ymm10
+  .byte  98,114,109,56,168,80,11             // vfmadd213ps   0x2c(%rax){1to8},%ymm2,%ymm10
+  .byte  196,66,117,184,212                  // vfmadd231ps   %ymm12,%ymm1,%ymm10
+  .byte  196,66,125,184,211                  // vfmadd231ps   %ymm11,%ymm0,%ymm10
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  197,124,41,201                      // vmovaps       %ymm9,%ymm1
+  .byte  197,124,41,210                      // vmovaps       %ymm10,%ymm2
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_4x5_skx
+.globl _sk_matrix_4x5_skx
+FUNCTION(_sk_matrix_4x5_skx)
+_sk_matrix_4x5_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
+  .byte  196,98,125,24,80,16                 // vbroadcastss  0x10(%rax),%ymm10
+  .byte  196,98,125,24,88,32                 // vbroadcastss  0x20(%rax),%ymm11
+  .byte  196,98,125,24,64,48                 // vbroadcastss  0x30(%rax),%ymm8
+  .byte  98,114,101,56,168,64,16             // vfmadd213ps   0x40(%rax){1to8},%ymm3,%ymm8
+  .byte  196,66,109,184,195                  // vfmadd231ps   %ymm11,%ymm2,%ymm8
+  .byte  196,66,117,184,194                  // vfmadd231ps   %ymm10,%ymm1,%ymm8
+  .byte  196,66,125,184,193                  // vfmadd231ps   %ymm9,%ymm0,%ymm8
+  .byte  196,98,125,24,80,4                  // vbroadcastss  0x4(%rax),%ymm10
+  .byte  196,98,125,24,88,20                 // vbroadcastss  0x14(%rax),%ymm11
+  .byte  196,98,125,24,96,36                 // vbroadcastss  0x24(%rax),%ymm12
+  .byte  196,98,125,24,72,52                 // vbroadcastss  0x34(%rax),%ymm9
+  .byte  98,114,101,56,168,72,17             // vfmadd213ps   0x44(%rax){1to8},%ymm3,%ymm9
+  .byte  196,66,109,184,204                  // vfmadd231ps   %ymm12,%ymm2,%ymm9
+  .byte  196,66,117,184,203                  // vfmadd231ps   %ymm11,%ymm1,%ymm9
+  .byte  196,66,125,184,202                  // vfmadd231ps   %ymm10,%ymm0,%ymm9
+  .byte  196,98,125,24,88,8                  // vbroadcastss  0x8(%rax),%ymm11
+  .byte  196,98,125,24,96,24                 // vbroadcastss  0x18(%rax),%ymm12
+  .byte  196,98,125,24,104,40                // vbroadcastss  0x28(%rax),%ymm13
+  .byte  196,98,125,24,80,56                 // vbroadcastss  0x38(%rax),%ymm10
+  .byte  98,114,101,56,168,80,18             // vfmadd213ps   0x48(%rax){1to8},%ymm3,%ymm10
+  .byte  196,66,109,184,213                  // vfmadd231ps   %ymm13,%ymm2,%ymm10
+  .byte  196,66,117,184,212                  // vfmadd231ps   %ymm12,%ymm1,%ymm10
+  .byte  196,66,125,184,211                  // vfmadd231ps   %ymm11,%ymm0,%ymm10
+  .byte  196,98,125,24,96,12                 // vbroadcastss  0xc(%rax),%ymm12
+  .byte  196,98,125,24,104,28                // vbroadcastss  0x1c(%rax),%ymm13
+  .byte  196,98,125,24,112,44                // vbroadcastss  0x2c(%rax),%ymm14
+  .byte  196,98,125,24,88,60                 // vbroadcastss  0x3c(%rax),%ymm11
+  .byte  98,114,101,56,168,88,19             // vfmadd213ps   0x4c(%rax){1to8},%ymm3,%ymm11
+  .byte  196,66,109,184,222                  // vfmadd231ps   %ymm14,%ymm2,%ymm11
+  .byte  196,66,117,184,221                  // vfmadd231ps   %ymm13,%ymm1,%ymm11
+  .byte  196,66,125,184,220                  // vfmadd231ps   %ymm12,%ymm0,%ymm11
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  197,124,41,201                      // vmovaps       %ymm9,%ymm1
+  .byte  197,124,41,210                      // vmovaps       %ymm10,%ymm2
+  .byte  197,124,41,219                      // vmovaps       %ymm11,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_4x3_skx
+.globl _sk_matrix_4x3_skx
+FUNCTION(_sk_matrix_4x3_skx)
+_sk_matrix_4x3_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
+  .byte  196,98,125,24,64,16                 // vbroadcastss  0x10(%rax),%ymm8
+  .byte  98,114,117,56,168,64,8              // vfmadd213ps   0x20(%rax){1to8},%ymm1,%ymm8
+  .byte  196,98,125,184,194                  // vfmadd231ps   %ymm2,%ymm0,%ymm8
+  .byte  196,226,125,24,80,4                 // vbroadcastss  0x4(%rax),%ymm2
+  .byte  196,98,125,24,72,20                 // vbroadcastss  0x14(%rax),%ymm9
+  .byte  98,114,117,56,168,72,9              // vfmadd213ps   0x24(%rax){1to8},%ymm1,%ymm9
+  .byte  196,98,125,184,202                  // vfmadd231ps   %ymm2,%ymm0,%ymm9
+  .byte  196,226,125,24,88,8                 // vbroadcastss  0x8(%rax),%ymm3
+  .byte  196,226,125,24,80,24                // vbroadcastss  0x18(%rax),%ymm2
+  .byte  98,242,117,56,168,80,10             // vfmadd213ps   0x28(%rax){1to8},%ymm1,%ymm2
+  .byte  196,226,125,184,211                 // vfmadd231ps   %ymm3,%ymm0,%ymm2
+  .byte  196,98,125,24,80,12                 // vbroadcastss  0xc(%rax),%ymm10
+  .byte  196,226,125,24,88,28                // vbroadcastss  0x1c(%rax),%ymm3
+  .byte  98,242,117,56,168,88,11             // vfmadd213ps   0x2c(%rax){1to8},%ymm1,%ymm3
+  .byte  196,194,125,184,218                 // vfmadd231ps   %ymm10,%ymm0,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  197,124,41,201                      // vmovaps       %ymm9,%ymm1
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_matrix_perspective_skx
+.globl _sk_matrix_perspective_skx
+FUNCTION(_sk_matrix_perspective_skx)
+_sk_matrix_perspective_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
+  .byte  196,98,125,24,72,4                  // vbroadcastss  0x4(%rax),%ymm9
+  .byte  98,114,117,56,168,72,2              // vfmadd213ps   0x8(%rax){1to8},%ymm1,%ymm9
+  .byte  196,66,125,184,200                  // vfmadd231ps   %ymm8,%ymm0,%ymm9
+  .byte  196,98,125,24,64,12                 // vbroadcastss  0xc(%rax),%ymm8
+  .byte  196,98,125,24,80,16                 // vbroadcastss  0x10(%rax),%ymm10
+  .byte  98,114,117,56,168,80,5              // vfmadd213ps   0x14(%rax){1to8},%ymm1,%ymm10
+  .byte  196,66,125,184,208                  // vfmadd231ps   %ymm8,%ymm0,%ymm10
+  .byte  196,98,125,24,64,24                 // vbroadcastss  0x18(%rax),%ymm8
+  .byte  196,98,125,24,88,28                 // vbroadcastss  0x1c(%rax),%ymm11
+  .byte  98,114,117,56,168,88,8              // vfmadd213ps   0x20(%rax){1to8},%ymm1,%ymm11
+  .byte  196,66,125,184,216                  // vfmadd231ps   %ymm8,%ymm0,%ymm11
+  .byte  98,210,125,40,76,203                // vrcp14ps      %ymm11,%ymm1
+  .byte  197,180,89,193                      // vmulps        %ymm1,%ymm9,%ymm0
+  .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_evenly_spaced_gradient_skx
+.globl _sk_evenly_spaced_gradient_skx
+FUNCTION(_sk_evenly_spaced_gradient_skx)
+_sk_evenly_spaced_gradient_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,8                            // mov           (%rax),%r9
+  .byte  76,139,64,8                         // mov           0x8(%rax),%r8
+  .byte  77,141,81,255                       // lea           -0x1(%r9),%r10
+  .byte  98,210,253,72,124,202               // vpbroadcastq  %r10,%zmm1
+  .byte  98,241,255,72,122,201               // vcvtuqq2ps    %zmm1,%ymm1
+  .byte  197,244,89,200                      // vmulps        %ymm0,%ymm1,%ymm1
+  .byte  197,126,91,209                      // vcvttps2dq    %ymm1,%ymm10
+  .byte  73,131,249,8                        // cmp           $0x8,%r9
+  .byte  119,73                              // ja            5cb0 <_sk_evenly_spaced_gradient_skx+0x70>
+  .byte  196,66,45,22,0                      // vpermps       (%r8),%ymm10,%ymm8
+  .byte  76,139,64,40                        // mov           0x28(%rax),%r8
+  .byte  196,66,45,22,8                      // vpermps       (%r8),%ymm10,%ymm9
+  .byte  76,139,64,16                        // mov           0x10(%rax),%r8
+  .byte  76,139,72,24                        // mov           0x18(%rax),%r9
+  .byte  196,194,45,22,8                     // vpermps       (%r8),%ymm10,%ymm1
+  .byte  76,139,64,48                        // mov           0x30(%rax),%r8
+  .byte  196,66,45,22,24                     // vpermps       (%r8),%ymm10,%ymm11
+  .byte  196,194,45,22,17                    // vpermps       (%r9),%ymm10,%ymm2
+  .byte  76,139,64,56                        // mov           0x38(%rax),%r8
+  .byte  196,66,45,22,32                     // vpermps       (%r8),%ymm10,%ymm12
+  .byte  76,139,64,32                        // mov           0x20(%rax),%r8
+  .byte  196,194,45,22,24                    // vpermps       (%r8),%ymm10,%ymm3
+  .byte  72,139,64,64                        // mov           0x40(%rax),%rax
+  .byte  196,98,45,22,40                     // vpermps       (%rax),%ymm10,%ymm13
+  .byte  233,147,0,0,0                       // jmpq          5d43 <_sk_evenly_spaced_gradient_skx+0x103>
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,2,117,146,4,144                 // vgatherdps    %ymm1,(%r8,%ymm10,4),%ymm8
+  .byte  76,139,64,40                        // mov           0x28(%rax),%r8
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  196,2,117,146,12,144                // vgatherdps    %ymm1,(%r8,%ymm10,4),%ymm9
+  .byte  76,139,64,16                        // mov           0x10(%rax),%r8
+  .byte  76,139,72,24                        // mov           0x18(%rax),%r9
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,130,109,146,12,144              // vgatherdps    %ymm2,(%r8,%ymm10,4),%ymm1
+  .byte  76,139,64,48                        // mov           0x30(%rax),%r8
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
+  .byte  196,2,109,146,28,144                // vgatherdps    %ymm2,(%r8,%ymm10,4),%ymm11
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,130,101,146,20,145              // vgatherdps    %ymm3,(%r9,%ymm10,4),%ymm2
+  .byte  76,139,64,56                        // mov           0x38(%rax),%r8
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
+  .byte  196,2,101,146,36,144                // vgatherdps    %ymm3,(%r8,%ymm10,4),%ymm12
+  .byte  196,65,13,118,246                   // vpcmpeqd      %ymm14,%ymm14,%ymm14
+  .byte  76,139,64,32                        // mov           0x20(%rax),%r8
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  196,130,21,146,28,144               // vgatherdps    %ymm13,(%r8,%ymm10,4),%ymm3
+  .byte  196,65,20,87,237                    // vxorps        %ymm13,%ymm13,%ymm13
+  .byte  72,139,64,64                        // mov           0x40(%rax),%rax
+  .byte  196,34,13,146,44,144                // vgatherdps    %ymm14,(%rax,%ymm10,4),%ymm13
+  .byte  196,66,125,168,193                  // vfmadd213ps   %ymm9,%ymm0,%ymm8
+  .byte  196,194,125,168,203                 // vfmadd213ps   %ymm11,%ymm0,%ymm1
+  .byte  196,194,125,168,212                 // vfmadd213ps   %ymm12,%ymm0,%ymm2
+  .byte  196,194,125,168,221                 // vfmadd213ps   %ymm13,%ymm0,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_gauss_a_to_rgba_skx
+.globl _sk_gauss_a_to_rgba_skx
+FUNCTION(_sk_gauss_a_to_rgba_skx)
+_sk_gauss_a_to_rgba_skx:
+  .byte  196,226,125,24,5,200,204,2,0        // vbroadcastss  0x2ccc8(%rip),%ymm0        # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  98,242,101,56,168,5,194,204,2,0     // vfmadd213ps   0x2ccc2(%rip){1to8},%ymm3,%ymm0        # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  98,242,101,56,168,5,188,204,2,0     // vfmadd213ps   0x2ccbc(%rip){1to8},%ymm3,%ymm0        # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+  .byte  98,242,101,56,168,5,182,204,2,0     // vfmadd213ps   0x2ccb6(%rip){1to8},%ymm3,%ymm0        # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+  .byte  98,242,101,56,168,5,176,204,2,0     // vfmadd213ps   0x2ccb0(%rip){1to8},%ymm3,%ymm0        # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
+  .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
+  .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_gradient_skx
+.globl _sk_gradient_skx
+FUNCTION(_sk_gradient_skx)
+_sk_gradient_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,139,0                            // mov           (%rax),%r8
+  .byte  73,131,248,1                        // cmp           $0x1,%r8
+  .byte  15,134,229,0,0,0                    // jbe           5e94 <_sk_gradient_skx+0xf4>
+  .byte  76,139,72,72                        // mov           0x48(%rax),%r9
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  65,186,1,0,0,0                      // mov           $0x1,%r10d
+  .byte  196,226,125,24,21,70,203,2,0        // vbroadcastss  0x2cb46(%rip),%ymm2        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+  .byte  196,65,53,239,201                   // vpxor         %ymm9,%ymm9,%ymm9
+  .byte  196,130,125,24,28,145               // vbroadcastss  (%r9,%r10,4),%ymm3
+  .byte  98,241,100,40,194,192,2             // vcmpleps      %ymm0,%ymm3,%k0
+  .byte  98,242,126,40,56,216                // vpmovm2d      %k0,%ymm3
+  .byte  196,227,117,74,218,48               // vblendvps     %ymm3,%ymm2,%ymm1,%ymm3
+  .byte  197,53,254,203                      // vpaddd        %ymm3,%ymm9,%ymm9
+  .byte  73,131,194,1                        // add           $0x1,%r10
+  .byte  77,57,208                           // cmp           %r10,%r8
+  .byte  117,218                             // jne           5dcb <_sk_gradient_skx+0x2b>
+  .byte  76,139,72,8                         // mov           0x8(%rax),%r9
+  .byte  73,131,248,8                        // cmp           $0x8,%r8
+  .byte  15,134,158,0,0,0                    // jbe           5e9d <_sk_gradient_skx+0xfd>
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,2,117,146,4,137                 // vgatherdps    %ymm1,(%r9,%ymm9,4),%ymm8
+  .byte  76,139,64,40                        // mov           0x28(%rax),%r8
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  196,2,117,146,20,136                // vgatherdps    %ymm1,(%r8,%ymm9,4),%ymm10
+  .byte  76,139,64,16                        // mov           0x10(%rax),%r8
+  .byte  76,139,72,24                        // mov           0x18(%rax),%r9
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,130,109,146,12,136              // vgatherdps    %ymm2,(%r8,%ymm9,4),%ymm1
+  .byte  76,139,64,48                        // mov           0x30(%rax),%r8
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
+  .byte  196,2,109,146,28,136                // vgatherdps    %ymm2,(%r8,%ymm9,4),%ymm11
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,130,101,146,20,137              // vgatherdps    %ymm3,(%r9,%ymm9,4),%ymm2
+  .byte  76,139,64,56                        // mov           0x38(%rax),%r8
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
+  .byte  196,2,101,146,36,136                // vgatherdps    %ymm3,(%r8,%ymm9,4),%ymm12
+  .byte  196,65,13,118,246                   // vpcmpeqd      %ymm14,%ymm14,%ymm14
+  .byte  76,139,64,32                        // mov           0x20(%rax),%r8
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  196,130,21,146,28,136               // vgatherdps    %ymm13,(%r8,%ymm9,4),%ymm3
+  .byte  196,65,20,87,237                    // vxorps        %ymm13,%ymm13,%ymm13
+  .byte  72,139,64,64                        // mov           0x40(%rax),%rax
+  .byte  196,34,13,146,44,136                // vgatherdps    %ymm14,(%rax,%ymm9,4),%ymm13
+  .byte  235,77                              // jmp           5ee1 <_sk_gradient_skx+0x141>
+  .byte  76,139,72,8                         // mov           0x8(%rax),%r9
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  196,66,53,22,1                      // vpermps       (%r9),%ymm9,%ymm8
+  .byte  76,139,64,40                        // mov           0x28(%rax),%r8
+  .byte  196,66,53,22,16                     // vpermps       (%r8),%ymm9,%ymm10
+  .byte  76,139,64,16                        // mov           0x10(%rax),%r8
+  .byte  76,139,72,24                        // mov           0x18(%rax),%r9
+  .byte  196,194,53,22,8                     // vpermps       (%r8),%ymm9,%ymm1
+  .byte  76,139,64,48                        // mov           0x30(%rax),%r8
+  .byte  196,66,53,22,24                     // vpermps       (%r8),%ymm9,%ymm11
+  .byte  196,194,53,22,17                    // vpermps       (%r9),%ymm9,%ymm2
+  .byte  76,139,64,56                        // mov           0x38(%rax),%r8
+  .byte  196,66,53,22,32                     // vpermps       (%r8),%ymm9,%ymm12
+  .byte  76,139,64,32                        // mov           0x20(%rax),%r8
+  .byte  196,194,53,22,24                    // vpermps       (%r8),%ymm9,%ymm3
+  .byte  72,139,64,64                        // mov           0x40(%rax),%rax
+  .byte  196,98,53,22,40                     // vpermps       (%rax),%ymm9,%ymm13
+  .byte  196,66,125,168,194                  // vfmadd213ps   %ymm10,%ymm0,%ymm8
+  .byte  196,194,125,168,203                 // vfmadd213ps   %ymm11,%ymm0,%ymm1
+  .byte  196,194,125,168,212                 // vfmadd213ps   %ymm12,%ymm0,%ymm2
+  .byte  196,194,125,168,221                 // vfmadd213ps   %ymm13,%ymm0,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_evenly_spaced_2_stop_gradient_skx
+.globl _sk_evenly_spaced_2_stop_gradient_skx
+FUNCTION(_sk_evenly_spaced_2_stop_gradient_skx)
+_sk_evenly_spaced_2_stop_gradient_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
+  .byte  98,114,125,56,168,64,4              // vfmadd213ps   0x10(%rax){1to8},%ymm0,%ymm8
+  .byte  196,226,125,24,72,4                 // vbroadcastss  0x4(%rax),%ymm1
+  .byte  98,242,125,56,168,72,5              // vfmadd213ps   0x14(%rax){1to8},%ymm0,%ymm1
+  .byte  196,226,125,24,80,8                 // vbroadcastss  0x8(%rax),%ymm2
+  .byte  98,242,125,56,168,80,6              // vfmadd213ps   0x18(%rax){1to8},%ymm0,%ymm2
+  .byte  196,226,125,24,88,12                // vbroadcastss  0xc(%rax),%ymm3
+  .byte  98,242,125,56,168,88,7              // vfmadd213ps   0x1c(%rax){1to8},%ymm0,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,192                      // vmovaps       %ymm8,%ymm0
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xy_to_unit_angle_skx
+.globl _sk_xy_to_unit_angle_skx
+FUNCTION(_sk_xy_to_unit_angle_skx)
+_sk_xy_to_unit_angle_skx:
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,60,92,200                       // vsubps        %ymm0,%ymm8,%ymm9
+  .byte  197,52,84,200                       // vandps        %ymm0,%ymm9,%ymm9
+  .byte  197,60,92,209                       // vsubps        %ymm1,%ymm8,%ymm10
+  .byte  197,44,84,209                       // vandps        %ymm1,%ymm10,%ymm10
+  .byte  196,65,52,93,218                    // vminps        %ymm10,%ymm9,%ymm11
+  .byte  196,65,52,95,226                    // vmaxps        %ymm10,%ymm9,%ymm12
+  .byte  196,65,36,94,220                    // vdivps        %ymm12,%ymm11,%ymm11
+  .byte  196,65,36,89,227                    // vmulps        %ymm11,%ymm11,%ymm12
+  .byte  196,98,125,24,45,216,202,2,0        // vbroadcastss  0x2cad8(%rip),%ymm13        # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+  .byte  98,114,29,56,168,45,210,202,2,0     // vfmadd213ps   0x2cad2(%rip){1to8},%ymm12,%ymm13        # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+  .byte  98,114,29,56,168,45,204,202,2,0     // vfmadd213ps   0x2cacc(%rip){1to8},%ymm12,%ymm13        # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+  .byte  98,114,29,56,168,45,198,202,2,0     // vfmadd213ps   0x2cac6(%rip){1to8},%ymm12,%ymm13        # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+  .byte  196,65,36,89,221                    // vmulps        %ymm13,%ymm11,%ymm11
+  .byte  98,209,52,40,194,194,1              // vcmpltps      %ymm10,%ymm9,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,98,125,24,21,175,202,2,0        // vbroadcastss  0x2caaf(%rip),%ymm10        # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+  .byte  196,65,44,92,211                    // vsubps        %ymm11,%ymm10,%ymm10
+  .byte  196,67,37,74,202,144                // vblendvps     %ymm9,%ymm10,%ymm11,%ymm9
+  .byte  98,209,124,40,194,192,1             // vcmpltps      %ymm8,%ymm0,%k0
+  .byte  98,242,126,40,56,192                // vpmovm2d      %k0,%ymm0
+  .byte  196,98,125,24,21,62,201,2,0         // vbroadcastss  0x2c93e(%rip),%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,65,44,92,209                    // vsubps        %ymm9,%ymm10,%ymm10
+  .byte  196,195,53,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm9,%ymm0
+  .byte  98,209,116,40,194,192,1             // vcmpltps      %ymm8,%ymm1,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,98,125,24,21,33,201,2,0         // vbroadcastss  0x2c921(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,44,92,208                       // vsubps        %ymm0,%ymm10,%ymm10
+  .byte  196,195,125,74,194,144              // vblendvps     %ymm9,%ymm10,%ymm0,%ymm0
+  .byte  98,209,124,40,194,192,3             // vcmpunordps   %ymm8,%ymm0,%k0
+  .byte  98,114,126,40,56,200                // vpmovm2d      %k0,%ymm9
+  .byte  196,195,125,74,192,144              // vblendvps     %ymm9,%ymm8,%ymm0,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xy_to_radius_skx
+.globl _sk_xy_to_radius_skx
+FUNCTION(_sk_xy_to_radius_skx)
+_sk_xy_to_radius_skx:
+  .byte  197,116,89,193                      // vmulps        %ymm1,%ymm1,%ymm8
+  .byte  196,98,125,184,192                  // vfmadd231ps   %ymm0,%ymm0,%ymm8
+  .byte  196,193,124,81,192                  // vsqrtps       %ymm8,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_quadratic_max_skx
+.globl _sk_xy_to_2pt_conical_quadratic_max_skx
+FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_skx)
+_sk_xy_to_2pt_conical_quadratic_max_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,64,32                 // vbroadcastss  0x20(%rax),%ymm8
+  .byte  197,122,16,72,40                    // vmovss        0x28(%rax),%xmm9
+  .byte  197,50,89,80,44                     // vmulss        0x2c(%rax),%xmm9,%xmm10
+  .byte  196,66,125,24,210                   // vbroadcastss  %xmm10,%ymm10
+  .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
+  .byte  98,113,44,56,89,21,25,202,2,0       // vmulps        0x2ca19(%rip){1to8},%ymm10,%ymm10        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+  .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
+  .byte  196,98,125,184,216                  // vfmadd231ps   %ymm0,%ymm0,%ymm11
+  .byte  196,193,50,89,193                   // vmulss        %xmm9,%xmm9,%xmm0
+  .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
+  .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
+  .byte  98,113,60,56,89,5,252,201,2,0       // vmulps        0x2c9fc(%rip){1to8},%ymm8,%ymm8        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,194,45,184,194                  // vfmadd231ps   %ymm10,%ymm10,%ymm0
+  .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
+  .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
+  .byte  98,113,44,56,87,13,227,201,2,0      // vxorps        0x2c9e3(%rip){1to8},%ymm10,%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+  .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
+  .byte  98,113,60,56,89,5,120,200,2,0       // vmulps        0x2c878(%rip){1to8},%ymm8,%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,65,44,89,208                    // vmulps        %ymm8,%ymm10,%ymm10
+  .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  197,172,95,192                      // vmaxps        %ymm0,%ymm10,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_quadratic_min_skx
+.globl _sk_xy_to_2pt_conical_quadratic_min_skx
+FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_skx)
+_sk_xy_to_2pt_conical_quadratic_min_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,64,32                 // vbroadcastss  0x20(%rax),%ymm8
+  .byte  197,122,16,72,40                    // vmovss        0x28(%rax),%xmm9
+  .byte  197,50,89,80,44                     // vmulss        0x2c(%rax),%xmm9,%xmm10
+  .byte  196,66,125,24,210                   // vbroadcastss  %xmm10,%ymm10
+  .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
+  .byte  98,113,44,56,89,21,145,201,2,0      // vmulps        0x2c991(%rip){1to8},%ymm10,%ymm10        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+  .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
+  .byte  196,98,125,184,216                  // vfmadd231ps   %ymm0,%ymm0,%ymm11
+  .byte  196,193,50,89,193                   // vmulss        %xmm9,%xmm9,%xmm0
+  .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
+  .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
+  .byte  98,113,60,56,89,5,116,201,2,0       // vmulps        0x2c974(%rip){1to8},%ymm8,%ymm8        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
+  .byte  196,194,45,184,194                  // vfmadd231ps   %ymm10,%ymm10,%ymm0
+  .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
+  .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
+  .byte  98,113,44,56,87,13,91,201,2,0       // vxorps        0x2c95b(%rip){1to8},%ymm10,%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+  .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
+  .byte  98,113,60,56,89,5,240,199,2,0       // vmulps        0x2c7f0(%rip){1to8},%ymm8,%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,65,44,89,208                    // vmulps        %ymm8,%ymm10,%ymm10
+  .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
+  .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
+  .byte  197,172,93,192                      // vminps        %ymm0,%ymm10,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_linear_skx
+.globl _sk_xy_to_2pt_conical_linear_skx
+FUNCTION(_sk_xy_to_2pt_conical_linear_skx)
+_sk_xy_to_2pt_conical_linear_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,122,16,64,40                    // vmovss        0x28(%rax),%xmm8
+  .byte  197,58,89,72,44                     // vmulss        0x2c(%rax),%xmm8,%xmm9
+  .byte  196,66,125,24,201                   // vbroadcastss  %xmm9,%ymm9
+  .byte  197,52,88,200                       // vaddps        %ymm0,%ymm9,%ymm9
+  .byte  98,113,52,56,89,13,15,201,2,0       // vmulps        0x2c90f(%rip){1to8},%ymm9,%ymm9        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+  .byte  197,116,89,209                      // vmulps        %ymm1,%ymm1,%ymm10
+  .byte  196,98,125,184,208                  // vfmadd231ps   %ymm0,%ymm0,%ymm10
+  .byte  196,193,58,89,192                   // vmulss        %xmm8,%xmm8,%xmm0
+  .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
+  .byte  197,172,92,192                      // vsubps        %ymm0,%ymm10,%ymm0
+  .byte  98,241,124,56,87,5,246,200,2,0      // vxorps        0x2c8f6(%rip){1to8},%ymm0,%ymm0        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+  .byte  196,193,124,94,193                  // vdivps        %ymm9,%ymm0,%ymm0
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_mask_2pt_conical_degenerates_skx
+.globl _sk_mask_2pt_conical_degenerates_skx
+FUNCTION(_sk_mask_2pt_conical_degenerates_skx)
+_sk_mask_2pt_conical_degenerates_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,64,44                 // vbroadcastss  0x2c(%rax),%ymm8
+  .byte  98,114,125,56,168,64,10             // vfmadd213ps   0x28(%rax){1to8},%ymm0,%ymm8
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  98,209,60,40,194,193,1              // vcmpltps      %ymm9,%ymm8,%k0
+  .byte  98,209,124,40,194,201,3             // vcmpunordps   %ymm9,%ymm0,%k1
+  .byte  197,253,69,193                      // korb          %k1,%k0,%k0
+  .byte  98,114,126,40,56,192                // vpmovm2d      %k0,%ymm8
+  .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,67,45,74,193,128                // vblendvps     %ymm8,%ymm9,%ymm10,%ymm8
+  .byte  197,124,17,0                        // vmovups       %ymm8,(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_apply_vector_mask_skx
+.globl _sk_apply_vector_mask_skx
+FUNCTION(_sk_apply_vector_mask_skx)
+_sk_apply_vector_mask_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,16,0                        // vmovups       (%rax),%ymm8
+  .byte  197,188,84,192                      // vandps        %ymm0,%ymm8,%ymm0
+  .byte  197,188,84,201                      // vandps        %ymm1,%ymm8,%ymm1
+  .byte  197,188,84,210                      // vandps        %ymm2,%ymm8,%ymm2
+  .byte  197,188,84,219                      // vandps        %ymm3,%ymm8,%ymm3
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_save_xy_skx
+.globl _sk_save_xy_skx
+FUNCTION(_sk_save_xy_skx)
+_sk_save_xy_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,5,39,199,2,0          // vbroadcastss  0x2c727(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,65,124,88,200                   // vaddps        %ymm8,%ymm0,%ymm9
+  .byte  196,67,125,8,209,1                  // vroundps      $0x1,%ymm9,%ymm10
+  .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
+  .byte  196,65,116,88,192                   // vaddps        %ymm8,%ymm1,%ymm8
+  .byte  196,67,125,8,208,1                  // vroundps      $0x1,%ymm8,%ymm10
+  .byte  196,65,60,92,194                    // vsubps        %ymm10,%ymm8,%ymm8
+  .byte  197,252,17,0                        // vmovups       %ymm0,(%rax)
+  .byte  197,252,17,72,32                    // vmovups       %ymm1,0x20(%rax)
+  .byte  197,124,17,72,64                    // vmovups       %ymm9,0x40(%rax)
+  .byte  197,124,17,64,96                    // vmovups       %ymm8,0x60(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_accumulate_skx
+.globl _sk_accumulate_skx
+FUNCTION(_sk_accumulate_skx)
+_sk_accumulate_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,16,128,128,0,0,0            // vmovups       0x80(%rax),%ymm8
+  .byte  197,60,89,128,160,0,0,0             // vmulps        0xa0(%rax),%ymm8,%ymm8
+  .byte  196,226,61,184,224                  // vfmadd231ps   %ymm0,%ymm8,%ymm4
+  .byte  196,226,61,184,233                  // vfmadd231ps   %ymm1,%ymm8,%ymm5
+  .byte  196,226,61,184,242                  // vfmadd231ps   %ymm2,%ymm8,%ymm6
+  .byte  196,98,101,168,199                  // vfmadd213ps   %ymm7,%ymm3,%ymm8
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,124,41,199                      // vmovaps       %ymm8,%ymm7
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bilinear_nx_skx
+.globl _sk_bilinear_nx_skx
+FUNCTION(_sk_bilinear_nx_skx)
+_sk_bilinear_nx_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  98,241,124,56,88,5,18,200,2,0       // vaddps        0x2c812(%rip){1to8},%ymm0,%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+  .byte  196,98,125,24,5,173,198,2,0         // vbroadcastss  0x2c6ad(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
+  .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bilinear_px_skx
+.globl _sk_bilinear_px_skx
+FUNCTION(_sk_bilinear_px_skx)
+_sk_bilinear_px_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
+  .byte  98,241,124,56,88,5,131,198,2,0      // vaddps        0x2c683(%rip){1to8},%ymm0,%ymm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bilinear_ny_skx
+.globl _sk_bilinear_ny_skx
+FUNCTION(_sk_bilinear_ny_skx)
+_sk_bilinear_ny_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  98,241,116,56,88,13,198,199,2,0     // vaddps        0x2c7c6(%rip){1to8},%ymm1,%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+  .byte  196,98,125,24,5,97,198,2,0          // vbroadcastss  0x2c661(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
+  .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bilinear_py_skx
+.globl _sk_bilinear_py_skx
+FUNCTION(_sk_bilinear_py_skx)
+_sk_bilinear_py_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
+  .byte  98,241,116,56,88,13,54,198,2,0      // vaddps        0x2c636(%rip){1to8},%ymm1,%ymm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_n3x_skx
+.globl _sk_bicubic_n3x_skx
+FUNCTION(_sk_bicubic_n3x_skx)
+_sk_bicubic_n3x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  98,241,124,56,88,5,126,199,2,0      // vaddps        0x2c77e(%rip){1to8},%ymm0,%ymm0        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+  .byte  196,98,125,24,5,21,198,2,0          // vbroadcastss  0x2c615(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
+  .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
+  .byte  196,98,125,24,21,102,199,2,0        // vbroadcastss  0x2c766(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  98,114,61,56,168,21,104,198,2,0     // vfmadd213ps   0x2c668(%rip){1to8},%ymm8,%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,65,44,89,193                    // vmulps        %ymm9,%ymm10,%ymm8
+  .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_n1x_skx
+.globl _sk_bicubic_n1x_skx
+FUNCTION(_sk_bicubic_n1x_skx)
+_sk_bicubic_n1x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  98,241,124,56,88,5,51,199,2,0       // vaddps        0x2c733(%rip){1to8},%ymm0,%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+  .byte  196,98,125,24,5,206,197,2,0         // vbroadcastss  0x2c5ce(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
+  .byte  196,98,125,24,13,40,199,2,0         // vbroadcastss  0x2c728(%rip),%ymm9        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+  .byte  98,114,61,56,168,13,34,199,2,0      // vfmadd213ps   0x2c722(%rip){1to8},%ymm8,%ymm9        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  98,114,61,56,168,13,168,197,2,0     // vfmadd213ps   0x2c5a8(%rip){1to8},%ymm8,%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,61,56,168,13,18,199,2,0      // vfmadd213ps   0x2c712(%rip){1to8},%ymm8,%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+  .byte  197,124,17,136,128,0,0,0            // vmovups       %ymm9,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_p1x_skx
+.globl _sk_bicubic_p1x_skx
+FUNCTION(_sk_bicubic_p1x_skx)
+_sk_bicubic_p1x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,5,135,197,2,0         // vbroadcastss  0x2c587(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  197,188,88,0                        // vaddps        (%rax),%ymm8,%ymm0
+  .byte  197,124,16,72,64                    // vmovups       0x40(%rax),%ymm9
+  .byte  196,98,125,24,21,225,198,2,0        // vbroadcastss  0x2c6e1(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+  .byte  98,114,53,56,168,21,219,198,2,0     // vfmadd213ps   0x2c6db(%rip){1to8},%ymm9,%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,66,53,168,208                   // vfmadd213ps   %ymm8,%ymm9,%ymm10
+  .byte  98,114,53,56,168,21,208,198,2,0     // vfmadd213ps   0x2c6d0(%rip){1to8},%ymm9,%ymm10        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+  .byte  197,124,17,144,128,0,0,0            // vmovups       %ymm10,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_p3x_skx
+.globl _sk_bicubic_p3x_skx
+FUNCTION(_sk_bicubic_p3x_skx)
+_sk_bicubic_p3x_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,0                        // vmovups       (%rax),%ymm0
+  .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
+  .byte  98,241,124,56,88,5,171,198,2,0      // vaddps        0x2c6ab(%rip){1to8},%ymm0,%ymm0        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
+  .byte  196,98,125,24,21,149,198,2,0        // vbroadcastss  0x2c695(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  98,114,61,56,168,21,151,197,2,0     // vfmadd213ps   0x2c597(%rip){1to8},%ymm8,%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,65,52,89,194                    // vmulps        %ymm10,%ymm9,%ymm8
+  .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_n3y_skx
+.globl _sk_bicubic_n3y_skx
+FUNCTION(_sk_bicubic_n3y_skx)
+_sk_bicubic_n3y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  98,241,116,56,88,13,101,198,2,0     // vaddps        0x2c665(%rip){1to8},%ymm1,%ymm1        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+  .byte  196,98,125,24,5,252,196,2,0         // vbroadcastss  0x2c4fc(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
+  .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
+  .byte  196,98,125,24,21,77,198,2,0         // vbroadcastss  0x2c64d(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  98,114,61,56,168,21,79,197,2,0      // vfmadd213ps   0x2c54f(%rip){1to8},%ymm8,%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,65,44,89,193                    // vmulps        %ymm9,%ymm10,%ymm8
+  .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_n1y_skx
+.globl _sk_bicubic_n1y_skx
+FUNCTION(_sk_bicubic_n1y_skx)
+_sk_bicubic_n1y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  98,241,116,56,88,13,25,198,2,0      // vaddps        0x2c619(%rip){1to8},%ymm1,%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+  .byte  196,98,125,24,5,180,196,2,0         // vbroadcastss  0x2c4b4(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
+  .byte  196,98,125,24,13,14,198,2,0         // vbroadcastss  0x2c60e(%rip),%ymm9        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+  .byte  98,114,61,56,168,13,8,198,2,0       // vfmadd213ps   0x2c608(%rip){1to8},%ymm8,%ymm9        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  98,114,61,56,168,13,142,196,2,0     // vfmadd213ps   0x2c48e(%rip){1to8},%ymm8,%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  98,114,61,56,168,13,248,197,2,0     // vfmadd213ps   0x2c5f8(%rip){1to8},%ymm8,%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+  .byte  197,124,17,136,160,0,0,0            // vmovups       %ymm9,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_p1y_skx
+.globl _sk_bicubic_p1y_skx
+FUNCTION(_sk_bicubic_p1y_skx)
+_sk_bicubic_p1y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,98,125,24,5,109,196,2,0         // vbroadcastss  0x2c46d(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  197,188,88,72,32                    // vaddps        0x20(%rax),%ymm8,%ymm1
+  .byte  197,124,16,72,96                    // vmovups       0x60(%rax),%ymm9
+  .byte  196,98,125,24,21,198,197,2,0        // vbroadcastss  0x2c5c6(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+  .byte  98,114,53,56,168,21,192,197,2,0     // vfmadd213ps   0x2c5c0(%rip){1to8},%ymm9,%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,66,53,168,208                   // vfmadd213ps   %ymm8,%ymm9,%ymm10
+  .byte  98,114,53,56,168,21,181,197,2,0     // vfmadd213ps   0x2c5b5(%rip){1to8},%ymm9,%ymm10        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+  .byte  197,124,17,144,160,0,0,0            // vmovups       %ymm10,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_bicubic_p3y_skx
+.globl _sk_bicubic_p3y_skx
+FUNCTION(_sk_bicubic_p3y_skx)
+_sk_bicubic_p3y_skx:
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  197,252,16,72,32                    // vmovups       0x20(%rax),%ymm1
+  .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
+  .byte  98,241,116,56,88,13,143,197,2,0     // vaddps        0x2c58f(%rip){1to8},%ymm1,%ymm1        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
+  .byte  196,98,125,24,21,121,197,2,0        // vbroadcastss  0x2c579(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  98,114,61,56,168,21,123,196,2,0     // vfmadd213ps   0x2c47b(%rip){1to8},%ymm8,%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,65,52,89,194                    // vmulps        %ymm10,%ymm9,%ymm8
+  .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_callback_skx
+.globl _sk_callback_skx
+FUNCTION(_sk_callback_skx)
+_sk_callback_skx:
+  .byte  85                                  // push          %rbp
+  .byte  72,137,229                          // mov           %rsp,%rbp
+  .byte  65,87                               // push          %r15
+  .byte  65,86                               // push          %r14
+  .byte  65,85                               // push          %r13
+  .byte  65,84                               // push          %r12
+  .byte  83                                  // push          %rbx
+  .byte  72,131,228,224                      // and           $0xffffffffffffffe0,%rsp
+  .byte  72,129,236,160,0,0,0                // sub           $0xa0,%rsp
+  .byte  197,252,41,124,36,96                // vmovaps       %ymm7,0x60(%rsp)
+  .byte  197,252,41,116,36,64                // vmovaps       %ymm6,0x40(%rsp)
+  .byte  197,252,41,108,36,32                // vmovaps       %ymm5,0x20(%rsp)
+  .byte  197,252,41,36,36                    // vmovaps       %ymm4,(%rsp)
+  .byte  73,137,206                          // mov           %rcx,%r14
+  .byte  73,137,215                          // mov           %rdx,%r15
+  .byte  73,137,253                          // mov           %rdi,%r13
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  72,137,195                          // mov           %rax,%rbx
+  .byte  73,137,244                          // mov           %rsi,%r12
+  .byte  197,252,20,225                      // vunpcklps     %ymm1,%ymm0,%ymm4
+  .byte  197,252,21,193                      // vunpckhps     %ymm1,%ymm0,%ymm0
+  .byte  197,236,20,203                      // vunpcklps     %ymm3,%ymm2,%ymm1
+  .byte  197,236,21,211                      // vunpckhps     %ymm3,%ymm2,%ymm2
+  .byte  197,221,20,217                      // vunpcklpd     %ymm1,%ymm4,%ymm3
+  .byte  197,221,21,201                      // vunpckhpd     %ymm1,%ymm4,%ymm1
+  .byte  197,253,20,226                      // vunpcklpd     %ymm2,%ymm0,%ymm4
+  .byte  197,253,21,194                      // vunpckhpd     %ymm2,%ymm0,%ymm0
+  .byte  196,227,101,24,209,1                // vinsertf128   $0x1,%xmm1,%ymm3,%ymm2
+  .byte  196,227,93,24,232,1                 // vinsertf128   $0x1,%xmm0,%ymm4,%ymm5
+  .byte  196,227,101,6,201,49                // vperm2f128    $0x31,%ymm1,%ymm3,%ymm1
+  .byte  196,227,93,6,192,49                 // vperm2f128    $0x31,%ymm0,%ymm4,%ymm0
+  .byte  197,253,17,83,8                     // vmovupd       %ymm2,0x8(%rbx)
+  .byte  197,253,17,107,40                   // vmovupd       %ymm5,0x28(%rbx)
+  .byte  197,253,17,75,72                    // vmovupd       %ymm1,0x48(%rbx)
+  .byte  197,253,17,67,104                   // vmovupd       %ymm0,0x68(%rbx)
+  .byte  77,133,237                          // test          %r13,%r13
+  .byte  190,8,0,0,0                         // mov           $0x8,%esi
+  .byte  65,15,69,245                        // cmovne        %r13d,%esi
+  .byte  72,137,223                          // mov           %rbx,%rdi
+  .byte  197,248,119                         // vzeroupper
+  .byte  255,19                              // callq         *(%rbx)
+  .byte  72,139,131,136,0,0,0                // mov           0x88(%rbx),%rax
+  .byte  197,248,16,0                        // vmovups       (%rax),%xmm0
+  .byte  197,248,16,72,16                    // vmovups       0x10(%rax),%xmm1
+  .byte  197,248,16,80,32                    // vmovups       0x20(%rax),%xmm2
+  .byte  197,248,16,88,48                    // vmovups       0x30(%rax),%xmm3
+  .byte  196,227,101,24,88,112,1             // vinsertf128   $0x1,0x70(%rax),%ymm3,%ymm3
+  .byte  196,227,109,24,80,96,1              // vinsertf128   $0x1,0x60(%rax),%ymm2,%ymm2
+  .byte  196,227,117,24,72,80,1              // vinsertf128   $0x1,0x50(%rax),%ymm1,%ymm1
+  .byte  196,227,125,24,64,64,1              // vinsertf128   $0x1,0x40(%rax),%ymm0,%ymm0
+  .byte  197,252,20,225                      // vunpcklps     %ymm1,%ymm0,%ymm4
+  .byte  197,252,21,233                      // vunpckhps     %ymm1,%ymm0,%ymm5
+  .byte  197,236,20,203                      // vunpcklps     %ymm3,%ymm2,%ymm1
+  .byte  197,236,21,219                      // vunpckhps     %ymm3,%ymm2,%ymm3
+  .byte  197,221,20,193                      // vunpcklpd     %ymm1,%ymm4,%ymm0
+  .byte  197,221,21,201                      // vunpckhpd     %ymm1,%ymm4,%ymm1
+  .byte  197,213,20,211                      // vunpcklpd     %ymm3,%ymm5,%ymm2
+  .byte  197,213,21,219                      // vunpckhpd     %ymm3,%ymm5,%ymm3
+  .byte  76,137,230                          // mov           %r12,%rsi
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  76,137,239                          // mov           %r13,%rdi
+  .byte  76,137,250                          // mov           %r15,%rdx
+  .byte  76,137,241                          // mov           %r14,%rcx
+  .byte  197,252,40,36,36                    // vmovaps       (%rsp),%ymm4
+  .byte  197,252,40,108,36,32                // vmovaps       0x20(%rsp),%ymm5
+  .byte  197,252,40,116,36,64                // vmovaps       0x40(%rsp),%ymm6
+  .byte  197,252,40,124,36,96                // vmovaps       0x60(%rsp),%ymm7
+  .byte  72,141,101,216                      // lea           -0x28(%rbp),%rsp
+  .byte  91                                  // pop           %rbx
+  .byte  65,92                               // pop           %r12
+  .byte  65,93                               // pop           %r13
+  .byte  65,94                               // pop           %r14
+  .byte  65,95                               // pop           %r15
+  .byte  93                                  // pop           %rbp
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clut_3D_skx
+.globl _sk_clut_3D_skx
+FUNCTION(_sk_clut_3D_skx)
+_sk_clut_3D_skx:
+  .byte  72,129,236,24,1,0,0                 // sub           $0x118,%rsp
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,139,64,16                        // mov           0x10(%rax),%r8d
+  .byte  69,141,72,255                       // lea           -0x1(%r8),%r9d
+  .byte  98,82,125,40,124,193                // vpbroadcastd  %r9d,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,210                      // vmulps        %ymm2,%ymm8,%ymm2
+  .byte  197,126,91,210                      // vcvttps2dq    %ymm2,%ymm10
+  .byte  197,124,40,242                      // vmovaps       %ymm2,%ymm14
+  .byte  197,124,17,116,36,224               // vmovups       %ymm14,-0x20(%rsp)
+  .byte  196,65,121,110,192                  // vmovd         %r8d,%xmm8
+  .byte  98,210,125,40,124,208               // vpbroadcastd  %r8d,%ymm2
+  .byte  68,139,64,12                        // mov           0xc(%rax),%r8d
+  .byte  69,141,72,255                       // lea           -0x1(%r8),%r9d
+  .byte  98,82,125,40,124,201                // vpbroadcastd  %r9d,%ymm9
+  .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
+  .byte  98,97,52,40,89,225                  // vmulps        %ymm1,%ymm9,%ymm28
+  .byte  98,145,126,40,91,204                // vcvttps2dq    %ymm28,%ymm1
+  .byte  197,254,127,140,36,128,0,0,0        // vmovdqu       %ymm1,0x80(%rsp)
+  .byte  98,98,109,40,64,201                 // vpmulld       %ymm1,%ymm2,%ymm25
+  .byte  98,81,53,32,254,202                 // vpaddd        %ymm10,%ymm25,%ymm9
+  .byte  196,65,125,111,250                  // vmovdqa       %ymm10,%ymm15
+  .byte  197,126,127,124,36,160              // vmovdqu       %ymm15,-0x60(%rsp)
+  .byte  196,193,121,110,200                 // vmovd         %r8d,%xmm1
+  .byte  196,194,117,64,200                  // vpmulld       %ymm8,%ymm1,%ymm1
+  .byte  196,98,125,88,193                   // vpbroadcastd  %xmm1,%ymm8
+  .byte  68,139,64,8                         // mov           0x8(%rax),%r8d
+  .byte  65,131,192,255                      // add           $0xffffffff,%r8d
+  .byte  98,210,125,40,124,200               // vpbroadcastd  %r8d,%ymm1
+  .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
+  .byte  98,97,116,40,89,192                 // vmulps        %ymm0,%ymm1,%ymm24
+  .byte  98,145,126,40,91,192                // vcvttps2dq    %ymm24,%ymm0
+  .byte  197,254,127,68,36,128               // vmovdqu       %ymm0,-0x80(%rsp)
+  .byte  98,226,61,40,64,224                 // vpmulld       %ymm0,%ymm8,%ymm20
+  .byte  98,209,93,32,254,193                // vpaddd        %ymm9,%ymm20,%ymm0
+  .byte  72,139,0                            // mov           (%rax),%rax
+  .byte  98,98,125,40,88,29,131,195,2,0      // vpbroadcastd  0x2c383(%rip),%ymm27        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+  .byte  98,146,125,40,64,195                // vpmulld       %ymm27,%ymm0,%ymm0
+  .byte  196,65,45,239,210                   // vpxor         %ymm10,%ymm10,%ymm10
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,98,117,146,20,128               // vgatherdps    %ymm1,(%rax,%ymm0,4),%ymm10
+  .byte  98,193,124,40,40,210                // vmovaps       %ymm10,%ymm18
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  197,125,250,209                     // vpsubd        %ymm1,%ymm0,%ymm10
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,162,37,146,12,144               // vgatherdps    %ymm11,(%rax,%ymm10,4),%ymm1
+  .byte  98,97,124,40,40,233                 // vmovaps       %ymm1,%ymm29
+  .byte  196,98,125,24,21,57,195,2,0         // vbroadcastss  0x2c339(%rip),%ymm10        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+  .byte  98,81,60,32,88,218                  // vaddps        %ymm10,%ymm24,%ymm11
+  .byte  98,226,125,40,88,5,193,193,2,0      // vpbroadcastd  0x2c1c1(%rip),%ymm16        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+  .byte  98,177,125,40,254,192               // vpaddd        %ymm16,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,226,29,146,12,128               // vgatherdps    %ymm12,(%rax,%ymm0,4),%ymm1
+  .byte  98,97,124,40,40,241                 // vmovaps       %ymm1,%ymm30
+  .byte  196,193,126,91,195                  // vcvttps2dq    %ymm11,%ymm0
+  .byte  98,226,61,40,64,232                 // vpmulld       %ymm0,%ymm8,%ymm21
+  .byte  98,209,85,32,254,193                // vpaddd        %ymm9,%ymm21,%ymm0
+  .byte  98,146,125,40,64,195                // vpmulld       %ymm27,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,12,128               // vgatherdps    %ymm8,(%rax,%ymm0,4),%ymm1
+  .byte  197,252,17,140,36,224,0,0,0         // vmovups       %ymm1,0xe0(%rsp)
+  .byte  196,65,125,250,197                  // vpsubd        %ymm13,%ymm0,%ymm8
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,12,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm1
+  .byte  197,252,17,140,36,192,0,0,0         // vmovups       %ymm1,0xc0(%rsp)
+  .byte  98,81,28,32,88,194                  // vaddps        %ymm10,%ymm28,%ymm8
+  .byte  196,65,126,91,192                   // vcvttps2dq    %ymm8,%ymm8
+  .byte  98,177,125,40,254,192               // vpaddd        %ymm16,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,226,53,146,12,128               // vgatherdps    %ymm9,(%rax,%ymm0,4),%ymm1
+  .byte  197,252,17,140,36,160,0,0,0         // vmovups       %ymm1,0xa0(%rsp)
+  .byte  98,66,109,40,64,208                 // vpmulld       %ymm8,%ymm2,%ymm26
+  .byte  98,209,45,32,254,199                // vpaddd        %ymm15,%ymm26,%ymm0
+  .byte  98,177,125,40,254,212               // vpaddd        %ymm20,%ymm0,%ymm2
+  .byte  98,146,109,40,64,211                // vpmulld       %ymm27,%ymm2,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,12,144               // vgatherdps    %ymm8,(%rax,%ymm2,4),%ymm1
+  .byte  197,252,17,76,36,96                 // vmovups       %ymm1,0x60(%rsp)
+  .byte  196,65,109,250,197                  // vpsubd        %ymm13,%ymm2,%ymm8
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,12,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm1
+  .byte  197,252,17,76,36,64                 // vmovups       %ymm1,0x40(%rsp)
+  .byte  98,177,109,40,254,208               // vpaddd        %ymm16,%ymm2,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,12,144               // vgatherdps    %ymm8,(%rax,%ymm2,4),%ymm1
+  .byte  197,252,17,76,36,32                 // vmovups       %ymm1,0x20(%rsp)
+  .byte  98,241,85,32,254,192                // vpaddd        %ymm0,%ymm21,%ymm0
+  .byte  98,146,125,40,64,195                // vpmulld       %ymm27,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,12,128              // vgatherdps    %ymm2,(%rax,%ymm0,4),%ymm1
+  .byte  197,252,17,12,36                    // vmovups       %ymm1,(%rsp)
+  .byte  196,193,125,250,213                 // vpsubd        %ymm13,%ymm0,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,12,144               // vgatherdps    %ymm8,(%rax,%ymm2,4),%ymm1
+  .byte  197,252,17,76,36,192                // vmovups       %ymm1,-0x40(%rsp)
+  .byte  98,177,125,40,254,192               // vpaddd        %ymm16,%ymm0,%ymm0
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,12,128              // vgatherdps    %ymm2,(%rax,%ymm0,4),%ymm1
+  .byte  98,97,124,40,40,249                 // vmovaps       %ymm1,%ymm31
+  .byte  196,193,12,88,194                   // vaddps        %ymm10,%ymm14,%ymm0
+  .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
+  .byte  98,113,53,32,254,208                // vpaddd        %ymm0,%ymm25,%ymm10
+  .byte  98,209,93,32,254,210                // vpaddd        %ymm10,%ymm20,%ymm2
+  .byte  98,146,109,40,64,211                // vpmulld       %ymm27,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,98,53,146,4,144                 // vgatherdps    %ymm9,(%rax,%ymm2,4),%ymm8
+  .byte  196,65,109,250,221                  // vpsubd        %ymm13,%ymm2,%ymm11
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,34,29,146,12,152                // vgatherdps    %ymm12,(%rax,%ymm11,4),%ymm9
+  .byte  98,49,109,40,254,216                // vpaddd        %ymm16,%ymm2,%ymm11
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,162,29,146,12,152               // vgatherdps    %ymm12,(%rax,%ymm11,4),%ymm1
+  .byte  98,225,124,40,40,249                // vmovaps       %ymm1,%ymm23
+  .byte  98,81,85,32,254,210                 // vpaddd        %ymm10,%ymm21,%ymm10
+  .byte  98,18,45,40,64,211                  // vpmulld       %ymm27,%ymm10,%ymm10
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,162,29,146,12,144               // vgatherdps    %ymm12,(%rax,%ymm10,4),%ymm1
+  .byte  98,225,124,40,40,201                // vmovaps       %ymm1,%ymm17
+  .byte  196,65,45,250,245                   // vpsubd        %ymm13,%ymm10,%ymm14
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,5,118,255                    // vpcmpeqd      %ymm15,%ymm15,%ymm15
+  .byte  196,162,5,146,12,176                // vgatherdps    %ymm15,(%rax,%ymm14,4),%ymm1
+  .byte  98,225,124,40,40,241                // vmovaps       %ymm1,%ymm22
+  .byte  98,49,45,40,254,240                 // vpaddd        %ymm16,%ymm10,%ymm14
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,5,118,255                    // vpcmpeqd      %ymm15,%ymm15,%ymm15
+  .byte  196,162,5,146,12,176                // vgatherdps    %ymm15,(%rax,%ymm14,4),%ymm1
+  .byte  98,225,124,40,40,217                // vmovaps       %ymm1,%ymm19
+  .byte  98,97,45,32,254,200                 // vpaddd        %ymm0,%ymm26,%ymm25
+  .byte  98,177,53,32,254,196                // vpaddd        %ymm20,%ymm25,%ymm0
+  .byte  98,18,125,40,64,243                 // vpmulld       %ymm27,%ymm0,%ymm14
+  .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
+  .byte  196,65,5,118,255                    // vpcmpeqd      %ymm15,%ymm15,%ymm15
+  .byte  196,162,5,146,4,176                 // vgatherdps    %ymm15,(%rax,%ymm14,4),%ymm0
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,193,13,250,202                  // vpsubd        %ymm10,%ymm14,%ymm1
+  .byte  196,65,4,87,255                     // vxorps        %ymm15,%ymm15,%ymm15
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,98,29,146,60,136                // vgatherdps    %ymm12,(%rax,%ymm1,4),%ymm15
+  .byte  98,177,13,40,254,200                // vpaddd        %ymm16,%ymm14,%ymm1
+  .byte  196,65,12,87,246                    // vxorps        %ymm14,%ymm14,%ymm14
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,98,29,146,52,136                // vgatherdps    %ymm12,(%rax,%ymm1,4),%ymm14
+  .byte  98,145,85,32,254,201                // vpaddd        %ymm25,%ymm21,%ymm1
+  .byte  98,146,117,40,64,203                // vpmulld       %ymm27,%ymm1,%ymm1
+  .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,98,37,146,36,136                // vgatherdps    %ymm11,(%rax,%ymm1,4),%ymm12
+  .byte  196,193,117,250,210                 // vpsubd        %ymm10,%ymm1,%ymm2
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,65,21,239,237                   // vpxor         %ymm13,%ymm13,%ymm13
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,98,45,146,44,144                // vgatherdps    %ymm10,(%rax,%ymm2,4),%ymm13
+  .byte  98,177,117,40,254,200               // vpaddd        %ymm16,%ymm1,%ymm1
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  196,98,37,146,20,136                // vgatherdps    %ymm11,(%rax,%ymm1,4),%ymm10
+  .byte  197,252,16,140,36,224,0,0,0         // vmovups       0xe0(%rsp),%ymm1
+  .byte  98,177,116,40,92,202                // vsubps        %ymm18,%ymm1,%ymm1
+  .byte  197,252,16,84,36,128                // vmovups       -0x80(%rsp),%ymm2
+  .byte  197,124,91,218                      // vcvtdq2ps     %ymm2,%ymm11
+  .byte  98,81,60,32,92,219                  // vsubps        %ymm11,%ymm24,%ymm11
+  .byte  98,178,37,40,168,202                // vfmadd213ps   %ymm18,%ymm11,%ymm1
+  .byte  197,252,16,148,36,192,0,0,0         // vmovups       0xc0(%rsp),%ymm2
+  .byte  98,129,108,40,92,197                // vsubps        %ymm29,%ymm2,%ymm16
+  .byte  98,130,37,40,168,197                // vfmadd213ps   %ymm29,%ymm11,%ymm16
+  .byte  197,252,16,148,36,160,0,0,0         // vmovups       0xa0(%rsp),%ymm2
+  .byte  98,129,108,40,92,214                // vsubps        %ymm30,%ymm2,%ymm18
+  .byte  98,130,37,40,168,214                // vfmadd213ps   %ymm30,%ymm11,%ymm18
+  .byte  197,252,16,84,36,96                 // vmovups       0x60(%rsp),%ymm2
+  .byte  98,225,124,40,16,36,36              // vmovups       (%rsp),%ymm20
+  .byte  98,225,92,32,92,226                 // vsubps        %ymm2,%ymm20,%ymm20
+  .byte  98,226,37,40,168,226                // vfmadd213ps   %ymm2,%ymm11,%ymm20
+  .byte  197,252,16,84,36,64                 // vmovups       0x40(%rsp),%ymm2
+  .byte  98,225,124,40,16,108,36,254         // vmovups       -0x40(%rsp),%ymm21
+  .byte  98,225,84,32,92,234                 // vsubps        %ymm2,%ymm21,%ymm21
+  .byte  98,226,37,40,168,234                // vfmadd213ps   %ymm2,%ymm11,%ymm21
+  .byte  197,252,16,84,36,32                 // vmovups       0x20(%rsp),%ymm2
+  .byte  98,97,4,32,92,194                   // vsubps        %ymm2,%ymm31,%ymm24
+  .byte  98,98,37,40,168,194                 // vfmadd213ps   %ymm2,%ymm11,%ymm24
+  .byte  98,65,116,32,92,200                 // vsubps        %ymm8,%ymm17,%ymm25
+  .byte  98,66,37,40,168,200                 // vfmadd213ps   %ymm8,%ymm11,%ymm25
+  .byte  197,252,16,148,36,128,0,0,0         // vmovups       0x80(%rsp),%ymm2
+  .byte  197,124,91,194                      // vcvtdq2ps     %ymm2,%ymm8
+  .byte  98,81,28,32,92,192                  // vsubps        %ymm8,%ymm28,%ymm8
+  .byte  98,225,92,32,92,201                 // vsubps        %ymm1,%ymm20,%ymm17
+  .byte  98,226,61,40,168,201                // vfmadd213ps   %ymm1,%ymm8,%ymm17
+  .byte  98,161,84,32,92,224                 // vsubps        %ymm16,%ymm21,%ymm20
+  .byte  98,162,61,40,168,224                // vfmadd213ps   %ymm16,%ymm8,%ymm20
+  .byte  98,161,60,32,92,194                 // vsubps        %ymm18,%ymm24,%ymm16
+  .byte  98,162,61,40,168,194                // vfmadd213ps   %ymm18,%ymm8,%ymm16
+  .byte  98,209,76,32,92,201                 // vsubps        %ymm9,%ymm22,%ymm1
+  .byte  196,194,37,168,201                  // vfmadd213ps   %ymm9,%ymm11,%ymm1
+  .byte  98,49,100,32,92,207                 // vsubps        %ymm23,%ymm19,%ymm9
+  .byte  98,50,37,40,168,207                 // vfmadd213ps   %ymm23,%ymm11,%ymm9
+  .byte  197,156,92,208                      // vsubps        %ymm0,%ymm12,%ymm2
+  .byte  196,226,37,168,208                  // vfmadd213ps   %ymm0,%ymm11,%ymm2
+  .byte  196,193,20,92,199                   // vsubps        %ymm15,%ymm13,%ymm0
+  .byte  196,194,37,168,199                  // vfmadd213ps   %ymm15,%ymm11,%ymm0
+  .byte  196,65,44,92,214                    // vsubps        %ymm14,%ymm10,%ymm10
+  .byte  196,66,37,168,214                   // vfmadd213ps   %ymm14,%ymm11,%ymm10
+  .byte  98,145,108,40,92,209                // vsubps        %ymm25,%ymm2,%ymm2
+  .byte  98,146,61,40,168,209                // vfmadd213ps   %ymm25,%ymm8,%ymm2
+  .byte  197,124,92,217                      // vsubps        %ymm1,%ymm0,%ymm11
+  .byte  196,98,61,168,217                   // vfmadd213ps   %ymm1,%ymm8,%ymm11
+  .byte  196,65,44,92,209                    // vsubps        %ymm9,%ymm10,%ymm10
+  .byte  196,66,61,168,209                   // vfmadd213ps   %ymm9,%ymm8,%ymm10
+  .byte  197,252,16,68,36,160                // vmovups       -0x60(%rsp),%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  197,252,16,76,36,224                // vmovups       -0x20(%rsp),%ymm1
+  .byte  197,116,92,192                      // vsubps        %ymm0,%ymm1,%ymm8
+  .byte  98,177,108,40,92,193                // vsubps        %ymm17,%ymm2,%ymm0
+  .byte  98,178,61,40,168,193                // vfmadd213ps   %ymm17,%ymm8,%ymm0
+  .byte  98,177,36,40,92,204                 // vsubps        %ymm20,%ymm11,%ymm1
+  .byte  98,178,61,40,168,204                // vfmadd213ps   %ymm20,%ymm8,%ymm1
+  .byte  98,177,44,40,92,208                 // vsubps        %ymm16,%ymm10,%ymm2
+  .byte  98,178,61,40,168,208                // vfmadd213ps   %ymm16,%ymm8,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  72,129,196,24,1,0,0                 // add           $0x118,%rsp
+  .byte  255,224                             // jmpq          *%rax
+
+HIDDEN _sk_clut_4D_skx
+.globl _sk_clut_4D_skx
+FUNCTION(_sk_clut_4D_skx)
+_sk_clut_4D_skx:
+  .byte  72,129,236,88,5,0,0                 // sub           $0x558,%rsp
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  68,139,64,20                        // mov           0x14(%rax),%r8d
+  .byte  69,141,72,255                       // lea           -0x1(%r8),%r9d
+  .byte  98,82,125,40,124,193                // vpbroadcastd  %r9d,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,188,89,219                      // vmulps        %ymm3,%ymm8,%ymm3
+  .byte  197,126,91,211                      // vcvttps2dq    %ymm3,%ymm10
+  .byte  197,124,40,251                      // vmovaps       %ymm3,%ymm15
+  .byte  197,124,17,188,36,160,2,0,0         // vmovups       %ymm15,0x2a0(%rsp)
+  .byte  196,65,121,110,200                  // vmovd         %r8d,%xmm9
+  .byte  98,210,125,40,124,216               // vpbroadcastd  %r8d,%ymm3
+  .byte  68,139,64,16                        // mov           0x10(%rax),%r8d
+  .byte  69,141,72,255                       // lea           -0x1(%r8),%r9d
+  .byte  98,82,125,40,124,193                // vpbroadcastd  %r9d,%ymm8
+  .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
+  .byte  197,60,89,194                       // vmulps        %ymm2,%ymm8,%ymm8
+  .byte  196,193,126,91,208                  // vcvttps2dq    %ymm8,%ymm2
+  .byte  98,193,124,40,40,248                // vmovaps       %ymm8,%ymm23
+  .byte  98,225,124,40,17,124,36,14          // vmovups       %ymm23,0x1c0(%rsp)
+  .byte  197,254,127,148,36,32,5,0,0         // vmovdqu       %ymm2,0x520(%rsp)
+  .byte  98,226,101,40,64,218                // vpmulld       %ymm2,%ymm3,%ymm19
+  .byte  98,81,101,32,254,194                // vpaddd        %ymm10,%ymm19,%ymm8
+  .byte  98,193,253,40,111,210               // vmovdqa64     %ymm10,%ymm18
+  .byte  98,225,254,40,127,84,36,33          // vmovdqu64     %ymm18,0x420(%rsp)
+  .byte  196,65,121,110,208                  // vmovd         %r8d,%xmm10
+  .byte  196,66,45,64,209                    // vpmulld       %ymm9,%ymm10,%ymm10
+  .byte  196,66,125,88,202                   // vpbroadcastd  %xmm10,%ymm9
+  .byte  68,139,64,12                        // mov           0xc(%rax),%r8d
+  .byte  69,141,72,255                       // lea           -0x1(%r8),%r9d
+  .byte  98,82,125,40,124,217                // vpbroadcastd  %r9d,%ymm11
+  .byte  196,65,124,91,219                   // vcvtdq2ps     %ymm11,%ymm11
+  .byte  197,164,89,209                      // vmulps        %ymm1,%ymm11,%ymm2
+  .byte  197,254,91,202                      // vcvttps2dq    %ymm2,%ymm1
+  .byte  98,97,124,40,40,202                 // vmovaps       %ymm2,%ymm25
+  .byte  98,97,124,40,17,76,36,13            // vmovups       %ymm25,0x1a0(%rsp)
+  .byte  197,254,127,140,36,0,5,0,0          // vmovdqu       %ymm1,0x500(%rsp)
+  .byte  98,98,53,40,64,193                  // vpmulld       %ymm1,%ymm9,%ymm24
+  .byte  98,209,61,32,254,200                // vpaddd        %ymm8,%ymm24,%ymm1
+  .byte  196,65,121,110,216                  // vmovd         %r8d,%xmm11
+  .byte  196,66,37,64,210                    // vpmulld       %ymm10,%ymm11,%ymm10
+  .byte  196,66,125,88,210                   // vpbroadcastd  %xmm10,%ymm10
+  .byte  68,139,64,8                         // mov           0x8(%rax),%r8d
+  .byte  65,131,192,255                      // add           $0xffffffff,%r8d
+  .byte  98,82,125,40,124,216                // vpbroadcastd  %r8d,%ymm11
+  .byte  196,65,124,91,219                   // vcvtdq2ps     %ymm11,%ymm11
+  .byte  98,97,36,40,89,224                  // vmulps        %ymm0,%ymm11,%ymm28
+  .byte  98,129,126,40,91,236                // vcvttps2dq    %ymm28,%ymm21
+  .byte  98,162,45,40,64,229                 // vpmulld       %ymm21,%ymm10,%ymm20
+  .byte  98,241,93,32,254,193                // vpaddd        %ymm1,%ymm20,%ymm0
+  .byte  72,139,0                            // mov           (%rax),%rax
+  .byte  98,226,125,40,88,5,21,190,2,0       // vpbroadcastd  0x2be15(%rip),%ymm16        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+  .byte  98,50,125,40,64,216                 // vpmulld       %ymm16,%ymm0,%ymm11
+  .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
+  .byte  197,253,118,192                     // vpcmpeqd      %ymm0,%ymm0,%ymm0
+  .byte  196,34,125,146,36,152               // vgatherdps    %ymm0,(%rax,%ymm11,4),%ymm12
+  .byte  197,124,17,164,36,224,4,0,0         // vmovups       %ymm12,0x4e0(%rsp)
+  .byte  196,65,13,118,246                   // vpcmpeqd      %ymm14,%ymm14,%ymm14
+  .byte  196,193,37,250,198                  // vpsubd        %ymm14,%ymm11,%ymm0
+  .byte  196,65,20,87,237                    // vxorps        %ymm13,%ymm13,%ymm13
+  .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
+  .byte  196,98,29,146,44,128                // vgatherdps    %ymm12,(%rax,%ymm0,4),%ymm13
+  .byte  197,124,17,172,36,192,4,0,0         // vmovups       %ymm13,0x4c0(%rsp)
+  .byte  196,226,125,24,5,199,189,2,0        // vbroadcastss  0x2bdc7(%rip),%ymm0        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+  .byte  98,113,28,32,88,224                 // vaddps        %ymm0,%ymm28,%ymm12
+  .byte  98,226,125,40,88,13,79,188,2,0      // vpbroadcastd  0x2bc4f(%rip),%ymm17        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+  .byte  98,49,37,40,254,217                 // vpaddd        %ymm17,%ymm11,%ymm11
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  196,162,21,146,20,152               // vgatherdps    %ymm13,(%rax,%ymm11,4),%ymm2
+  .byte  197,252,17,148,36,160,4,0,0         // vmovups       %ymm2,0x4a0(%rsp)
+  .byte  196,65,126,91,220                   // vcvttps2dq    %ymm12,%ymm11
+  .byte  98,194,45,40,64,243                 // vpmulld       %ymm11,%ymm10,%ymm22
+  .byte  98,241,77,32,254,201                // vpaddd        %ymm1,%ymm22,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,226,45,146,20,136               // vgatherdps    %ymm10,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,128,4,0,0         // vmovups       %ymm2,0x480(%rsp)
+  .byte  196,65,117,250,214                  // vpsubd        %ymm14,%ymm1,%ymm10
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,162,37,146,20,144               // vgatherdps    %ymm11,(%rax,%ymm10,4),%ymm2
+  .byte  197,252,17,148,36,96,4,0,0          // vmovups       %ymm2,0x460(%rsp)
+  .byte  98,113,52,32,88,208                 // vaddps        %ymm0,%ymm25,%ymm10
+  .byte  196,65,126,91,210                   // vcvttps2dq    %ymm10,%ymm10
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,37,118,219                   // vpcmpeqd      %ymm11,%ymm11,%ymm11
+  .byte  196,226,37,146,20,136               // vgatherdps    %ymm11,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,64,4,0,0          // vmovups       %ymm2,0x440(%rsp)
+  .byte  98,66,53,40,64,234                  // vpmulld       %ymm10,%ymm9,%ymm29
+  .byte  98,209,21,32,254,200                // vpaddd        %ymm8,%ymm29,%ymm1
+  .byte  98,49,117,40,254,196                // vpaddd        %ymm20,%ymm1,%ymm8
+  .byte  98,50,61,40,64,192                  // vpmulld       %ymm16,%ymm8,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,0,4,0,0           // vmovups       %ymm2,0x400(%rsp)
+  .byte  196,65,61,250,206                   // vpsubd        %ymm14,%ymm8,%ymm9
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,162,45,146,20,136               // vgatherdps    %ymm10,(%rax,%ymm9,4),%ymm2
+  .byte  197,252,17,148,36,224,3,0,0         // vmovups       %ymm2,0x3e0(%rsp)
+  .byte  98,49,61,40,254,193                 // vpaddd        %ymm17,%ymm8,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,192,3,0,0         // vmovups       %ymm2,0x3c0(%rsp)
+  .byte  98,241,77,32,254,201                // vpaddd        %ymm1,%ymm22,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,136               // vgatherdps    %ymm8,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,160,3,0,0         // vmovups       %ymm2,0x3a0(%rsp)
+  .byte  196,65,117,250,198                  // vpsubd        %ymm14,%ymm1,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,128,3,0,0         // vmovups       %ymm2,0x380(%rsp)
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,136               // vgatherdps    %ymm8,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,96,3,0,0          // vmovups       %ymm2,0x360(%rsp)
+  .byte  98,241,68,32,88,200                 // vaddps        %ymm0,%ymm23,%ymm1
+  .byte  197,254,91,201                      // vcvttps2dq    %ymm1,%ymm1
+  .byte  98,98,101,40,64,249                 // vpmulld       %ymm1,%ymm3,%ymm31
+  .byte  98,177,5,32,254,202                 // vpaddd        %ymm18,%ymm31,%ymm1
+  .byte  98,145,117,40,254,216               // vpaddd        %ymm24,%ymm1,%ymm3
+  .byte  98,49,101,40,254,196                // vpaddd        %ymm20,%ymm3,%ymm8
+  .byte  98,50,61,40,64,192                  // vpmulld       %ymm16,%ymm8,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,64,3,0,0          // vmovups       %ymm2,0x340(%rsp)
+  .byte  196,65,61,250,206                   // vpsubd        %ymm14,%ymm8,%ymm9
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,162,45,146,20,136               // vgatherdps    %ymm10,(%rax,%ymm9,4),%ymm2
+  .byte  197,252,17,148,36,32,3,0,0          // vmovups       %ymm2,0x320(%rsp)
+  .byte  98,49,61,40,254,193                 // vpaddd        %ymm17,%ymm8,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,0,3,0,0           // vmovups       %ymm2,0x300(%rsp)
+  .byte  98,241,77,32,254,219                // vpaddd        %ymm3,%ymm22,%ymm3
+  .byte  98,178,101,40,64,216                // vpmulld       %ymm16,%ymm3,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,152               // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm2
+  .byte  197,252,17,148,36,224,2,0,0         // vmovups       %ymm2,0x2e0(%rsp)
+  .byte  196,65,101,250,198                  // vpsubd        %ymm14,%ymm3,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,192,2,0,0         // vmovups       %ymm2,0x2c0(%rsp)
+  .byte  98,177,101,40,254,217               // vpaddd        %ymm17,%ymm3,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,152               // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm2
+  .byte  197,252,17,148,36,128,2,0,0         // vmovups       %ymm2,0x280(%rsp)
+  .byte  98,241,21,32,254,201                // vpaddd        %ymm1,%ymm29,%ymm1
+  .byte  98,177,117,40,254,220               // vpaddd        %ymm20,%ymm1,%ymm3
+  .byte  98,178,101,40,64,216                // vpmulld       %ymm16,%ymm3,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,152               // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm2
+  .byte  197,252,17,148,36,96,2,0,0          // vmovups       %ymm2,0x260(%rsp)
+  .byte  196,65,101,250,198                  // vpsubd        %ymm14,%ymm3,%ymm8
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
+  .byte  196,162,53,146,20,128               // vgatherdps    %ymm9,(%rax,%ymm8,4),%ymm2
+  .byte  197,252,17,148,36,64,2,0,0          // vmovups       %ymm2,0x240(%rsp)
+  .byte  98,177,101,40,254,217               // vpaddd        %ymm17,%ymm3,%ymm3
+  .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,98,61,146,12,152                // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm9
+  .byte  98,241,77,32,254,201                // vpaddd        %ymm1,%ymm22,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,226,101,146,20,136              // vgatherdps    %ymm3,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,32,2,0,0          // vmovups       %ymm2,0x220(%rsp)
+  .byte  196,193,117,250,222                 // vpsubd        %ymm14,%ymm1,%ymm3
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,226,61,146,20,152               // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm2
+  .byte  197,252,17,148,36,0,2,0,0           // vmovups       %ymm2,0x200(%rsp)
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,226,101,146,20,136              // vgatherdps    %ymm3,(%rax,%ymm1,4),%ymm2
+  .byte  197,252,17,148,36,224,1,0,0         // vmovups       %ymm2,0x1e0(%rsp)
+  .byte  197,132,88,192                      // vaddps        %ymm0,%ymm15,%ymm0
+  .byte  98,97,126,40,91,240                 // vcvttps2dq    %ymm0,%ymm30
+  .byte  98,145,101,32,254,198               // vpaddd        %ymm30,%ymm19,%ymm0
+  .byte  98,241,61,32,254,200                // vpaddd        %ymm0,%ymm24,%ymm1
+  .byte  98,241,93,32,254,209                // vpaddd        %ymm1,%ymm20,%ymm2
+  .byte  98,178,109,40,64,208                // vpmulld       %ymm16,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,98,101,146,4,144                // vgatherdps    %ymm3,(%rax,%ymm2,4),%ymm8
+  .byte  197,124,17,132,36,128,1,0,0         // vmovups       %ymm8,0x180(%rsp)
+  .byte  196,193,109,250,222                 // vpsubd        %ymm14,%ymm2,%ymm3
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
+  .byte  196,98,61,146,20,152                // vgatherdps    %ymm8,(%rax,%ymm3,4),%ymm10
+  .byte  197,124,17,148,36,96,1,0,0          // vmovups       %ymm10,0x160(%rsp)
+  .byte  98,177,109,40,254,209               // vpaddd        %ymm17,%ymm2,%ymm2
+  .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,98,101,146,4,144                // vgatherdps    %ymm3,(%rax,%ymm2,4),%ymm8
+  .byte  98,241,77,32,254,201                // vpaddd        %ymm1,%ymm22,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,156,36,64,1,0,0          // vmovups       %ymm3,0x140(%rsp)
+  .byte  196,193,117,250,214                 // vpsubd        %ymm14,%ymm1,%ymm2
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,98,101,146,20,144               // vgatherdps    %ymm3,(%rax,%ymm2,4),%ymm10
+  .byte  197,124,17,148,36,32,1,0,0          // vmovups       %ymm10,0x120(%rsp)
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,156,36,0,1,0,0           // vmovups       %ymm3,0x100(%rsp)
+  .byte  98,241,21,32,254,192                // vpaddd        %ymm0,%ymm29,%ymm0
+  .byte  98,177,125,40,254,204               // vpaddd        %ymm20,%ymm0,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,156,36,224,0,0,0         // vmovups       %ymm3,0xe0(%rsp)
+  .byte  196,193,117,250,214                 // vpsubd        %ymm14,%ymm1,%ymm2
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,98,101,146,20,144               // vgatherdps    %ymm3,(%rax,%ymm2,4),%ymm10
+  .byte  197,124,17,148,36,192,0,0,0         // vmovups       %ymm10,0xc0(%rsp)
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,156,36,160,0,0,0         // vmovups       %ymm3,0xa0(%rsp)
+  .byte  98,241,77,32,254,192                // vpaddd        %ymm0,%ymm22,%ymm0
+  .byte  98,178,125,40,64,192                // vpmulld       %ymm16,%ymm0,%ymm0
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,226,117,146,20,128              // vgatherdps    %ymm1,(%rax,%ymm0,4),%ymm2
+  .byte  197,252,17,148,36,128,0,0,0         // vmovups       %ymm2,0x80(%rsp)
+  .byte  196,193,125,250,206                 // vpsubd        %ymm14,%ymm0,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,92,36,96                 // vmovups       %ymm3,0x60(%rsp)
+  .byte  98,177,125,40,254,193               // vpaddd        %ymm17,%ymm0,%ymm0
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,226,117,146,20,128              // vgatherdps    %ymm1,(%rax,%ymm0,4),%ymm2
+  .byte  197,252,17,84,36,64                 // vmovups       %ymm2,0x40(%rsp)
+  .byte  98,145,5,32,254,198                 // vpaddd        %ymm30,%ymm31,%ymm0
+  .byte  98,145,125,40,254,200               // vpaddd        %ymm24,%ymm0,%ymm1
+  .byte  98,177,117,40,254,212               // vpaddd        %ymm20,%ymm1,%ymm2
+  .byte  98,178,109,40,64,208                // vpmulld       %ymm16,%ymm2,%ymm2
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  197,229,118,219                     // vpcmpeqd      %ymm3,%ymm3,%ymm3
+  .byte  196,98,101,146,20,144               // vgatherdps    %ymm3,(%rax,%ymm2,4),%ymm10
+  .byte  197,124,17,84,36,32                 // vmovups       %ymm10,0x20(%rsp)
+  .byte  196,193,109,250,222                 // vpsubd        %ymm14,%ymm2,%ymm3
+  .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,98,45,146,28,152                // vgatherdps    %ymm10,(%rax,%ymm3,4),%ymm11
+  .byte  197,124,17,28,36                    // vmovups       %ymm11,(%rsp)
+  .byte  98,177,109,40,254,209               // vpaddd        %ymm17,%ymm2,%ymm2
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,226,45,146,28,144               // vgatherdps    %ymm10,(%rax,%ymm2,4),%ymm3
+  .byte  98,225,124,40,40,251                // vmovaps       %ymm3,%ymm23
+  .byte  98,241,77,32,254,201                // vpaddd        %ymm1,%ymm22,%ymm1
+  .byte  98,178,117,40,64,200                // vpmulld       %ymm16,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  197,252,17,92,36,192                // vmovups       %ymm3,-0x40(%rsp)
+  .byte  196,193,117,250,214                 // vpsubd        %ymm14,%ymm1,%ymm2
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,226,45,146,28,144               // vgatherdps    %ymm10,(%rax,%ymm2,4),%ymm3
+  .byte  98,97,124,40,40,211                 // vmovaps       %ymm3,%ymm26
+  .byte  98,177,117,40,254,201               // vpaddd        %ymm17,%ymm1,%ymm1
+  .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
+  .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
+  .byte  196,226,109,146,28,136              // vgatherdps    %ymm2,(%rax,%ymm1,4),%ymm3
+  .byte  98,97,124,40,40,203                 // vmovaps       %ymm3,%ymm25
+  .byte  98,97,21,32,254,192                 // vpaddd        %ymm0,%ymm29,%ymm24
+  .byte  98,177,61,32,254,196                // vpaddd        %ymm20,%ymm24,%ymm0
+  .byte  98,178,125,40,64,192                // vpmulld       %ymm16,%ymm0,%ymm0
+  .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
+  .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
+  .byte  196,226,117,146,20,128              // vgatherdps    %ymm1,(%rax,%ymm0,4),%ymm2
+  .byte  98,225,124,40,40,218                // vmovaps       %ymm2,%ymm19
+  .byte  196,193,125,250,214                 // vpsubd        %ymm14,%ymm0,%ymm2
+  .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
+  .byte  196,65,5,118,255                    // vpcmpeqd      %ymm15,%ymm15,%ymm15
+  .byte  196,226,5,146,12,144                // vgatherdps    %ymm15,(%rax,%ymm2,4),%ymm1
+  .byte  98,225,124,40,40,209                // vmovaps       %ymm1,%ymm18
+  .byte  98,177,125,40,254,209               // vpaddd        %ymm17,%ymm0,%ymm2
+  .byte  196,65,28,87,228                    // vxorps        %ymm12,%ymm12,%ymm12
+  .byte  196,65,5,118,255                    // vpcmpeqd      %ymm15,%ymm15,%ymm15
+  .byte  196,98,5,146,36,144                 // vgatherdps    %ymm15,(%rax,%ymm2,4),%ymm12
+  .byte  98,145,77,32,254,208                // vpaddd        %ymm24,%ymm22,%ymm2
+  .byte  98,178,109,40,64,208                // vpmulld       %ymm16,%ymm2,%ymm2
+  .byte  196,65,4,87,255                     // vxorps        %ymm15,%ymm15,%ymm15
+  .byte  196,65,21,118,237                   // vpcmpeqd      %ymm13,%ymm13,%ymm13
+  .byte  196,98,21,146,60,144                // vgatherdps    %ymm13,(%rax,%ymm2,4),%ymm15
+  .byte  197,252,17,124,36,224               // vmovups       %ymm7,-0x20(%rsp)
+  .byte  197,252,17,116,36,160               // vmovups       %ymm6,-0x60(%rsp)
+  .byte  197,252,17,108,36,128               // vmovups       %ymm5,-0x80(%rsp)
+  .byte  98,97,124,40,40,220                 // vmovaps       %ymm4,%ymm27
+  .byte  196,65,109,250,238                  // vpsubd        %ymm14,%ymm2,%ymm13
+  .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
+  .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
+  .byte  196,34,45,146,28,168                // vgatherdps    %ymm10,(%rax,%ymm13,4),%ymm11
+  .byte  98,177,109,40,254,209               // vpaddd        %ymm17,%ymm2,%ymm2
+  .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
+  .byte  196,98,13,146,20,144                // vgatherdps    %ymm14,(%rax,%ymm2,4),%ymm10
+  .byte  197,252,16,132,36,224,4,0,0         // vmovups       0x4e0(%rsp),%ymm0
+  .byte  197,252,16,140,36,128,4,0,0         // vmovups       0x480(%rsp),%ymm1
+  .byte  197,244,92,240                      // vsubps        %ymm0,%ymm1,%ymm6
+  .byte  98,49,124,40,91,237                 // vcvtdq2ps     %ymm21,%ymm13
+  .byte  98,81,28,32,92,237                  // vsubps        %ymm13,%ymm28,%ymm13
+  .byte  196,226,21,168,240                  // vfmadd213ps   %ymm0,%ymm13,%ymm6
+  .byte  197,252,16,132,36,192,4,0,0         // vmovups       0x4c0(%rsp),%ymm0
+  .byte  197,252,16,140,36,96,4,0,0          // vmovups       0x460(%rsp),%ymm1
+  .byte  197,116,92,240                      // vsubps        %ymm0,%ymm1,%ymm14
+  .byte  196,98,21,168,240                   // vfmadd213ps   %ymm0,%ymm13,%ymm14
+  .byte  197,252,16,132,36,160,4,0,0         // vmovups       0x4a0(%rsp),%ymm0
+  .byte  197,252,16,140,36,64,4,0,0          // vmovups       0x440(%rsp),%ymm1
+  .byte  98,225,116,40,92,192                // vsubps        %ymm0,%ymm1,%ymm16
+  .byte  98,226,21,40,168,192                // vfmadd213ps   %ymm0,%ymm13,%ymm16
+  .byte  197,252,16,132,36,0,4,0,0           // vmovups       0x400(%rsp),%ymm0
+  .byte  197,252,16,140,36,160,3,0,0         // vmovups       0x3a0(%rsp),%ymm1
+  .byte  98,225,116,40,92,200                // vsubps        %ymm0,%ymm1,%ymm17
+  .byte  98,226,21,40,168,200                // vfmadd213ps   %ymm0,%ymm13,%ymm17
+  .byte  197,252,16,132,36,224,3,0,0         // vmovups       0x3e0(%rsp),%ymm0
+  .byte  197,252,16,140,36,128,3,0,0         // vmovups       0x380(%rsp),%ymm1
+  .byte  98,225,116,40,92,224                // vsubps        %ymm0,%ymm1,%ymm20
+  .byte  98,226,21,40,168,224                // vfmadd213ps   %ymm0,%ymm13,%ymm20
+  .byte  197,252,16,132,36,192,3,0,0         // vmovups       0x3c0(%rsp),%ymm0
+  .byte  197,252,16,140,36,96,3,0,0          // vmovups       0x360(%rsp),%ymm1
+  .byte  98,225,116,40,92,232                // vsubps        %ymm0,%ymm1,%ymm21
+  .byte  98,226,21,40,168,232                // vfmadd213ps   %ymm0,%ymm13,%ymm21
+  .byte  197,252,16,132,36,64,3,0,0          // vmovups       0x340(%rsp),%ymm0
+  .byte  197,252,16,140,36,224,2,0,0         // vmovups       0x2e0(%rsp),%ymm1
+  .byte  98,225,116,40,92,240                // vsubps        %ymm0,%ymm1,%ymm22
+  .byte  98,226,21,40,168,240                // vfmadd213ps   %ymm0,%ymm13,%ymm22
+  .byte  197,252,16,132,36,32,3,0,0          // vmovups       0x320(%rsp),%ymm0
+  .byte  197,252,16,140,36,192,2,0,0         // vmovups       0x2c0(%rsp),%ymm1
+  .byte  98,97,116,40,92,192                 // vsubps        %ymm0,%ymm1,%ymm24
+  .byte  98,98,21,40,168,192                 // vfmadd213ps   %ymm0,%ymm13,%ymm24
+  .byte  197,252,16,132,36,0,3,0,0           // vmovups       0x300(%rsp),%ymm0
+  .byte  197,252,16,140,36,128,2,0,0         // vmovups       0x280(%rsp),%ymm1
+  .byte  98,97,116,40,92,224                 // vsubps        %ymm0,%ymm1,%ymm28
+  .byte  98,98,21,40,168,224                 // vfmadd213ps   %ymm0,%ymm13,%ymm28
+  .byte  197,252,16,132,36,96,2,0,0          // vmovups       0x260(%rsp),%ymm0
+  .byte  197,252,16,140,36,32,2,0,0          // vmovups       0x220(%rsp),%ymm1
+  .byte  98,97,116,40,92,232                 // vsubps        %ymm0,%ymm1,%ymm29
+  .byte  98,98,21,40,168,232                 // vfmadd213ps   %ymm0,%ymm13,%ymm29
+  .byte  197,252,16,132,36,64,2,0,0          // vmovups       0x240(%rsp),%ymm0
+  .byte  197,252,16,140,36,0,2,0,0           // vmovups       0x200(%rsp),%ymm1
+  .byte  98,97,116,40,92,240                 // vsubps        %ymm0,%ymm1,%ymm30
+  .byte  98,98,21,40,168,240                 // vfmadd213ps   %ymm0,%ymm13,%ymm30
+  .byte  197,252,16,132,36,224,1,0,0         // vmovups       0x1e0(%rsp),%ymm0
+  .byte  98,65,124,40,92,249                 // vsubps        %ymm9,%ymm0,%ymm31
+  .byte  98,66,21,40,168,249                 // vfmadd213ps   %ymm9,%ymm13,%ymm31
+  .byte  197,252,16,132,36,128,1,0,0         // vmovups       0x180(%rsp),%ymm0
+  .byte  197,252,16,140,36,64,1,0,0          // vmovups       0x140(%rsp),%ymm1
+  .byte  197,244,92,216                      // vsubps        %ymm0,%ymm1,%ymm3
+  .byte  196,226,21,168,216                  // vfmadd213ps   %ymm0,%ymm13,%ymm3
+  .byte  197,252,16,132,36,96,1,0,0          // vmovups       0x160(%rsp),%ymm0
+  .byte  197,252,16,140,36,32,1,0,0          // vmovups       0x120(%rsp),%ymm1
+  .byte  197,244,92,224                      // vsubps        %ymm0,%ymm1,%ymm4
+  .byte  196,226,21,168,224                  // vfmadd213ps   %ymm0,%ymm13,%ymm4
+  .byte  197,252,16,132,36,0,1,0,0           // vmovups       0x100(%rsp),%ymm0
+  .byte  196,193,124,92,232                  // vsubps        %ymm8,%ymm0,%ymm5
+  .byte  196,194,21,168,232                  // vfmadd213ps   %ymm8,%ymm13,%ymm5
+  .byte  197,252,16,132,36,224,0,0,0         // vmovups       0xe0(%rsp),%ymm0
+  .byte  197,252,16,140,36,128,0,0,0         // vmovups       0x80(%rsp),%ymm1
+  .byte  197,244,92,248                      // vsubps        %ymm0,%ymm1,%ymm7
+  .byte  196,226,21,168,248                  // vfmadd213ps   %ymm0,%ymm13,%ymm7
+  .byte  197,252,16,132,36,192,0,0,0         // vmovups       0xc0(%rsp),%ymm0
+  .byte  197,252,16,76,36,96                 // vmovups       0x60(%rsp),%ymm1
+  .byte  197,116,92,192                      // vsubps        %ymm0,%ymm1,%ymm8
+  .byte  196,98,21,168,192                   // vfmadd213ps   %ymm0,%ymm13,%ymm8
+  .byte  197,252,16,132,36,160,0,0,0         // vmovups       0xa0(%rsp),%ymm0
+  .byte  197,252,16,76,36,64                 // vmovups       0x40(%rsp),%ymm1
+  .byte  197,116,92,200                      // vsubps        %ymm0,%ymm1,%ymm9
+  .byte  196,98,21,168,200                   // vfmadd213ps   %ymm0,%ymm13,%ymm9
+  .byte  197,252,16,76,36,32                 // vmovups       0x20(%rsp),%ymm1
+  .byte  197,252,16,68,36,192                // vmovups       -0x40(%rsp),%ymm0
+  .byte  197,252,92,193                      // vsubps        %ymm1,%ymm0,%ymm0
+  .byte  196,226,21,168,193                  // vfmadd213ps   %ymm1,%ymm13,%ymm0
+  .byte  197,252,16,20,36                    // vmovups       (%rsp),%ymm2
+  .byte  98,241,44,32,92,202                 // vsubps        %ymm2,%ymm26,%ymm1
+  .byte  196,226,21,168,202                  // vfmadd213ps   %ymm2,%ymm13,%ymm1
+  .byte  98,177,52,32,92,215                 // vsubps        %ymm23,%ymm25,%ymm2
+  .byte  98,178,21,40,168,215                // vfmadd213ps   %ymm23,%ymm13,%ymm2
+  .byte  98,49,4,40,92,251                   // vsubps        %ymm19,%ymm15,%ymm15
+  .byte  98,50,21,40,168,251                 // vfmadd213ps   %ymm19,%ymm13,%ymm15
+  .byte  98,49,36,40,92,218                  // vsubps        %ymm18,%ymm11,%ymm11
+  .byte  98,50,21,40,168,218                 // vfmadd213ps   %ymm18,%ymm13,%ymm11
+  .byte  196,65,44,92,212                    // vsubps        %ymm12,%ymm10,%ymm10
+  .byte  196,66,21,168,212                   // vfmadd213ps   %ymm12,%ymm13,%ymm10
+  .byte  197,124,16,164,36,0,5,0,0           // vmovups       0x500(%rsp),%ymm12
+  .byte  196,65,124,91,228                   // vcvtdq2ps     %ymm12,%ymm12
+  .byte  197,124,16,172,36,160,1,0,0         // vmovups       0x1a0(%rsp),%ymm13
+  .byte  196,65,20,92,228                    // vsubps        %ymm12,%ymm13,%ymm12
+  .byte  98,113,116,32,92,238                // vsubps        %ymm6,%ymm17,%ymm13
+  .byte  196,98,29,168,238                   // vfmadd213ps   %ymm6,%ymm12,%ymm13
+  .byte  98,209,92,32,92,246                 // vsubps        %ymm14,%ymm20,%ymm6
+  .byte  196,194,29,168,246                  // vfmadd213ps   %ymm14,%ymm12,%ymm6
+  .byte  98,49,84,32,92,240                  // vsubps        %ymm16,%ymm21,%ymm14
+  .byte  98,50,29,40,168,240                 // vfmadd213ps   %ymm16,%ymm12,%ymm14
+  .byte  98,161,20,32,92,198                 // vsubps        %ymm22,%ymm29,%ymm16
+  .byte  98,162,29,40,168,198                // vfmadd213ps   %ymm22,%ymm12,%ymm16
+  .byte  98,129,12,32,92,200                 // vsubps        %ymm24,%ymm30,%ymm17
+  .byte  98,130,29,40,168,200                // vfmadd213ps   %ymm24,%ymm12,%ymm17
+  .byte  98,129,4,32,92,228                  // vsubps        %ymm28,%ymm31,%ymm20
+  .byte  98,130,29,40,168,228                // vfmadd213ps   %ymm28,%ymm12,%ymm20
+  .byte  197,196,92,251                      // vsubps        %ymm3,%ymm7,%ymm7
+  .byte  196,226,29,168,251                  // vfmadd213ps   %ymm3,%ymm12,%ymm7
+  .byte  197,188,92,220                      // vsubps        %ymm4,%ymm8,%ymm3
+  .byte  196,226,29,168,220                  // vfmadd213ps   %ymm4,%ymm12,%ymm3
+  .byte  197,180,92,229                      // vsubps        %ymm5,%ymm9,%ymm4
+  .byte  196,226,29,168,229                  // vfmadd213ps   %ymm5,%ymm12,%ymm4
+  .byte  197,132,92,232                      // vsubps        %ymm0,%ymm15,%ymm5
+  .byte  196,226,29,168,232                  // vfmadd213ps   %ymm0,%ymm12,%ymm5
+  .byte  197,164,92,193                      // vsubps        %ymm1,%ymm11,%ymm0
+  .byte  196,226,29,168,193                  // vfmadd213ps   %ymm1,%ymm12,%ymm0
+  .byte  197,172,92,202                      // vsubps        %ymm2,%ymm10,%ymm1
+  .byte  196,226,29,168,202                  // vfmadd213ps   %ymm2,%ymm12,%ymm1
+  .byte  197,252,16,148,36,32,5,0,0          // vmovups       0x520(%rsp),%ymm2
+  .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
+  .byte  197,124,16,132,36,192,1,0,0         // vmovups       0x1c0(%rsp),%ymm8
+  .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
+  .byte  98,81,124,32,92,197                 // vsubps        %ymm13,%ymm16,%ymm8
+  .byte  196,66,109,168,197                  // vfmadd213ps   %ymm13,%ymm2,%ymm8
+  .byte  98,113,116,32,92,206                // vsubps        %ymm6,%ymm17,%ymm9
+  .byte  196,98,109,168,206                  // vfmadd213ps   %ymm6,%ymm2,%ymm9
+  .byte  98,209,92,32,92,246                 // vsubps        %ymm14,%ymm20,%ymm6
+  .byte  196,194,109,168,246                 // vfmadd213ps   %ymm14,%ymm2,%ymm6
+  .byte  197,212,92,239                      // vsubps        %ymm7,%ymm5,%ymm5
+  .byte  196,226,109,168,239                 // vfmadd213ps   %ymm7,%ymm2,%ymm5
+  .byte  197,252,92,251                      // vsubps        %ymm3,%ymm0,%ymm7
+  .byte  196,226,109,168,251                 // vfmadd213ps   %ymm3,%ymm2,%ymm7
+  .byte  197,244,92,220                      // vsubps        %ymm4,%ymm1,%ymm3
+  .byte  196,226,109,168,220                 // vfmadd213ps   %ymm4,%ymm2,%ymm3
+  .byte  197,252,16,132,36,32,4,0,0          // vmovups       0x420(%rsp),%ymm0
+  .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
+  .byte  197,252,16,140,36,160,2,0,0         // vmovups       0x2a0(%rsp),%ymm1
+  .byte  197,244,92,224                      // vsubps        %ymm0,%ymm1,%ymm4
+  .byte  196,193,84,92,192                   // vsubps        %ymm8,%ymm5,%ymm0
+  .byte  196,194,93,168,192                  // vfmadd213ps   %ymm8,%ymm4,%ymm0
+  .byte  196,193,68,92,201                   // vsubps        %ymm9,%ymm7,%ymm1
+  .byte  196,194,93,168,201                  // vfmadd213ps   %ymm9,%ymm4,%ymm1
+  .byte  197,228,92,214                      // vsubps        %ymm6,%ymm3,%ymm2
+  .byte  196,226,93,168,214                  // vfmadd213ps   %ymm6,%ymm4,%ymm2
+  .byte  72,173                              // lods          %ds:(%rsi),%rax
+  .byte  196,226,125,24,29,237,178,2,0       // vbroadcastss  0x2b2ed(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  98,145,124,40,40,227                // vmovaps       %ymm27,%ymm4
+  .byte  197,252,16,108,36,128               // vmovups       -0x80(%rsp),%ymm5
+  .byte  197,252,16,116,36,160               // vmovups       -0x60(%rsp),%ymm6
+  .byte  197,252,16,124,36,224               // vmovups       -0x20(%rsp),%ymm7
+  .byte  72,129,196,88,5,0,0                 // add           $0x558,%rsp
+  .byte  255,224                             // jmpq          *%rax
+
 HIDDEN _sk_start_pipeline_hsw
 .globl _sk_start_pipeline_hsw
 FUNCTION(_sk_start_pipeline_hsw)
@@ -9386,13 +16512,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,151,0,0,0                    // jae           ca <_sk_start_pipeline_hsw+0xca>
+  .byte  15,131,151,0,0,0                    // jae           7706 <_sk_start_pipeline_hsw+0xca>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,8                         // lea           0x8(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
-  .byte  119,67                              // ja            8c <_sk_start_pipeline_hsw+0x8c>
+  .byte  119,67                              // ja            76c8 <_sk_start_pipeline_hsw+0x8c>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -9411,10 +16537,10 @@
   .byte  73,131,196,16                       // add           $0x10,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,193                             // jbe           4d <_sk_start_pipeline_hsw+0x4d>
+  .byte  118,193                             // jbe           7689 <_sk_start_pipeline_hsw+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,41                              // je            bd <_sk_start_pipeline_hsw+0xbd>
+  .byte  116,41                              // je            76f9 <_sk_start_pipeline_hsw+0xbd>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -9428,7 +16554,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  15,133,117,255,255,255              // jne           3f <_sk_start_pipeline_hsw+0x3f>
+  .byte  15,133,117,255,255,255              // jne           767b <_sk_start_pipeline_hsw+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -9452,14 +16578,14 @@
   .byte  197,249,110,194                     // vmovd         %edx,%xmm0
   .byte  196,226,125,88,192                  // vpbroadcastd  %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,252,88,5,14,172,2,0             // vaddps        0x2ac0e(%rip),%ymm0,%ymm0        # 2ad00 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
+  .byte  197,252,88,5,82,172,2,0             // vaddps        0x2ac52(%rip),%ymm0,%ymm0        # 32380 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
   .byte  197,249,110,201                     // vmovd         %ecx,%xmm1
   .byte  196,226,125,88,201                  // vpbroadcastd  %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,124,177,2,0       // vbroadcastss  0x2b17c(%rip),%ymm2        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,21,192,177,2,0       // vbroadcastss  0x2b1c0(%rip),%ymm2        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,244,88,202                      // vaddps        %ymm2,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,21,113,177,2,0       // vbroadcastss  0x2b171(%rip),%ymm2        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,21,181,177,2,0       // vbroadcastss  0x2b1b5(%rip),%ymm2        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
@@ -9474,17 +16600,17 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,121,110,194                     // vmovd         %edx,%xmm8
   .byte  196,66,125,88,192                   // vpbroadcastd  %xmm8,%ymm8
-  .byte  197,61,254,5,224,171,2,0            // vpaddd        0x2abe0(%rip),%ymm8,%ymm8        # 2ad20 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
+  .byte  197,61,254,5,36,172,2,0             // vpaddd        0x2ac24(%rip),%ymm8,%ymm8        # 323a0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
   .byte  197,121,110,201                     // vmovd         %ecx,%xmm9
   .byte  196,66,125,88,201                   // vpbroadcastd  %xmm9,%ymm9
   .byte  196,65,53,239,200                   // vpxor         %ymm8,%ymm9,%ymm9
-  .byte  196,98,125,88,21,53,177,2,0         // vpbroadcastd  0x2b135(%rip),%ymm10        # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+  .byte  196,98,125,88,21,121,177,2,0        // vpbroadcastd  0x2b179(%rip),%ymm10        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
   .byte  196,65,53,219,218                   // vpand         %ymm10,%ymm9,%ymm11
   .byte  196,193,37,114,243,5                // vpslld        $0x5,%ymm11,%ymm11
   .byte  196,65,61,219,210                   // vpand         %ymm10,%ymm8,%ymm10
   .byte  196,193,45,114,242,4                // vpslld        $0x4,%ymm10,%ymm10
-  .byte  196,98,125,88,37,26,177,2,0         // vpbroadcastd  0x2b11a(%rip),%ymm12        # 2b290 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
-  .byte  196,98,125,88,45,21,177,2,0         // vpbroadcastd  0x2b115(%rip),%ymm13        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,98,125,88,37,94,177,2,0         // vpbroadcastd  0x2b15e(%rip),%ymm12        # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+  .byte  196,98,125,88,45,89,177,2,0         // vpbroadcastd  0x2b159(%rip),%ymm13        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  196,65,53,219,245                   // vpand         %ymm13,%ymm9,%ymm14
   .byte  196,193,13,114,246,2                // vpslld        $0x2,%ymm14,%ymm14
   .byte  196,65,37,235,222                   // vpor          %ymm14,%ymm11,%ymm11
@@ -9499,8 +16625,8 @@
   .byte  196,65,61,235,195                   // vpor          %ymm11,%ymm8,%ymm8
   .byte  196,65,61,235,193                   // vpor          %ymm9,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,199,176,2,0        // vbroadcastss  0x2b0c7(%rip),%ymm9        # 2b298 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
-  .byte  196,98,125,24,21,194,176,2,0        // vbroadcastss  0x2b0c2(%rip),%ymm10        # 2b29c <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+  .byte  196,98,125,24,13,11,177,2,0         // vbroadcastss  0x2b10b(%rip),%ymm9        # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+  .byte  196,98,125,24,21,6,177,2,0          // vbroadcastss  0x2b106(%rip),%ymm10        # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
   .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
   .byte  196,98,125,24,0                     // vbroadcastss  (%rax),%ymm8
   .byte  196,65,44,89,192                    // vmulps        %ymm8,%ymm10,%ymm8
@@ -9534,7 +16660,7 @@
 FUNCTION(_sk_black_color_hsw)
 _sk_black_color_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,74,176,2,0        // vbroadcastss  0x2b04a(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,142,176,2,0       // vbroadcastss  0x2b08e(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -9545,7 +16671,7 @@
 FUNCTION(_sk_white_color_hsw)
 _sk_white_color_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,49,176,2,0         // vbroadcastss  0x2b031(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,117,176,2,0        // vbroadcastss  0x2b075(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
@@ -9591,7 +16717,7 @@
 FUNCTION(_sk_srcatop_hsw)
 _sk_srcatop_hsw:
   .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
-  .byte  196,98,125,24,5,208,175,2,0         // vbroadcastss  0x2afd0(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,20,176,2,0          // vbroadcastss  0x2b014(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,226,61,184,196                  // vfmadd231ps   %ymm4,%ymm8,%ymm0
   .byte  197,244,89,207                      // vmulps        %ymm7,%ymm1,%ymm1
@@ -9607,7 +16733,7 @@
 .globl _sk_dstatop_hsw
 FUNCTION(_sk_dstatop_hsw)
 _sk_dstatop_hsw:
-  .byte  196,98,125,24,5,159,175,2,0         // vbroadcastss  0x2af9f(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,227,175,2,0         // vbroadcastss  0x2afe3(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,226,101,184,196                 // vfmadd231ps   %ymm4,%ymm3,%ymm0
@@ -9646,7 +16772,7 @@
 .globl _sk_srcout_hsw
 FUNCTION(_sk_srcout_hsw)
 _sk_srcout_hsw:
-  .byte  196,98,125,24,5,66,175,2,0          // vbroadcastss  0x2af42(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,134,175,2,0         // vbroadcastss  0x2af86(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -9659,7 +16785,7 @@
 .globl _sk_dstout_hsw
 FUNCTION(_sk_dstout_hsw)
 _sk_dstout_hsw:
-  .byte  196,226,125,24,5,33,175,2,0         // vbroadcastss  0x2af21(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,101,175,2,0        // vbroadcastss  0x2af65(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,92,219                      // vsubps        %ymm3,%ymm0,%ymm3
   .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
   .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
@@ -9672,7 +16798,7 @@
 .globl _sk_srcover_hsw
 FUNCTION(_sk_srcover_hsw)
 _sk_srcover_hsw:
-  .byte  196,98,125,24,5,0,175,2,0           // vbroadcastss  0x2af00(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,68,175,2,0          // vbroadcastss  0x2af44(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,93,184,192                  // vfmadd231ps   %ymm8,%ymm4,%ymm0
   .byte  196,194,85,184,200                  // vfmadd231ps   %ymm8,%ymm5,%ymm1
@@ -9685,7 +16811,7 @@
 .globl _sk_dstover_hsw
 FUNCTION(_sk_dstover_hsw)
 _sk_dstover_hsw:
-  .byte  196,98,125,24,5,219,174,2,0         // vbroadcastss  0x2aedb(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,31,175,2,0          // vbroadcastss  0x2af1f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
   .byte  196,226,61,168,205                  // vfmadd213ps   %ymm5,%ymm8,%ymm1
@@ -9709,7 +16835,7 @@
 .globl _sk_multiply_hsw
 FUNCTION(_sk_multiply_hsw)
 _sk_multiply_hsw:
-  .byte  196,98,125,24,5,162,174,2,0         // vbroadcastss  0x2aea2(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,230,174,2,0         // vbroadcastss  0x2aee6(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -9732,7 +16858,7 @@
 FUNCTION(_sk_plus__hsw)
 _sk_plus__hsw:
   .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
-  .byte  196,98,125,24,5,81,174,2,0          // vbroadcastss  0x2ae51(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,149,174,2,0         // vbroadcastss  0x2ae95(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  197,244,88,205                      // vaddps        %ymm5,%ymm1,%ymm1
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
@@ -9762,7 +16888,7 @@
 .globl _sk_xor__hsw
 FUNCTION(_sk_xor__hsw)
 _sk_xor__hsw:
-  .byte  196,98,125,24,5,252,173,2,0         // vbroadcastss  0x2adfc(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,64,174,2,0          // vbroadcastss  0x2ae40(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -9796,7 +16922,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,95,209                  // vmaxps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,128,173,2,0         // vbroadcastss  0x2ad80(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,196,173,2,0         // vbroadcastss  0x2adc4(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -9821,7 +16947,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,43,173,2,0          // vbroadcastss  0x2ad2b(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,111,173,2,0         // vbroadcastss  0x2ad6f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -9849,7 +16975,7 @@
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,202,172,2,0         // vbroadcastss  0x2acca(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,14,173,2,0          // vbroadcastss  0x2ad0e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -9871,7 +16997,7 @@
   .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,132,172,2,0         // vbroadcastss  0x2ac84(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,200,172,2,0         // vbroadcastss  0x2acc8(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  196,194,69,184,216                  // vfmadd231ps   %ymm8,%ymm7,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -9881,7 +17007,7 @@
 .globl _sk_colorburn_hsw
 FUNCTION(_sk_colorburn_hsw)
 _sk_colorburn_hsw:
-  .byte  196,98,125,24,5,110,172,2,0         // vbroadcastss  0x2ac6e(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,178,172,2,0         // vbroadcastss  0x2acb2(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,216                       // vmulps        %ymm0,%ymm9,%ymm11
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
@@ -9939,7 +17065,7 @@
 FUNCTION(_sk_colordodge_hsw)
 _sk_colordodge_hsw:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,98,125,24,13,126,171,2,0        // vbroadcastss  0x2ab7e(%rip),%ymm9        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,13,194,171,2,0        // vbroadcastss  0x2abc2(%rip),%ymm9        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,52,92,215                       // vsubps        %ymm7,%ymm9,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,52,92,203                       // vsubps        %ymm3,%ymm9,%ymm9
@@ -9992,7 +17118,7 @@
 .globl _sk_hardlight_hsw
 FUNCTION(_sk_hardlight_hsw)
 _sk_hardlight_hsw:
-  .byte  196,98,125,24,5,152,170,2,0         // vbroadcastss  0x2aa98(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,220,170,2,0         // vbroadcastss  0x2aadc(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -10043,7 +17169,7 @@
 .globl _sk_overlay_hsw
 FUNCTION(_sk_overlay_hsw)
 _sk_overlay_hsw:
-  .byte  196,98,125,24,5,204,169,2,0         // vbroadcastss  0x2a9cc(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,16,170,2,0          // vbroadcastss  0x2aa10(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -10104,10 +17230,10 @@
   .byte  196,65,20,88,197                    // vaddps        %ymm13,%ymm13,%ymm8
   .byte  196,65,60,88,192                    // vaddps        %ymm8,%ymm8,%ymm8
   .byte  196,66,61,168,192                   // vfmadd213ps   %ymm8,%ymm8,%ymm8
-  .byte  196,98,125,24,29,231,168,2,0        // vbroadcastss  0x2a8e7(%rip),%ymm11        # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+  .byte  196,98,125,24,29,43,169,2,0         // vbroadcastss  0x2a92b(%rip),%ymm11        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
   .byte  196,65,20,88,227                    // vaddps        %ymm11,%ymm13,%ymm12
   .byte  196,65,28,89,192                    // vmulps        %ymm8,%ymm12,%ymm8
-  .byte  196,98,125,24,37,216,168,2,0        // vbroadcastss  0x2a8d8(%rip),%ymm12        # 2b2a4 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+  .byte  196,98,125,24,37,28,169,2,0         // vbroadcastss  0x2a91c(%rip),%ymm12        # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
   .byte  196,66,21,184,196                   // vfmadd231ps   %ymm12,%ymm13,%ymm8
   .byte  196,65,124,82,245                   // vrsqrtps      %ymm13,%ymm14
   .byte  196,65,124,83,246                   // vrcpps        %ymm14,%ymm14
@@ -10117,7 +17243,7 @@
   .byte  197,4,194,255,2                     // vcmpleps      %ymm7,%ymm15,%ymm15
   .byte  196,67,13,74,240,240                // vblendvps     %ymm15,%ymm8,%ymm14,%ymm14
   .byte  197,116,88,249                      // vaddps        %ymm1,%ymm1,%ymm15
-  .byte  196,98,125,24,5,135,168,2,0         // vbroadcastss  0x2a887(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,203,168,2,0         // vbroadcastss  0x2a8cb(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,65,60,92,237                    // vsubps        %ymm13,%ymm8,%ymm13
   .byte  197,132,92,195                      // vsubps        %ymm3,%ymm15,%ymm0
   .byte  196,98,125,168,235                  // vfmadd213ps   %ymm3,%ymm0,%ymm13
@@ -10230,11 +17356,11 @@
   .byte  196,65,28,89,210                    // vmulps        %ymm10,%ymm12,%ymm10
   .byte  196,65,44,94,214                    // vdivps        %ymm14,%ymm10,%ymm10
   .byte  196,67,45,74,224,240                // vblendvps     %ymm15,%ymm8,%ymm10,%ymm12
-  .byte  196,98,125,24,53,159,166,2,0        // vbroadcastss  0x2a69f(%rip),%ymm14        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
-  .byte  196,98,125,24,61,154,166,2,0        // vbroadcastss  0x2a69a(%rip),%ymm15        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,53,227,166,2,0        // vbroadcastss  0x2a6e3(%rip),%ymm14        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,61,222,166,2,0        // vbroadcastss  0x2a6de(%rip),%ymm15        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,239                    // vmulps        %ymm15,%ymm5,%ymm13
   .byte  196,66,93,184,238                   // vfmadd231ps   %ymm14,%ymm4,%ymm13
-  .byte  196,226,125,24,5,139,166,2,0        // vbroadcastss  0x2a68b(%rip),%ymm0        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,226,125,24,5,207,166,2,0        // vbroadcastss  0x2a6cf(%rip),%ymm0        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,98,77,184,232                   // vfmadd231ps   %ymm0,%ymm6,%ymm13
   .byte  196,65,116,89,215                   // vmulps        %ymm15,%ymm1,%ymm10
   .byte  196,66,53,184,214                   // vfmadd231ps   %ymm14,%ymm9,%ymm10
@@ -10289,7 +17415,7 @@
   .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
   .byte  196,65,36,95,200                    // vmaxps        %ymm8,%ymm11,%ymm9
   .byte  196,65,116,95,192                   // vmaxps        %ymm8,%ymm1,%ymm8
-  .byte  196,226,125,24,13,76,165,2,0        // vbroadcastss  0x2a54c(%rip),%ymm1        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,13,144,165,2,0       // vbroadcastss  0x2a590(%rip),%ymm1        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,116,92,215                      // vsubps        %ymm7,%ymm1,%ymm10
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  197,116,92,219                      // vsubps        %ymm3,%ymm1,%ymm11
@@ -10343,11 +17469,11 @@
   .byte  196,65,28,89,210                    // vmulps        %ymm10,%ymm12,%ymm10
   .byte  196,65,44,94,214                    // vdivps        %ymm14,%ymm10,%ymm10
   .byte  196,67,45,74,224,240                // vblendvps     %ymm15,%ymm8,%ymm10,%ymm12
-  .byte  196,98,125,24,53,127,164,2,0        // vbroadcastss  0x2a47f(%rip),%ymm14        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
-  .byte  196,98,125,24,61,122,164,2,0        // vbroadcastss  0x2a47a(%rip),%ymm15        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,53,195,164,2,0        // vbroadcastss  0x2a4c3(%rip),%ymm14        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,61,190,164,2,0        // vbroadcastss  0x2a4be(%rip),%ymm15        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,239                    // vmulps        %ymm15,%ymm5,%ymm13
   .byte  196,66,93,184,238                   // vfmadd231ps   %ymm14,%ymm4,%ymm13
-  .byte  196,226,125,24,5,107,164,2,0        // vbroadcastss  0x2a46b(%rip),%ymm0        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,226,125,24,5,175,164,2,0        // vbroadcastss  0x2a4af(%rip),%ymm0        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,98,77,184,232                   // vfmadd231ps   %ymm0,%ymm6,%ymm13
   .byte  196,65,116,89,215                   // vmulps        %ymm15,%ymm1,%ymm10
   .byte  196,66,53,184,214                   // vfmadd231ps   %ymm14,%ymm9,%ymm10
@@ -10402,7 +17528,7 @@
   .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
   .byte  196,65,36,95,200                    // vmaxps        %ymm8,%ymm11,%ymm9
   .byte  196,65,116,95,192                   // vmaxps        %ymm8,%ymm1,%ymm8
-  .byte  196,226,125,24,13,44,163,2,0        // vbroadcastss  0x2a32c(%rip),%ymm1        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,13,112,163,2,0       // vbroadcastss  0x2a370(%rip),%ymm1        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,116,92,215                      // vsubps        %ymm7,%ymm1,%ymm10
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  197,116,92,219                      // vsubps        %ymm3,%ymm1,%ymm11
@@ -10430,11 +17556,11 @@
   .byte  197,108,89,199                      // vmulps        %ymm7,%ymm2,%ymm8
   .byte  197,116,89,215                      // vmulps        %ymm7,%ymm1,%ymm10
   .byte  197,52,89,223                       // vmulps        %ymm7,%ymm9,%ymm11
-  .byte  196,98,125,24,45,225,162,2,0        // vbroadcastss  0x2a2e1(%rip),%ymm13        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
-  .byte  196,98,125,24,53,220,162,2,0        // vbroadcastss  0x2a2dc(%rip),%ymm14        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,45,37,163,2,0         // vbroadcastss  0x2a325(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,53,32,163,2,0         // vbroadcastss  0x2a320(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,230                    // vmulps        %ymm14,%ymm5,%ymm12
   .byte  196,66,93,184,229                   // vfmadd231ps   %ymm13,%ymm4,%ymm12
-  .byte  196,98,125,24,61,205,162,2,0        // vbroadcastss  0x2a2cd(%rip),%ymm15        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,98,125,24,61,17,163,2,0         // vbroadcastss  0x2a311(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,66,77,184,231                   // vfmadd231ps   %ymm15,%ymm6,%ymm12
   .byte  196,65,44,89,206                    // vmulps        %ymm14,%ymm10,%ymm9
   .byte  196,66,61,184,205                   // vfmadd231ps   %ymm13,%ymm8,%ymm9
@@ -10490,7 +17616,7 @@
   .byte  196,193,116,95,206                  // vmaxps        %ymm14,%ymm1,%ymm1
   .byte  196,65,44,95,198                    // vmaxps        %ymm14,%ymm10,%ymm8
   .byte  196,65,124,95,206                   // vmaxps        %ymm14,%ymm0,%ymm9
-  .byte  196,226,125,24,5,131,161,2,0        // vbroadcastss  0x2a183(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,199,161,2,0        // vbroadcastss  0x2a1c7(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,124,92,215                      // vsubps        %ymm7,%ymm0,%ymm10
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  197,124,92,219                      // vsubps        %ymm3,%ymm0,%ymm11
@@ -10518,11 +17644,11 @@
   .byte  197,100,89,196                      // vmulps        %ymm4,%ymm3,%ymm8
   .byte  197,100,89,213                      // vmulps        %ymm5,%ymm3,%ymm10
   .byte  197,100,89,222                      // vmulps        %ymm6,%ymm3,%ymm11
-  .byte  196,98,125,24,45,56,161,2,0         // vbroadcastss  0x2a138(%rip),%ymm13        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
-  .byte  196,98,125,24,53,51,161,2,0         // vbroadcastss  0x2a133(%rip),%ymm14        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,45,124,161,2,0        // vbroadcastss  0x2a17c(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,53,119,161,2,0        // vbroadcastss  0x2a177(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,116,89,230                   // vmulps        %ymm14,%ymm1,%ymm12
   .byte  196,66,109,184,229                  // vfmadd231ps   %ymm13,%ymm2,%ymm12
-  .byte  196,98,125,24,61,36,161,2,0         // vbroadcastss  0x2a124(%rip),%ymm15        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,98,125,24,61,104,161,2,0        // vbroadcastss  0x2a168(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,66,53,184,231                   // vfmadd231ps   %ymm15,%ymm9,%ymm12
   .byte  196,65,44,89,206                    // vmulps        %ymm14,%ymm10,%ymm9
   .byte  196,66,61,184,205                   // vfmadd231ps   %ymm13,%ymm8,%ymm9
@@ -10578,7 +17704,7 @@
   .byte  196,193,116,95,206                  // vmaxps        %ymm14,%ymm1,%ymm1
   .byte  196,65,44,95,198                    // vmaxps        %ymm14,%ymm10,%ymm8
   .byte  196,65,124,95,206                   // vmaxps        %ymm14,%ymm0,%ymm9
-  .byte  196,226,125,24,5,218,159,2,0        // vbroadcastss  0x29fda(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,30,160,2,0         // vbroadcastss  0x2a01e(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,124,92,215                      // vsubps        %ymm7,%ymm0,%ymm10
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  197,124,92,219                      // vsubps        %ymm3,%ymm0,%ymm11
@@ -10607,19 +17733,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,179,0,0,0                    // jne           13c3 <_sk_srcover_rgba_8888_hsw+0xd3>
+  .byte  15,133,179,0,0,0                    // jne           89ff <_sk_srcover_rgba_8888_hsw+0xd3>
   .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
-  .byte  197,197,219,37,34,154,2,0           // vpand         0x29a22(%rip),%ymm7,%ymm4        # 2ad40 <_sk_srcover_rgba_8888_sse2_lowp+0x300>
+  .byte  197,197,219,37,102,154,2,0          // vpand         0x29a66(%rip),%ymm7,%ymm4        # 323c0 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,69,0,45,53,154,2,0          // vpshufb       0x29a35(%rip),%ymm7,%ymm5        # 2ad60 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
+  .byte  196,226,69,0,45,121,154,2,0         // vpshufb       0x29a79(%rip),%ymm7,%ymm5        # 323e0 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,226,69,0,53,72,154,2,0          // vpshufb       0x29a48(%rip),%ymm7,%ymm6        # 2ad80 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
+  .byte  196,226,69,0,53,140,154,2,0         // vpshufb       0x29a8c(%rip),%ymm7,%ymm6        # 32400 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
   .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
   .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
-  .byte  196,98,125,24,5,58,159,2,0          // vbroadcastss  0x29f3a(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,126,159,2,0         // vbroadcastss  0x29f7e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  196,98,125,24,13,89,159,2,0         // vbroadcastss  0x29f59(%rip),%ymm9        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,13,157,159,2,0        // vbroadcastss  0x29f9d(%rip),%ymm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  196,194,93,184,192                  // vfmadd231ps   %ymm8,%ymm4,%ymm0
   .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
@@ -10639,7 +17765,7 @@
   .byte  196,65,53,235,202                   // vpor          %ymm10,%ymm9,%ymm9
   .byte  196,65,61,235,193                   // vpor          %ymm9,%ymm8,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,65                              // jne           13fa <_sk_srcover_rgba_8888_hsw+0x10a>
+  .byte  117,65                              // jne           8a36 <_sk_srcover_rgba_8888_hsw+0x10a>
   .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -10648,33 +17774,33 @@
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,59,255,255,255               // ja            1316 <_sk_srcover_rgba_8888_hsw+0x26>
+  .byte  15,135,59,255,255,255               // ja            8952 <_sk_srcover_rgba_8888_hsw+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,254,0,0,0                 // lea           0xfe(%rip),%r10        # 14e4 <_sk_srcover_rgba_8888_hsw+0x1f4>
+  .byte  76,141,21,254,0,0,0                 // lea           0xfe(%rip),%r10        # 8b20 <_sk_srcover_rgba_8888_hsw+0x1f4>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
-  .byte  233,28,255,255,255                  // jmpq          1316 <_sk_srcover_rgba_8888_hsw+0x26>
+  .byte  233,28,255,255,255                  // jmpq          8952 <_sk_srcover_rgba_8888_hsw+0x26>
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,181                             // ja            13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+  .byte  119,181                             // ja            89fb <_sk_srcover_rgba_8888_hsw+0xcf>
   .byte  65,15,182,193                       // movzbl        %r9b,%eax
-  .byte  76,141,13,235,0,0,0                 // lea           0xeb(%rip),%r9        # 1500 <_sk_srcover_rgba_8888_hsw+0x210>
+  .byte  76,141,13,235,0,0,0                 // lea           0xeb(%rip),%r9        # 8b3c <_sk_srcover_rgba_8888_hsw+0x210>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,153                             // jmp           13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+  .byte  235,153                             // jmp           89fb <_sk_srcover_rgba_8888_hsw+0xcf>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
   .byte  196,227,85,2,252,4                  // vpblendd      $0x4,%ymm4,%ymm5,%ymm7
   .byte  196,129,122,126,36,152              // vmovq         (%r8,%r11,4),%xmm4
   .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
-  .byte  233,201,254,255,255                 // jmpq          1316 <_sk_srcover_rgba_8888_hsw+0x26>
+  .byte  233,201,254,255,255                 // jmpq          8952 <_sk_srcover_rgba_8888_hsw+0x26>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -10687,10 +17813,10 @@
   .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
   .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
   .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
-  .byte  233,122,254,255,255                 // jmpq          1316 <_sk_srcover_rgba_8888_hsw+0x26>
+  .byte  233,122,254,255,255                 // jmpq          8952 <_sk_srcover_rgba_8888_hsw+0x26>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  233,16,255,255,255                  // jmpq          13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+  .byte  233,16,255,255,255                  // jmpq          89fb <_sk_srcover_rgba_8888_hsw+0xcf>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -10698,7 +17824,7 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
-  .byte  233,220,254,255,255                 // jmpq          13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+  .byte  233,220,254,255,255                 // jmpq          89fb <_sk_srcover_rgba_8888_hsw+0xcf>
   .byte  144                                 // nop
   .byte  11,255                              // or            %edi,%edi
   .byte  255                                 // (bad)
@@ -10710,7 +17836,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,255                             // jg            14f9 <_sk_srcover_rgba_8888_hsw+0x209>
+  .byte  127,255                             // jg            8b35 <_sk_srcover_rgba_8888_hsw+0x209>
   .byte  255                                 // (bad)
   .byte  255,105,255                         // ljmp          *-0x1(%rcx)
   .byte  255                                 // (bad)
@@ -10747,7 +17873,7 @@
 .globl _sk_clamp_1_hsw
 FUNCTION(_sk_clamp_1_hsw)
 _sk_clamp_1_hsw:
-  .byte  196,98,125,24,5,70,157,2,0          // vbroadcastss  0x29d46(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,138,157,2,0         // vbroadcastss  0x29d8a(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
@@ -10759,7 +17885,7 @@
 .globl _sk_clamp_a_hsw
 FUNCTION(_sk_clamp_a_hsw)
 _sk_clamp_a_hsw:
-  .byte  196,98,125,24,5,37,157,2,0          // vbroadcastss  0x29d25(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,105,157,2,0         // vbroadcastss  0x29d69(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
   .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
@@ -10771,7 +17897,7 @@
 .globl _sk_clamp_a_dst_hsw
 FUNCTION(_sk_clamp_a_dst_hsw)
 _sk_clamp_a_dst_hsw:
-  .byte  196,98,125,24,5,7,157,2,0           // vbroadcastss  0x29d07(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,75,157,2,0          // vbroadcastss  0x29d4b(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,68,93,248                   // vminps        %ymm8,%ymm7,%ymm7
   .byte  197,220,93,231                      // vminps        %ymm7,%ymm4,%ymm4
   .byte  197,212,93,239                      // vminps        %ymm7,%ymm5,%ymm5
@@ -10804,7 +17930,7 @@
 .globl _sk_invert_hsw
 FUNCTION(_sk_invert_hsw)
 _sk_invert_hsw:
-  .byte  196,98,125,24,5,194,156,2,0         // vbroadcastss  0x29cc2(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,6,157,2,0           // vbroadcastss  0x29d06(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
   .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
@@ -10860,7 +17986,7 @@
 _sk_unpremul_hsw:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,65,100,194,200,0                // vcmpeqps      %ymm8,%ymm3,%ymm9
-  .byte  196,98,125,24,21,82,156,2,0         // vbroadcastss  0x29c52(%rip),%ymm10        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,21,150,156,2,0        // vbroadcastss  0x29c96(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,44,94,211                       // vdivps        %ymm3,%ymm10,%ymm10
   .byte  196,67,45,74,192,144                // vblendvps     %ymm9,%ymm8,%ymm10,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
@@ -10873,16 +17999,16 @@
 .globl _sk_from_srgb_hsw
 FUNCTION(_sk_from_srgb_hsw)
 _sk_from_srgb_hsw:
-  .byte  196,98,125,24,5,95,156,2,0          // vbroadcastss  0x29c5f(%rip),%ymm8        # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+  .byte  196,98,125,24,5,163,156,2,0         // vbroadcastss  0x29ca3(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  197,124,89,208                      // vmulps        %ymm0,%ymm0,%ymm10
-  .byte  196,98,125,24,29,81,156,2,0         // vbroadcastss  0x29c51(%rip),%ymm11        # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
-  .byte  196,98,125,24,37,52,156,2,0         // vbroadcastss  0x29c34(%rip),%ymm12        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,29,149,156,2,0        // vbroadcastss  0x29c95(%rip),%ymm11        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,37,120,156,2,0        // vbroadcastss  0x29c78(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
   .byte  196,66,125,168,235                  // vfmadd213ps   %ymm11,%ymm0,%ymm13
-  .byte  196,98,125,24,53,57,156,2,0         // vbroadcastss  0x29c39(%rip),%ymm14        # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+  .byte  196,98,125,24,53,125,156,2,0        // vbroadcastss  0x29c7d(%rip),%ymm14        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
   .byte  196,66,45,168,238                   // vfmadd213ps   %ymm14,%ymm10,%ymm13
-  .byte  196,98,125,24,21,47,156,2,0         // vbroadcastss  0x29c2f(%rip),%ymm10        # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+  .byte  196,98,125,24,21,115,156,2,0        // vbroadcastss  0x29c73(%rip),%ymm10        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
   .byte  196,193,124,194,194,1               // vcmpltps      %ymm10,%ymm0,%ymm0
   .byte  196,195,21,74,193,0                 // vblendvps     %ymm0,%ymm9,%ymm13,%ymm0
   .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
@@ -10905,16 +18031,16 @@
 .globl _sk_from_srgb_dst_hsw
 FUNCTION(_sk_from_srgb_dst_hsw)
 _sk_from_srgb_dst_hsw:
-  .byte  196,98,125,24,5,199,155,2,0         // vbroadcastss  0x29bc7(%rip),%ymm8        # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+  .byte  196,98,125,24,5,11,156,2,0          // vbroadcastss  0x29c0b(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
   .byte  196,65,92,89,200                    // vmulps        %ymm8,%ymm4,%ymm9
   .byte  197,92,89,212                       // vmulps        %ymm4,%ymm4,%ymm10
-  .byte  196,98,125,24,29,185,155,2,0        // vbroadcastss  0x29bb9(%rip),%ymm11        # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
-  .byte  196,98,125,24,37,156,155,2,0        // vbroadcastss  0x29b9c(%rip),%ymm12        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,29,253,155,2,0        // vbroadcastss  0x29bfd(%rip),%ymm11        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,37,224,155,2,0        // vbroadcastss  0x29be0(%rip),%ymm12        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
   .byte  196,66,93,168,235                   // vfmadd213ps   %ymm11,%ymm4,%ymm13
-  .byte  196,98,125,24,53,161,155,2,0        // vbroadcastss  0x29ba1(%rip),%ymm14        # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+  .byte  196,98,125,24,53,229,155,2,0        // vbroadcastss  0x29be5(%rip),%ymm14        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
   .byte  196,66,45,168,238                   // vfmadd213ps   %ymm14,%ymm10,%ymm13
-  .byte  196,98,125,24,21,151,155,2,0        // vbroadcastss  0x29b97(%rip),%ymm10        # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+  .byte  196,98,125,24,21,219,155,2,0        // vbroadcastss  0x29bdb(%rip),%ymm10        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
   .byte  196,193,92,194,226,1                // vcmpltps      %ymm10,%ymm4,%ymm4
   .byte  196,195,21,74,225,64                // vblendvps     %ymm4,%ymm9,%ymm13,%ymm4
   .byte  196,65,84,89,200                    // vmulps        %ymm8,%ymm5,%ymm9
@@ -10938,19 +18064,19 @@
 FUNCTION(_sk_to_srgb_hsw)
 _sk_to_srgb_hsw:
   .byte  197,124,82,200                      // vrsqrtps      %ymm0,%ymm9
-  .byte  196,98,125,24,5,59,155,2,0          // vbroadcastss  0x29b3b(%rip),%ymm8        # 2b2c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,98,125,24,5,127,155,2,0         // vbroadcastss  0x29b7f(%rip),%ymm8        # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
   .byte  196,65,124,89,208                   // vmulps        %ymm8,%ymm0,%ymm10
-  .byte  196,98,125,24,29,49,155,2,0         // vbroadcastss  0x29b31(%rip),%ymm11        # 2b2cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
-  .byte  196,98,125,24,37,44,155,2,0         // vbroadcastss  0x29b2c(%rip),%ymm12        # 2b2d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+  .byte  196,98,125,24,29,117,155,2,0        // vbroadcastss  0x29b75(%rip),%ymm11        # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,24,37,112,155,2,0        // vbroadcastss  0x29b70(%rip),%ymm12        # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
   .byte  196,65,124,40,236                   // vmovaps       %ymm12,%ymm13
   .byte  196,66,53,168,235                   // vfmadd213ps   %ymm11,%ymm9,%ymm13
-  .byte  196,98,125,24,53,29,155,2,0         // vbroadcastss  0x29b1d(%rip),%ymm14        # 2b2d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+  .byte  196,98,125,24,53,145,156,2,0        // vbroadcastss  0x29c91(%rip),%ymm14        # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
   .byte  196,66,53,168,238                   // vfmadd213ps   %ymm14,%ymm9,%ymm13
-  .byte  196,98,125,24,61,19,155,2,0         // vbroadcastss  0x29b13(%rip),%ymm15        # 2b2d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+  .byte  196,98,125,24,61,135,156,2,0        // vbroadcastss  0x29c87(%rip),%ymm15        # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
   .byte  196,65,52,88,207                    // vaddps        %ymm15,%ymm9,%ymm9
   .byte  196,65,124,83,201                   // vrcpps        %ymm9,%ymm9
   .byte  196,65,20,89,201                    // vmulps        %ymm9,%ymm13,%ymm9
-  .byte  196,98,125,24,45,255,154,2,0        // vbroadcastss  0x29aff(%rip),%ymm13        # 2b2dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+  .byte  196,98,125,24,45,67,155,2,0         // vbroadcastss  0x29b43(%rip),%ymm13        # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
   .byte  196,193,124,194,197,1               // vcmpltps      %ymm13,%ymm0,%ymm0
   .byte  196,195,53,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm9,%ymm0
   .byte  197,124,82,201                      // vrsqrtps      %ymm1,%ymm9
@@ -10984,26 +18110,26 @@
   .byte  197,116,93,202                      // vminps        %ymm2,%ymm1,%ymm9
   .byte  196,65,124,93,201                   // vminps        %ymm9,%ymm0,%ymm9
   .byte  196,65,60,92,209                    // vsubps        %ymm9,%ymm8,%ymm10
-  .byte  196,98,125,24,29,26,154,2,0         // vbroadcastss  0x29a1a(%rip),%ymm11        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,29,94,154,2,0         // vbroadcastss  0x29a5e(%rip),%ymm11        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,65,36,94,218                    // vdivps        %ymm10,%ymm11,%ymm11
   .byte  197,116,92,226                      // vsubps        %ymm2,%ymm1,%ymm12
   .byte  197,116,194,234,1                   // vcmpltps      %ymm2,%ymm1,%ymm13
-  .byte  196,98,125,24,53,91,154,2,0         // vbroadcastss  0x29a5b(%rip),%ymm14        # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+  .byte  196,98,125,24,53,159,154,2,0        // vbroadcastss  0x29a9f(%rip),%ymm14        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
   .byte  196,65,4,87,255                     // vxorps        %ymm15,%ymm15,%ymm15
   .byte  196,67,5,74,238,208                 // vblendvps     %ymm13,%ymm14,%ymm15,%ymm13
   .byte  196,66,37,168,229                   // vfmadd213ps   %ymm13,%ymm11,%ymm12
   .byte  197,236,92,208                      // vsubps        %ymm0,%ymm2,%ymm2
   .byte  197,124,92,233                      // vsubps        %ymm1,%ymm0,%ymm13
-  .byte  196,98,125,24,53,66,154,2,0         // vbroadcastss  0x29a42(%rip),%ymm14        # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+  .byte  196,98,125,24,53,134,154,2,0        // vbroadcastss  0x29a86(%rip),%ymm14        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
   .byte  196,66,37,168,238                   // vfmadd213ps   %ymm14,%ymm11,%ymm13
-  .byte  196,98,125,24,53,48,154,2,0         // vbroadcastss  0x29a30(%rip),%ymm14        # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+  .byte  196,98,125,24,53,116,154,2,0        // vbroadcastss  0x29a74(%rip),%ymm14        # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
   .byte  196,194,37,168,214                  // vfmadd213ps   %ymm14,%ymm11,%ymm2
   .byte  197,188,194,201,0                   // vcmpeqps      %ymm1,%ymm8,%ymm1
   .byte  196,227,21,74,202,16                // vblendvps     %ymm1,%ymm2,%ymm13,%ymm1
   .byte  197,188,194,192,0                   // vcmpeqps      %ymm0,%ymm8,%ymm0
   .byte  196,195,117,74,196,0                // vblendvps     %ymm0,%ymm12,%ymm1,%ymm0
   .byte  196,193,60,88,201                   // vaddps        %ymm9,%ymm8,%ymm1
-  .byte  196,98,125,24,29,167,153,2,0        // vbroadcastss  0x299a7(%rip),%ymm11        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,29,235,153,2,0        // vbroadcastss  0x299eb(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,116,89,211                  // vmulps        %ymm11,%ymm1,%ymm2
   .byte  197,36,194,218,1                    // vcmpltps      %ymm2,%ymm11,%ymm11
   .byte  196,65,12,92,224                    // vsubps        %ymm8,%ymm14,%ymm12
@@ -11013,7 +18139,7 @@
   .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
   .byte  196,195,125,74,199,128              // vblendvps     %ymm8,%ymm15,%ymm0,%ymm0
   .byte  196,195,117,74,207,128              // vblendvps     %ymm8,%ymm15,%ymm1,%ymm1
-  .byte  196,98,125,24,5,214,153,2,0         // vbroadcastss  0x299d6(%rip),%ymm8        # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,5,26,154,2,0          // vbroadcastss  0x29a1a(%rip),%ymm8        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11030,30 +18156,30 @@
   .byte  197,252,17,92,36,128                // vmovups       %ymm3,-0x80(%rsp)
   .byte  197,252,40,233                      // vmovaps       %ymm1,%ymm5
   .byte  197,252,40,224                      // vmovaps       %ymm0,%ymm4
-  .byte  196,98,125,24,5,51,153,2,0          // vbroadcastss  0x29933(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,119,153,2,0         // vbroadcastss  0x29977(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,60,194,202,2                    // vcmpleps      %ymm2,%ymm8,%ymm9
   .byte  197,84,89,210                       // vmulps        %ymm2,%ymm5,%ymm10
   .byte  196,65,84,92,218                    // vsubps        %ymm10,%ymm5,%ymm11
   .byte  196,67,45,74,203,144                // vblendvps     %ymm9,%ymm11,%ymm10,%ymm9
   .byte  197,52,88,210                       // vaddps        %ymm2,%ymm9,%ymm10
-  .byte  196,98,125,24,13,114,153,2,0        // vbroadcastss  0x29972(%rip),%ymm9        # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+  .byte  196,98,125,24,13,182,153,2,0        // vbroadcastss  0x299b6(%rip),%ymm9        # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
   .byte  196,66,109,170,202                  // vfmsub213ps   %ymm10,%ymm2,%ymm9
-  .byte  196,98,125,24,29,112,153,2,0        // vbroadcastss  0x29970(%rip),%ymm11        # 2b2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,98,125,24,29,180,153,2,0        // vbroadcastss  0x299b4(%rip),%ymm11        # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
   .byte  196,65,92,88,219                    // vaddps        %ymm11,%ymm4,%ymm11
   .byte  196,67,125,8,227,1                  // vroundps      $0x1,%ymm11,%ymm12
   .byte  196,65,36,92,252                    // vsubps        %ymm12,%ymm11,%ymm15
   .byte  196,65,44,92,217                    // vsubps        %ymm9,%ymm10,%ymm11
-  .byte  196,98,125,24,45,66,153,2,0         // vbroadcastss  0x29942(%rip),%ymm13        # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+  .byte  196,98,125,24,45,134,153,2,0        // vbroadcastss  0x29986(%rip),%ymm13        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
   .byte  196,193,4,89,197                    // vmulps        %ymm13,%ymm15,%ymm0
-  .byte  196,98,125,24,53,60,153,2,0         // vbroadcastss  0x2993c(%rip),%ymm14        # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+  .byte  196,98,125,24,53,128,153,2,0        // vbroadcastss  0x29980(%rip),%ymm14        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
   .byte  197,12,92,224                       // vsubps        %ymm0,%ymm14,%ymm12
   .byte  196,66,37,168,225                   // vfmadd213ps   %ymm9,%ymm11,%ymm12
-  .byte  196,226,125,24,29,54,153,2,0        // vbroadcastss  0x29936(%rip),%ymm3        # 2b2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  196,226,125,24,29,122,153,2,0       // vbroadcastss  0x2997a(%rip),%ymm3        # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
   .byte  196,193,100,194,255,2               // vcmpleps      %ymm15,%ymm3,%ymm7
   .byte  196,195,29,74,249,112               // vblendvps     %ymm7,%ymm9,%ymm12,%ymm7
   .byte  196,65,60,194,231,2                 // vcmpleps      %ymm15,%ymm8,%ymm12
   .byte  196,227,45,74,255,192               // vblendvps     %ymm12,%ymm7,%ymm10,%ymm7
-  .byte  196,98,125,24,37,13,153,2,0         // vbroadcastss  0x2990d(%rip),%ymm12        # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,37,81,153,2,0         // vbroadcastss  0x29951(%rip),%ymm12        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
   .byte  196,65,28,194,255,2                 // vcmpleps      %ymm15,%ymm12,%ymm15
   .byte  196,194,37,168,193                  // vfmadd213ps   %ymm9,%ymm11,%ymm0
   .byte  196,99,125,74,255,240               // vblendvps     %ymm15,%ymm7,%ymm0,%ymm15
@@ -11069,7 +18195,7 @@
   .byte  197,156,194,192,2                   // vcmpleps      %ymm0,%ymm12,%ymm0
   .byte  196,194,37,168,249                  // vfmadd213ps   %ymm9,%ymm11,%ymm7
   .byte  196,227,69,74,201,0                 // vblendvps     %ymm0,%ymm1,%ymm7,%ymm1
-  .byte  196,226,125,24,5,193,152,2,0        // vbroadcastss  0x298c1(%rip),%ymm0        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,226,125,24,5,5,153,2,0          // vbroadcastss  0x29905(%rip),%ymm0        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  197,220,88,192                      // vaddps        %ymm0,%ymm4,%ymm0
   .byte  196,227,125,8,224,1                 // vroundps      $0x1,%ymm0,%ymm4
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
@@ -11121,12 +18247,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,58                              // jne           1b26 <_sk_scale_u8_hsw+0x52>
+  .byte  117,58                              // jne           9162 <_sk_scale_u8_hsw+0x52>
   .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
-  .byte  197,57,219,5,38,153,2,0             // vpand         0x29926(%rip),%xmm8,%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,57,219,5,106,153,2,0            // vpand         0x2996a(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,239,151,2,0        // vbroadcastss  0x297ef(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,51,152,2,0         // vbroadcastss  0x29833(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -11139,15 +18265,15 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,183                             // ja            1af2 <_sk_scale_u8_hsw+0x1e>
+  .byte  119,183                             // ja            912e <_sk_scale_u8_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 1bc0 <_sk_scale_u8_hsw+0xec>
+  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 91fc <_sk_scale_u8_hsw+0xec>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  235,152                             // jmp           1af2 <_sk_scale_u8_hsw+0x1e>
+  .byte  235,152                             // jmp           912e <_sk_scale_u8_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
@@ -11155,7 +18281,7 @@
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,111,255,255,255                 // jmpq          1af2 <_sk_scale_u8_hsw+0x1e>
+  .byte  233,111,255,255,255                 // jmpq          912e <_sk_scale_u8_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
@@ -11166,7 +18292,7 @@
   .byte  196,1,121,110,12,24                 // vmovd         (%r8,%r11,1),%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  233,51,255,255,255                  // jmpq          1af2 <_sk_scale_u8_hsw+0x1e>
+  .byte  233,51,255,255,255                  // jmpq          912e <_sk_scale_u8_hsw+0x1e>
   .byte  144                                 // nop
   .byte  143                                 // (bad)
   .byte  255                                 // (bad)
@@ -11175,7 +18301,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf001bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd7190>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00920c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd7190>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -11198,23 +18324,23 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,161,0,0,0                    // jne           1c9c <_sk_scale_565_hsw+0xc0>
+  .byte  15,133,161,0,0,0                    // jne           92d8 <_sk_scale_565_hsw+0xc0>
   .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
   .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
-  .byte  196,98,125,88,13,241,150,2,0        // vpbroadcastd  0x296f1(%rip),%ymm9        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,88,13,53,151,2,0         // vpbroadcastd  0x29735(%rip),%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  196,65,61,219,201                   // vpand         %ymm9,%ymm8,%ymm9
   .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
-  .byte  196,98,125,24,21,226,150,2,0        // vbroadcastss  0x296e2(%rip),%ymm10        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,98,125,24,21,38,151,2,0         // vbroadcastss  0x29726(%rip),%ymm10        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,88,21,216,150,2,0        // vpbroadcastd  0x296d8(%rip),%ymm10        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,98,125,88,21,28,151,2,0         // vpbroadcastd  0x2971c(%rip),%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  196,65,61,219,210                   // vpand         %ymm10,%ymm8,%ymm10
   .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
-  .byte  196,98,125,24,29,201,150,2,0        // vbroadcastss  0x296c9(%rip),%ymm11        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,98,125,24,29,13,151,2,0         // vbroadcastss  0x2970d(%rip),%ymm11        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,88,29,191,150,2,0        // vpbroadcastd  0x296bf(%rip),%ymm11        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,88,29,3,151,2,0          // vpbroadcastd  0x29703(%rip),%ymm11        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  196,65,61,219,195                   // vpand         %ymm11,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,29,176,150,2,0        // vbroadcastss  0x296b0(%rip),%ymm11        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,98,125,24,29,244,150,2,0        // vbroadcastss  0x296f4(%rip),%ymm11        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  197,100,194,223,1                   // vcmpltps      %ymm7,%ymm3,%ymm11
   .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
@@ -11233,27 +18359,27 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,76,255,255,255               // ja            1c01 <_sk_scale_565_hsw+0x25>
+  .byte  15,135,76,255,255,255               // ja            923d <_sk_scale_565_hsw+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 1d24 <_sk_scale_565_hsw+0x148>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 9360 <_sk_scale_565_hsw+0x148>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,42,255,255,255                  // jmpq          1c01 <_sk_scale_565_hsw+0x25>
+  .byte  233,42,255,255,255                  // jmpq          923d <_sk_scale_565_hsw+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,121,110,12,88                 // vmovd         (%r8,%r11,2),%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,12,255,255,255                  // jmpq          1c01 <_sk_scale_565_hsw+0x25>
+  .byte  233,12,255,255,255                  // jmpq          923d <_sk_scale_565_hsw+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,122,126,12,88                 // vmovq         (%r8,%r11,2),%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  233,222,254,255,255                 // jmpq          1c01 <_sk_scale_565_hsw+0x25>
+  .byte  233,222,254,255,255                 // jmpq          923d <_sk_scale_565_hsw+0x25>
   .byte  144                                 // nop
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -11303,12 +18429,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,78                              // jne           1dd5 <_sk_lerp_u8_hsw+0x66>
+  .byte  117,78                              // jne           9411 <_sk_lerp_u8_hsw+0x66>
   .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
-  .byte  197,57,219,5,139,150,2,0            // vpand         0x2968b(%rip),%xmm8,%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,57,219,5,207,150,2,0            // vpand         0x296cf(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,84,149,2,0         // vbroadcastss  0x29554(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,152,149,2,0        // vbroadcastss  0x29598(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
   .byte  196,226,61,168,196                  // vfmadd213ps   %ymm4,%ymm8,%ymm0
@@ -11325,15 +18451,15 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,163                             // ja            1d8d <_sk_lerp_u8_hsw+0x1e>
+  .byte  119,163                             // ja            93c9 <_sk_lerp_u8_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,123,0,0,0                 // lea           0x7b(%rip),%r10        # 1e70 <_sk_lerp_u8_hsw+0x101>
+  .byte  76,141,21,123,0,0,0                 // lea           0x7b(%rip),%r10        # 94ac <_sk_lerp_u8_hsw+0x101>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  235,132                             // jmp           1d8d <_sk_lerp_u8_hsw+0x1e>
+  .byte  235,132                             // jmp           93c9 <_sk_lerp_u8_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
@@ -11341,7 +18467,7 @@
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,91,255,255,255                  // jmpq          1d8d <_sk_lerp_u8_hsw+0x1e>
+  .byte  233,91,255,255,255                  // jmpq          93c9 <_sk_lerp_u8_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
@@ -11352,7 +18478,7 @@
   .byte  196,1,121,110,12,24                 // vmovd         (%r8,%r11,1),%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  233,31,255,255,255                  // jmpq          1d8d <_sk_lerp_u8_hsw+0x1e>
+  .byte  233,31,255,255,255                  // jmpq          93c9 <_sk_lerp_u8_hsw+0x1e>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  142,255                             // mov           %edi,%?
   .byte  255                                 // (bad)
@@ -11360,7 +18486,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,221                 // callq         ffffffffde001e80 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7440>
+  .byte  232,255,255,255,221                 // callq         ffffffffde0094bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7440>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,210                             // callq         *%rdx
@@ -11383,23 +18509,23 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,181,0,0,0                    // jne           1f60 <_sk_lerp_565_hsw+0xd4>
+  .byte  15,133,181,0,0,0                    // jne           959c <_sk_lerp_565_hsw+0xd4>
   .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
   .byte  196,66,125,51,192                   // vpmovzxwd     %xmm8,%ymm8
-  .byte  196,98,125,88,13,65,148,2,0         // vpbroadcastd  0x29441(%rip),%ymm9        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,88,13,133,148,2,0        // vpbroadcastd  0x29485(%rip),%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  196,65,61,219,201                   // vpand         %ymm9,%ymm8,%ymm9
   .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
-  .byte  196,98,125,24,21,50,148,2,0         // vbroadcastss  0x29432(%rip),%ymm10        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,98,125,24,21,118,148,2,0        // vbroadcastss  0x29476(%rip),%ymm10        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,88,21,40,148,2,0         // vpbroadcastd  0x29428(%rip),%ymm10        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,98,125,88,21,108,148,2,0        // vpbroadcastd  0x2946c(%rip),%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  196,65,61,219,210                   // vpand         %ymm10,%ymm8,%ymm10
   .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
-  .byte  196,98,125,24,29,25,148,2,0         // vbroadcastss  0x29419(%rip),%ymm11        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,98,125,24,29,93,148,2,0         // vbroadcastss  0x2945d(%rip),%ymm11        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,88,29,15,148,2,0         // vpbroadcastd  0x2940f(%rip),%ymm11        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,88,29,83,148,2,0         // vpbroadcastd  0x29453(%rip),%ymm11        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  196,65,61,219,195                   // vpand         %ymm11,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,29,0,148,2,0          // vbroadcastss  0x29400(%rip),%ymm11        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,98,125,24,29,68,148,2,0         // vbroadcastss  0x29444(%rip),%ymm11        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  197,100,194,223,1                   // vcmpltps      %ymm7,%ymm3,%ymm11
   .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
@@ -11422,27 +18548,27 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,56,255,255,255               // ja            1eb1 <_sk_lerp_565_hsw+0x25>
+  .byte  15,135,56,255,255,255               // ja            94ed <_sk_lerp_565_hsw+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 1fe8 <_sk_lerp_565_hsw+0x15c>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 9624 <_sk_lerp_565_hsw+0x15c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,22,255,255,255                  // jmpq          1eb1 <_sk_lerp_565_hsw+0x25>
+  .byte  233,22,255,255,255                  // jmpq          94ed <_sk_lerp_565_hsw+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,121,110,12,88                 // vmovd         (%r8,%r11,2),%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,248,254,255,255                 // jmpq          1eb1 <_sk_lerp_565_hsw+0x25>
+  .byte  233,248,254,255,255                 // jmpq          94ed <_sk_lerp_565_hsw+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,122,126,12,88                 // vmovq         (%r8,%r11,2),%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  233,202,254,255,255                 // jmpq          1eb1 <_sk_lerp_565_hsw+0x25>
+  .byte  233,202,254,255,255                 // jmpq          94ed <_sk_lerp_565_hsw+0x25>
   .byte  144                                 // nop
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -11471,9 +18597,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,116                             // jne           2082 <_sk_load_tables_hsw+0x7e>
+  .byte  117,116                             // jne           96be <_sk_load_tables_hsw+0x7e>
   .byte  196,193,126,111,28,144              // vmovdqu       (%r8,%rdx,4),%ymm3
-  .byte  197,229,219,13,132,141,2,0          // vpand         0x28d84(%rip),%ymm3,%ymm1        # 2ada0 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+  .byte  197,229,219,13,200,141,2,0          // vpand         0x28dc8(%rip),%ymm3,%ymm1        # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
   .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
   .byte  76,139,64,8                         // mov           0x8(%rax),%r8
   .byte  76,139,72,16                        // mov           0x10(%rax),%r9
@@ -11481,16 +18607,16 @@
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
   .byte  196,65,53,118,201                   // vpcmpeqd      %ymm9,%ymm9,%ymm9
   .byte  196,194,53,146,4,136                // vgatherdps    %ymm9,(%r8,%ymm1,4),%ymm0
-  .byte  196,98,101,0,13,123,141,2,0         // vpshufb       0x28d7b(%rip),%ymm3,%ymm9        # 2adc0 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
+  .byte  196,98,101,0,13,191,141,2,0         // vpshufb       0x28dbf(%rip),%ymm3,%ymm9        # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
   .byte  196,130,45,146,12,137               // vgatherdps    %ymm10,(%r9,%ymm9,4),%ymm1
   .byte  72,139,64,24                        // mov           0x18(%rax),%rax
-  .byte  196,98,101,0,13,127,141,2,0         // vpshufb       0x28d7f(%rip),%ymm3,%ymm9        # 2ade0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
+  .byte  196,98,101,0,13,195,141,2,0         // vpshufb       0x28dc3(%rip),%ymm3,%ymm9        # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
   .byte  196,162,61,146,20,136               // vgatherdps    %ymm8,(%rax,%ymm9,4),%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,131,146,2,0         // vbroadcastss  0x29283(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,199,146,2,0         // vbroadcastss  0x292c7(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -11499,21 +18625,21 @@
   .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,122,255,255,255              // ja            2014 <_sk_load_tables_hsw+0x10>
+  .byte  15,135,122,255,255,255              // ja            9650 <_sk_load_tables_hsw+0x10>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 2130 <_sk_load_tables_hsw+0x12c>
+  .byte  76,141,21,139,0,0,0                 // lea           0x8b(%rip),%r10        # 976c <_sk_load_tables_hsw+0x12c>
   .byte  79,99,12,138                        // movslq        (%r10,%r9,4),%r9
   .byte  77,1,209                            // add           %r10,%r9
   .byte  65,255,225                          // jmpq          *%r9
   .byte  196,193,121,110,28,144              // vmovd         (%r8,%rdx,4),%xmm3
-  .byte  233,90,255,255,255                  // jmpq          2014 <_sk_load_tables_hsw+0x10>
+  .byte  233,90,255,255,255                  // jmpq          9650 <_sk_load_tables_hsw+0x10>
   .byte  196,193,121,110,68,144,8            // vmovd         0x8(%r8,%rdx,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
   .byte  196,227,117,2,216,4                 // vpblendd      $0x4,%ymm0,%ymm1,%ymm3
   .byte  196,193,122,126,4,144               // vmovq         (%r8,%rdx,4),%xmm0
   .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
-  .byte  233,51,255,255,255                  // jmpq          2014 <_sk_load_tables_hsw+0x10>
+  .byte  233,51,255,255,255                  // jmpq          9650 <_sk_load_tables_hsw+0x10>
   .byte  196,193,121,110,68,144,24           // vmovd         0x18(%r8,%rdx,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -11526,8 +18652,8 @@
   .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
   .byte  196,193,122,111,4,144               // vmovdqu       (%r8,%rdx,4),%xmm0
   .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
-  .byte  233,228,254,255,255                 // jmpq          2014 <_sk_load_tables_hsw+0x10>
-  .byte  127,255                             // jg            2131 <_sk_load_tables_hsw+0x12d>
+  .byte  233,228,254,255,255                 // jmpq          9650 <_sk_load_tables_hsw+0x10>
+  .byte  127,255                             // jg            976d <_sk_load_tables_hsw+0x12d>
   .byte  255                                 // (bad)
   .byte  255,160,255,255,255,138             // jmpq          *-0x75000001(%rax)
   .byte  255                                 // (bad)
@@ -11555,7 +18681,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,215,0,0,0                    // jne           2239 <_sk_load_tables_u16_be_hsw+0xed>
+  .byte  15,133,215,0,0,0                    // jne           9875 <_sk_load_tables_u16_be_hsw+0xed>
   .byte  196,1,121,16,4,72                   // vmovupd       (%r8,%r9,2),%xmm8
   .byte  196,129,121,16,84,72,16             // vmovupd       0x10(%r8,%r9,2),%xmm2
   .byte  196,129,121,16,92,72,32             // vmovupd       0x20(%r8,%r9,2),%xmm3
@@ -11571,7 +18697,7 @@
   .byte  197,185,108,200                     // vpunpcklqdq   %xmm0,%xmm8,%xmm1
   .byte  197,57,109,192                      // vpunpckhqdq   %xmm0,%xmm8,%xmm8
   .byte  196,65,49,108,214                   // vpunpcklqdq   %xmm14,%xmm9,%xmm10
-  .byte  197,121,111,29,108,146,2,0          // vmovdqa       0x2926c(%rip),%xmm11        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,121,111,29,176,146,2,0          // vmovdqa       0x292b0(%rip),%xmm11        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,193,113,219,195                 // vpand         %xmm11,%xmm1,%xmm0
   .byte  196,226,125,51,200                  // vpmovzxwd     %xmm0,%ymm1
   .byte  196,65,29,118,228                   // vpcmpeqd      %ymm12,%ymm12,%ymm12
@@ -11596,36 +18722,36 @@
   .byte  197,185,235,219                     // vpor          %xmm3,%xmm8,%xmm3
   .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,232,144,2,0         // vbroadcastss  0x290e8(%rip),%ymm8        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,98,125,24,5,44,145,2,0          // vbroadcastss  0x2912c(%rip),%ymm8        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,123,16,4,72                   // vmovsd        (%r8,%r9,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            229f <_sk_load_tables_u16_be_hsw+0x153>
+  .byte  116,85                              // je            98db <_sk_load_tables_u16_be_hsw+0x153>
   .byte  196,1,57,22,68,72,8                 // vmovhpd       0x8(%r8,%r9,2),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            229f <_sk_load_tables_u16_be_hsw+0x153>
+  .byte  114,72                              // jb            98db <_sk_load_tables_u16_be_hsw+0x153>
   .byte  196,129,123,16,84,72,16             // vmovsd        0x10(%r8,%r9,2),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            22ac <_sk_load_tables_u16_be_hsw+0x160>
+  .byte  116,72                              // je            98e8 <_sk_load_tables_u16_be_hsw+0x160>
   .byte  196,129,105,22,84,72,24             // vmovhpd       0x18(%r8,%r9,2),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            22ac <_sk_load_tables_u16_be_hsw+0x160>
+  .byte  114,59                              // jb            98e8 <_sk_load_tables_u16_be_hsw+0x160>
   .byte  196,129,123,16,92,72,32             // vmovsd        0x20(%r8,%r9,2),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,251,254,255,255              // je            217d <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  15,132,251,254,255,255              // je            97b9 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  196,129,97,22,92,72,40              // vmovhpd       0x28(%r8,%r9,2),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,234,254,255,255              // jb            217d <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  15,130,234,254,255,255              // jb            97b9 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  196,1,122,126,76,72,48              // vmovq         0x30(%r8,%r9,2),%xmm9
-  .byte  233,222,254,255,255                 // jmpq          217d <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,222,254,255,255                 // jmpq          97b9 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,209,254,255,255                 // jmpq          217d <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,209,254,255,255                 // jmpq          97b9 <_sk_load_tables_u16_be_hsw+0x31>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,200,254,255,255                 // jmpq          217d <_sk_load_tables_u16_be_hsw+0x31>
+  .byte  233,200,254,255,255                 // jmpq          97b9 <_sk_load_tables_u16_be_hsw+0x31>
 
 HIDDEN _sk_load_tables_rgb_u16_be_hsw
 .globl _sk_load_tables_rgb_u16_be_hsw
@@ -11635,7 +18761,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,82                        // lea           (%rdx,%rdx,2),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,206,0,0,0                    // jne           2395 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+  .byte  15,133,206,0,0,0                    // jne           99d1 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
   .byte  196,1,122,111,28,72                 // vmovdqu       (%r8,%r9,2),%xmm11
   .byte  196,129,122,111,92,72,12            // vmovdqu       0xc(%r8,%r9,2),%xmm3
   .byte  196,129,122,111,84,72,24            // vmovdqu       0x18(%r8,%r9,2),%xmm2
@@ -11656,7 +18782,7 @@
   .byte  197,105,108,192                     // vpunpcklqdq   %xmm0,%xmm2,%xmm8
   .byte  197,241,108,195                     // vpunpcklqdq   %xmm3,%xmm1,%xmm0
   .byte  197,241,109,203                     // vpunpckhqdq   %xmm3,%xmm1,%xmm1
-  .byte  197,249,111,29,236,144,2,0          // vmovdqa       0x290ec(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,249,111,29,48,145,2,0           // vmovdqa       0x29130(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  197,249,219,195                     // vpand         %xmm3,%xmm0,%xmm0
   .byte  196,98,125,51,200                   // vpmovzxwd     %xmm0,%ymm9
   .byte  196,65,45,118,210                   // vpcmpeqd      %ymm10,%ymm10,%ymm10
@@ -11676,76 +18802,76 @@
   .byte  196,226,125,51,219                  // vpmovzxwd     %xmm3,%ymm3
   .byte  196,226,45,146,20,152               // vgatherdps    %ymm10,(%rax,%ymm3,4),%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,245,142,2,0       // vbroadcastss  0x28ef5(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,57,143,2,0        // vbroadcastss  0x28f39(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,4,72                // vmovd         (%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,92,72,4,2             // vpinsrw       $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,31                              // jne           23cd <_sk_load_tables_rgb_u16_be_hsw+0x118>
+  .byte  117,31                              // jne           9a09 <_sk_load_tables_rgb_u16_be_hsw+0x118>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
-  .byte  233,47,255,255,255                  // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,47,255,255,255                  // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  196,129,121,110,68,72,6             // vmovd         0x6(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,68,72,10,2            // vpinsrw       $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,48                              // jb            2417 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+  .byte  114,48                              // jb            9a53 <_sk_load_tables_rgb_u16_be_hsw+0x162>
   .byte  196,129,121,110,68,72,12            // vmovd         0xc(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,92,72,16,2          // vpinsrw       $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  117,48                              // jne           2431 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+  .byte  117,48                              // jne           9a6d <_sk_load_tables_rgb_u16_be_hsw+0x17c>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
-  .byte  233,229,254,255,255                 // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,229,254,255,255                 // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
-  .byte  233,203,254,255,255                 // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,203,254,255,255                 // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  196,129,121,110,68,72,18            // vmovd         0x12(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,84,72,22,2            // vpinsrw       $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,39                              // jb            2472 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+  .byte  114,39                              // jb            9aae <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
   .byte  196,129,121,110,68,72,24            // vmovd         0x18(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,84,72,28,2          // vpinsrw       $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  117,30                              // jne           2483 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+  .byte  117,30                              // jne           9abf <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
-  .byte  233,138,254,255,255                 // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,138,254,255,255                 // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
-  .byte  233,121,254,255,255                 // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,121,254,255,255                 // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  196,129,121,110,68,72,30            // vmovd         0x1e(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,76,72,34,2          // vpinsrw       $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,25                              // jb            24b6 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+  .byte  114,25                              // jb            9af2 <_sk_load_tables_rgb_u16_be_hsw+0x201>
   .byte  196,129,121,110,68,72,36            // vmovd         0x24(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,68,72,40,2          // vpinsrw       $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
-  .byte  233,70,254,255,255                  // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,70,254,255,255                  // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  233,61,254,255,255                  // jmpq          22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+  .byte  233,61,254,255,255                  // jmpq          9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
 
 HIDDEN _sk_byte_tables_hsw
 .globl _sk_byte_tables_hsw
 FUNCTION(_sk_byte_tables_hsw)
 _sk_byte_tables_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,234,141,2,0         // vbroadcastss  0x28dea(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,46,142,2,0          // vbroadcastss  0x28e2e(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,125,91,200                      // vcvtps2dq     %ymm0,%ymm9
   .byte  196,65,249,126,200                  // vmovq         %xmm9,%r8
@@ -11875,7 +19001,7 @@
   .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
   .byte  196,194,125,49,193                  // vpmovzxbd     %xmm9,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,5,184,139,2,0         // vbroadcastss  0x28bb8(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,252,139,2,0         // vbroadcastss  0x28bfc(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  196,226,125,49,201                  // vpmovzxbd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
@@ -11997,7 +19123,7 @@
   .byte  67,15,182,4,17                      // movzbl        (%r9,%r10,1),%eax
   .byte  196,194,125,49,193                  // vpmovzxbd     %xmm9,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,5,140,137,2,0         // vbroadcastss  0x2898c(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,208,137,2,0         // vbroadcastss  0x289d0(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  196,226,125,49,201                  // vpmovzxbd     %xmm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
@@ -12100,33 +19226,33 @@
   .byte  196,66,125,168,211                  // vfmadd213ps   %ymm11,%ymm0,%ymm10
   .byte  196,226,125,24,0                    // vbroadcastss  (%rax),%ymm0
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,114,136,2,0        // vbroadcastss  0x28872(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
-  .byte  196,98,125,24,45,109,136,2,0        // vbroadcastss  0x2886d(%rip),%ymm13        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,182,136,2,0        // vbroadcastss  0x288b6(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,45,177,136,2,0        // vbroadcastss  0x288b1(%rip),%ymm13        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,195,135,2,0        // vbroadcastss  0x287c3(%rip),%ymm13        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,45,7,136,2,0          // vbroadcastss  0x28807(%rip),%ymm13        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,85,136,2,0         // vbroadcastss  0x28855(%rip),%ymm13        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,45,153,136,2,0        // vbroadcastss  0x28899(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,75,136,2,0         // vbroadcastss  0x2884b(%rip),%ymm11        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,29,143,136,2,0        // vbroadcastss  0x2888f(%rip),%ymm11        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,65,136,2,0         // vbroadcastss  0x28841(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,133,136,2,0        // vbroadcastss  0x28885(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,55,136,2,0         // vbroadcastss  0x28837(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,123,136,2,0        // vbroadcastss  0x2887b(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  196,99,125,8,208,1                  // vroundps      $0x1,%ymm0,%ymm10
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,24,136,2,0         // vbroadcastss  0x28818(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,92,136,2,0         // vbroadcastss  0x2885c(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,14,136,2,0         // vbroadcastss  0x2880e(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,82,136,2,0         // vbroadcastss  0x28852(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,98,45,172,216                   // vfnmadd213ps  %ymm0,%ymm10,%ymm11
-  .byte  196,226,125,24,5,4,136,2,0          // vbroadcastss  0x28804(%rip),%ymm0        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,5,72,136,2,0         // vbroadcastss  0x28848(%rip),%ymm0        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,193,124,92,194                  // vsubps        %ymm10,%ymm0,%ymm0
-  .byte  196,98,125,24,21,250,135,2,0        // vbroadcastss  0x287fa(%rip),%ymm10        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,21,62,136,2,0         // vbroadcastss  0x2883e(%rip),%ymm10        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  197,172,94,192                      // vdivps        %ymm0,%ymm10,%ymm0
   .byte  197,164,88,192                      // vaddps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,21,237,135,2,0        // vbroadcastss  0x287ed(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,49,136,2,0         // vbroadcastss  0x28831(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -12134,7 +19260,7 @@
   .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,5,5,135,2,0           // vbroadcastss  0x28705(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,73,135,2,0          // vbroadcastss  0x28749(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12154,33 +19280,33 @@
   .byte  196,66,117,168,211                  // vfmadd213ps   %ymm11,%ymm1,%ymm10
   .byte  196,226,125,24,8                    // vbroadcastss  (%rax),%ymm1
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,77,135,2,0         // vbroadcastss  0x2874d(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
-  .byte  196,98,125,24,45,72,135,2,0         // vbroadcastss  0x28748(%rip),%ymm13        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,145,135,2,0        // vbroadcastss  0x28791(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,45,140,135,2,0        // vbroadcastss  0x2878c(%rip),%ymm13        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,158,134,2,0        // vbroadcastss  0x2869e(%rip),%ymm13        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,45,226,134,2,0        // vbroadcastss  0x286e2(%rip),%ymm13        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,48,135,2,0         // vbroadcastss  0x28730(%rip),%ymm13        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,45,116,135,2,0        // vbroadcastss  0x28774(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,38,135,2,0         // vbroadcastss  0x28726(%rip),%ymm11        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,29,106,135,2,0        // vbroadcastss  0x2876a(%rip),%ymm11        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,28,135,2,0         // vbroadcastss  0x2871c(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,96,135,2,0         // vbroadcastss  0x28760(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,18,135,2,0         // vbroadcastss  0x28712(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,86,135,2,0         // vbroadcastss  0x28756(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  196,99,125,8,209,1                  // vroundps      $0x1,%ymm1,%ymm10
   .byte  196,65,116,92,210                   // vsubps        %ymm10,%ymm1,%ymm10
-  .byte  196,98,125,24,29,243,134,2,0        // vbroadcastss  0x286f3(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,55,135,2,0         // vbroadcastss  0x28737(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,233,134,2,0        // vbroadcastss  0x286e9(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,45,135,2,0         // vbroadcastss  0x2872d(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,98,45,172,217                   // vfnmadd213ps  %ymm1,%ymm10,%ymm11
-  .byte  196,226,125,24,13,223,134,2,0       // vbroadcastss  0x286df(%rip),%ymm1        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,13,35,135,2,0        // vbroadcastss  0x28723(%rip),%ymm1        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,193,116,92,202                  // vsubps        %ymm10,%ymm1,%ymm1
-  .byte  196,98,125,24,21,213,134,2,0        // vbroadcastss  0x286d5(%rip),%ymm10        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,21,25,135,2,0         // vbroadcastss  0x28719(%rip),%ymm10        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
   .byte  197,164,88,201                      // vaddps        %ymm1,%ymm11,%ymm1
-  .byte  196,98,125,24,21,200,134,2,0        // vbroadcastss  0x286c8(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,12,135,2,0         // vbroadcastss  0x2870c(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -12188,7 +19314,7 @@
   .byte  196,195,117,74,201,128              // vblendvps     %ymm8,%ymm9,%ymm1,%ymm1
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
-  .byte  196,98,125,24,5,224,133,2,0         // vbroadcastss  0x285e0(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,36,134,2,0          // vbroadcastss  0x28624(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12208,33 +19334,33 @@
   .byte  196,66,109,168,211                  // vfmadd213ps   %ymm11,%ymm2,%ymm10
   .byte  196,226,125,24,16                   // vbroadcastss  (%rax),%ymm2
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,40,134,2,0         // vbroadcastss  0x28628(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
-  .byte  196,98,125,24,45,35,134,2,0         // vbroadcastss  0x28623(%rip),%ymm13        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,108,134,2,0        // vbroadcastss  0x2866c(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,45,103,134,2,0        // vbroadcastss  0x28667(%rip),%ymm13        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,121,133,2,0        // vbroadcastss  0x28579(%rip),%ymm13        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,45,189,133,2,0        // vbroadcastss  0x285bd(%rip),%ymm13        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,11,134,2,0         // vbroadcastss  0x2860b(%rip),%ymm13        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,45,79,134,2,0         // vbroadcastss  0x2864f(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,1,134,2,0          // vbroadcastss  0x28601(%rip),%ymm11        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,29,69,134,2,0         // vbroadcastss  0x28645(%rip),%ymm11        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,247,133,2,0        // vbroadcastss  0x285f7(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,59,134,2,0         // vbroadcastss  0x2863b(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,237,133,2,0        // vbroadcastss  0x285ed(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,49,134,2,0         // vbroadcastss  0x28631(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  196,99,125,8,210,1                  // vroundps      $0x1,%ymm2,%ymm10
   .byte  196,65,108,92,210                   // vsubps        %ymm10,%ymm2,%ymm10
-  .byte  196,98,125,24,29,206,133,2,0        // vbroadcastss  0x285ce(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,18,134,2,0         // vbroadcastss  0x28612(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,196,133,2,0        // vbroadcastss  0x285c4(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,8,134,2,0          // vbroadcastss  0x28608(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,98,45,172,218                   // vfnmadd213ps  %ymm2,%ymm10,%ymm11
-  .byte  196,226,125,24,21,186,133,2,0       // vbroadcastss  0x285ba(%rip),%ymm2        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,21,254,133,2,0       // vbroadcastss  0x285fe(%rip),%ymm2        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,193,108,92,210                  // vsubps        %ymm10,%ymm2,%ymm2
-  .byte  196,98,125,24,21,176,133,2,0        // vbroadcastss  0x285b0(%rip),%ymm10        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,21,244,133,2,0        // vbroadcastss  0x285f4(%rip),%ymm10        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  197,172,94,210                      // vdivps        %ymm2,%ymm10,%ymm2
   .byte  197,164,88,210                      // vaddps        %ymm2,%ymm11,%ymm2
-  .byte  196,98,125,24,21,163,133,2,0        // vbroadcastss  0x285a3(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,231,133,2,0        // vbroadcastss  0x285e7(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -12242,7 +19368,7 @@
   .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,187,132,2,0         // vbroadcastss  0x284bb(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,255,132,2,0         // vbroadcastss  0x284ff(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12262,33 +19388,33 @@
   .byte  196,66,101,168,211                  // vfmadd213ps   %ymm11,%ymm3,%ymm10
   .byte  196,226,125,24,24                   // vbroadcastss  (%rax),%ymm3
   .byte  196,65,124,91,218                   // vcvtdq2ps     %ymm10,%ymm11
-  .byte  196,98,125,24,37,3,133,2,0          // vbroadcastss  0x28503(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
-  .byte  196,98,125,24,45,254,132,2,0        // vbroadcastss  0x284fe(%rip),%ymm13        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,71,133,2,0         // vbroadcastss  0x28547(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,45,66,133,2,0         // vbroadcastss  0x28542(%rip),%ymm13        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,65,44,84,213                    // vandps        %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,84,132,2,0         // vbroadcastss  0x28454(%rip),%ymm13        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,45,152,132,2,0        // vbroadcastss  0x28498(%rip),%ymm13        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,86,213                    // vorps         %ymm13,%ymm10,%ymm10
-  .byte  196,98,125,24,45,230,132,2,0        // vbroadcastss  0x284e6(%rip),%ymm13        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,45,42,133,2,0         // vbroadcastss  0x2852a(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,66,37,184,236                   // vfmadd231ps   %ymm12,%ymm11,%ymm13
-  .byte  196,98,125,24,29,220,132,2,0        // vbroadcastss  0x284dc(%rip),%ymm11        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,29,32,133,2,0         // vbroadcastss  0x28520(%rip),%ymm11        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,66,45,172,221                   // vfnmadd213ps  %ymm13,%ymm10,%ymm11
-  .byte  196,98,125,24,37,210,132,2,0        // vbroadcastss  0x284d2(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,22,133,2,0         // vbroadcastss  0x28516(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,200,132,2,0        // vbroadcastss  0x284c8(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,12,133,2,0         // vbroadcastss  0x2850c(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  196,65,28,94,210                    // vdivps        %ymm10,%ymm12,%ymm10
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  196,99,125,8,211,1                  // vroundps      $0x1,%ymm3,%ymm10
   .byte  196,65,100,92,210                   // vsubps        %ymm10,%ymm3,%ymm10
-  .byte  196,98,125,24,29,169,132,2,0        // vbroadcastss  0x284a9(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,237,132,2,0        // vbroadcastss  0x284ed(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,159,132,2,0        // vbroadcastss  0x2849f(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,227,132,2,0        // vbroadcastss  0x284e3(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,98,45,172,219                   // vfnmadd213ps  %ymm3,%ymm10,%ymm11
-  .byte  196,226,125,24,29,149,132,2,0       // vbroadcastss  0x28495(%rip),%ymm3        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,29,217,132,2,0       // vbroadcastss  0x284d9(%rip),%ymm3        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,193,100,92,218                  // vsubps        %ymm10,%ymm3,%ymm3
-  .byte  196,98,125,24,21,139,132,2,0        // vbroadcastss  0x2848b(%rip),%ymm10        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,21,207,132,2,0        // vbroadcastss  0x284cf(%rip),%ymm10        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  197,172,94,219                      // vdivps        %ymm3,%ymm10,%ymm3
   .byte  197,164,88,219                      // vaddps        %ymm3,%ymm11,%ymm3
-  .byte  196,98,125,24,21,126,132,2,0        // vbroadcastss  0x2847e(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,194,132,2,0        // vbroadcastss  0x284c2(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -12296,7 +19422,7 @@
   .byte  196,195,101,74,217,128              // vblendvps     %ymm8,%ymm9,%ymm3,%ymm3
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
-  .byte  196,98,125,24,5,150,131,2,0         // vbroadcastss  0x28396(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,218,131,2,0         // vbroadcastss  0x283da(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12315,35 +19441,35 @@
   .byte  197,252,40,241                      // vmovaps       %ymm1,%ymm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,124,91,208                      // vcvtdq2ps     %ymm0,%ymm10
-  .byte  196,98,125,24,29,233,131,2,0        // vbroadcastss  0x283e9(%rip),%ymm11        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
-  .byte  196,226,125,24,45,228,131,2,0       // vbroadcastss  0x283e4(%rip),%ymm5        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,29,45,132,2,0         // vbroadcastss  0x2842d(%rip),%ymm11        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,226,125,24,45,40,132,2,0        // vbroadcastss  0x28428(%rip),%ymm5        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  197,124,84,205                      // vandps        %ymm5,%ymm0,%ymm9
-  .byte  196,226,125,24,37,59,131,2,0        // vbroadcastss  0x2833b(%rip),%ymm4        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,37,127,131,2,0       // vbroadcastss  0x2837f(%rip),%ymm4        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,52,86,228                       // vorps         %ymm4,%ymm9,%ymm12
-  .byte  196,98,125,24,45,206,131,2,0        // vbroadcastss  0x283ce(%rip),%ymm13        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,45,18,132,2,0         // vbroadcastss  0x28412(%rip),%ymm13        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,66,37,168,213                   // vfmadd213ps   %ymm13,%ymm11,%ymm10
-  .byte  196,98,125,24,13,196,131,2,0        // vbroadcastss  0x283c4(%rip),%ymm9        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,13,8,132,2,0          // vbroadcastss  0x28408(%rip),%ymm9        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,66,29,188,209                   // vfnmadd231ps  %ymm9,%ymm12,%ymm10
   .byte  197,124,91,246                      // vcvtdq2ps     %ymm6,%ymm14
   .byte  196,66,37,168,245                   // vfmadd213ps   %ymm13,%ymm11,%ymm14
   .byte  197,124,91,255                      // vcvtdq2ps     %ymm7,%ymm15
   .byte  196,66,37,168,253                   // vfmadd213ps   %ymm13,%ymm11,%ymm15
-  .byte  196,98,125,24,29,168,131,2,0        // vbroadcastss  0x283a8(%rip),%ymm11        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,29,236,131,2,0        // vbroadcastss  0x283ec(%rip),%ymm11        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,65,28,88,227                    // vaddps        %ymm11,%ymm12,%ymm12
-  .byte  196,98,125,24,45,158,131,2,0        // vbroadcastss  0x2839e(%rip),%ymm13        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,45,226,131,2,0        // vbroadcastss  0x283e2(%rip),%ymm13        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  196,65,20,94,228                    // vdivps        %ymm12,%ymm13,%ymm12
   .byte  196,65,44,92,212                    // vsubps        %ymm12,%ymm10,%ymm10
   .byte  196,98,125,24,32                    // vbroadcastss  (%rax),%ymm12
   .byte  196,65,44,89,212                    // vmulps        %ymm12,%ymm10,%ymm10
   .byte  196,67,125,8,194,1                  // vroundps      $0x1,%ymm10,%ymm8
   .byte  196,65,44,92,192                    // vsubps        %ymm8,%ymm10,%ymm8
-  .byte  196,226,125,24,21,122,131,2,0       // vbroadcastss  0x2837a(%rip),%ymm2        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,226,125,24,21,190,131,2,0       // vbroadcastss  0x283be(%rip),%ymm2        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  197,44,88,210                       // vaddps        %ymm2,%ymm10,%ymm10
-  .byte  196,226,125,24,29,113,131,2,0       // vbroadcastss  0x28371(%rip),%ymm3        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,226,125,24,29,181,131,2,0       // vbroadcastss  0x283b5(%rip),%ymm3        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,98,61,188,211                   // vfnmadd231ps  %ymm3,%ymm8,%ymm10
-  .byte  196,226,125,24,13,103,131,2,0       // vbroadcastss  0x28367(%rip),%ymm1        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,13,171,131,2,0       // vbroadcastss  0x283ab(%rip),%ymm1        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,65,116,92,192                   // vsubps        %ymm8,%ymm1,%ymm8
-  .byte  196,226,125,24,5,93,131,2,0         // vbroadcastss  0x2835d(%rip),%ymm0        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,226,125,24,5,161,131,2,0        // vbroadcastss  0x283a1(%rip),%ymm0        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  196,65,124,94,192                   // vdivps        %ymm8,%ymm0,%ymm8
   .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
   .byte  197,204,84,245                      // vandps        %ymm5,%ymm6,%ymm6
@@ -12374,7 +19500,7 @@
   .byte  197,244,92,205                      // vsubps        %ymm5,%ymm1,%ymm1
   .byte  197,252,94,193                      // vdivps        %ymm1,%ymm0,%ymm0
   .byte  197,236,88,192                      // vaddps        %ymm0,%ymm2,%ymm0
-  .byte  196,226,125,24,13,206,130,2,0       // vbroadcastss  0x282ce(%rip),%ymm1        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,226,125,24,13,18,131,2,0        // vbroadcastss  0x28312(%rip),%ymm1        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  197,188,89,209                      // vmulps        %ymm1,%ymm8,%ymm2
   .byte  197,204,89,217                      // vmulps        %ymm1,%ymm6,%ymm3
   .byte  197,252,89,225                      // vmulps        %ymm1,%ymm0,%ymm4
@@ -12394,26 +19520,26 @@
 .globl _sk_lab_to_xyz_hsw
 FUNCTION(_sk_lab_to_xyz_hsw)
 _sk_lab_to_xyz_hsw:
-  .byte  196,98,125,24,5,140,130,2,0         // vbroadcastss  0x2828c(%rip),%ymm8        # 2b348 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
-  .byte  196,98,125,24,13,239,129,2,0        // vbroadcastss  0x281ef(%rip),%ymm9        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  196,98,125,24,21,126,130,2,0        // vbroadcastss  0x2827e(%rip),%ymm10        # 2b34c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  196,98,125,24,5,208,130,2,0         // vbroadcastss  0x282d0(%rip),%ymm8        # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,98,125,24,13,51,130,2,0         // vbroadcastss  0x28233(%rip),%ymm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,194,130,2,0        // vbroadcastss  0x282c2(%rip),%ymm10        # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
   .byte  196,194,53,168,202                  // vfmadd213ps   %ymm10,%ymm9,%ymm1
   .byte  196,194,53,168,210                  // vfmadd213ps   %ymm10,%ymm9,%ymm2
-  .byte  196,98,125,24,13,111,130,2,0        // vbroadcastss  0x2826f(%rip),%ymm9        # 2b350 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  196,98,125,24,13,179,130,2,0        // vbroadcastss  0x282b3(%rip),%ymm9        # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
   .byte  196,66,125,184,200                  // vfmadd231ps   %ymm8,%ymm0,%ymm9
-  .byte  196,226,125,24,5,101,130,2,0        // vbroadcastss  0x28265(%rip),%ymm0        # 2b354 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  196,226,125,24,5,169,130,2,0        // vbroadcastss  0x282a9(%rip),%ymm0        # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
-  .byte  196,98,125,24,5,92,130,2,0          // vbroadcastss  0x2825c(%rip),%ymm8        # 2b358 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  196,98,125,24,5,160,130,2,0         // vbroadcastss  0x282a0(%rip),%ymm8        # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
   .byte  196,98,117,168,192                  // vfmadd213ps   %ymm0,%ymm1,%ymm8
-  .byte  196,98,125,24,13,82,130,2,0         // vbroadcastss  0x28252(%rip),%ymm9        # 2b35c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+  .byte  196,98,125,24,13,150,130,2,0        // vbroadcastss  0x28296(%rip),%ymm9        # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
   .byte  196,98,109,172,200                  // vfnmadd213ps  %ymm0,%ymm2,%ymm9
   .byte  196,193,60,89,200                   // vmulps        %ymm8,%ymm8,%ymm1
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
-  .byte  196,226,125,24,21,63,130,2,0        // vbroadcastss  0x2823f(%rip),%ymm2        # 2b360 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,226,125,24,21,131,130,2,0       // vbroadcastss  0x28283(%rip),%ymm2        # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
   .byte  197,108,194,209,1                   // vcmpltps      %ymm1,%ymm2,%ymm10
-  .byte  196,98,125,24,29,53,130,2,0         // vbroadcastss  0x28235(%rip),%ymm11        # 2b364 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  196,98,125,24,29,121,130,2,0        // vbroadcastss  0x28279(%rip),%ymm11        # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
   .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
-  .byte  196,98,125,24,37,43,130,2,0         // vbroadcastss  0x2822b(%rip),%ymm12        # 2b368 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  196,98,125,24,37,111,130,2,0        // vbroadcastss  0x2826f(%rip),%ymm12        # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
   .byte  196,65,60,89,196                    // vmulps        %ymm12,%ymm8,%ymm8
   .byte  196,99,61,74,193,160                // vblendvps     %ymm10,%ymm1,%ymm8,%ymm8
   .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
@@ -12428,9 +19554,9 @@
   .byte  196,65,52,88,203                    // vaddps        %ymm11,%ymm9,%ymm9
   .byte  196,65,52,89,204                    // vmulps        %ymm12,%ymm9,%ymm9
   .byte  196,227,53,74,208,32                // vblendvps     %ymm2,%ymm0,%ymm9,%ymm2
-  .byte  196,226,125,24,5,224,129,2,0        // vbroadcastss  0x281e0(%rip),%ymm0        # 2b36c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  196,226,125,24,5,36,130,2,0         // vbroadcastss  0x28224(%rip),%ymm0        # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,24,5,215,129,2,0         // vbroadcastss  0x281d7(%rip),%ymm8        # 2b370 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,5,27,130,2,0          // vbroadcastss  0x2821b(%rip),%ymm8        # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12446,12 +19572,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,52                              // jne           31ee <_sk_load_a8_hsw+0x4c>
+  .byte  117,52                              // jne           a82a <_sk_load_a8_hsw+0x4c>
   .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
-  .byte  197,249,219,5,88,130,2,0            // vpand         0x28258(%rip),%xmm0,%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,249,219,5,156,130,2,0           // vpand         0x2829c(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,34,129,2,0        // vbroadcastss  0x28122(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,102,129,2,0       // vbroadcastss  0x28166(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -12463,15 +19589,15 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,190                             // ja            31c0 <_sk_load_a8_hsw+0x1e>
+  .byte  119,190                             // ja            a7fc <_sk_load_a8_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,119,0,0,0                 // lea           0x77(%rip),%r10        # 3284 <_sk_load_a8_hsw+0xe2>
+  .byte  76,141,21,119,0,0,0                 // lea           0x77(%rip),%r10        # a8c0 <_sk_load_a8_hsw+0xe2>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  235,159                             // jmp           31c0 <_sk_load_a8_hsw+0x1e>
+  .byte  235,159                             // jmp           a7fc <_sk_load_a8_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
@@ -12479,7 +19605,7 @@
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,119,255,255,255                 // jmpq          31c0 <_sk_load_a8_hsw+0x1e>
+  .byte  233,119,255,255,255                 // jmpq          a7fc <_sk_load_a8_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
@@ -12490,7 +19616,7 @@
   .byte  196,129,121,110,12,24               // vmovd         (%r8,%r11,1),%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  233,60,255,255,255                  // jmpq          31c0 <_sk_load_a8_hsw+0x1e>
+  .byte  233,60,255,255,255                  // jmpq          a7fc <_sk_load_a8_hsw+0x1e>
   .byte  146                                 // xchg          %eax,%edx
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -12522,12 +19648,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,52                              // jne           32ec <_sk_load_a8_dst_hsw+0x4c>
+  .byte  117,52                              // jne           a928 <_sk_load_a8_dst_hsw+0x4c>
   .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
-  .byte  197,217,219,37,90,129,2,0           // vpand         0x2815a(%rip),%xmm4,%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,217,219,37,158,129,2,0          // vpand         0x2819e(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,125,51,228                  // vpmovzxwd     %xmm4,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,36,128,2,0        // vbroadcastss  0x28024(%rip),%ymm5        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,45,104,128,2,0       // vbroadcastss  0x28068(%rip),%ymm5        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,220,89,253                      // vmulps        %ymm5,%ymm4,%ymm7
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
@@ -12539,15 +19665,15 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,190                             // ja            32be <_sk_load_a8_dst_hsw+0x1e>
+  .byte  119,190                             // ja            a8fa <_sk_load_a8_dst_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,121,0,0,0                 // lea           0x79(%rip),%r10        # 3384 <_sk_load_a8_dst_hsw+0xe4>
+  .byte  76,141,21,121,0,0,0                 // lea           0x79(%rip),%r10        # a9c0 <_sk_load_a8_dst_hsw+0xe4>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  235,159                             // jmp           32be <_sk_load_a8_dst_hsw+0x1e>
+  .byte  235,159                             // jmp           a8fa <_sk_load_a8_dst_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
@@ -12555,7 +19681,7 @@
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,119,255,255,255                 // jmpq          32be <_sk_load_a8_dst_hsw+0x1e>
+  .byte  233,119,255,255,255                 // jmpq          a8fa <_sk_load_a8_dst_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
@@ -12566,7 +19692,7 @@
   .byte  196,129,121,110,44,24               // vmovd         (%r8,%r11,1),%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  233,60,255,255,255                  // jmpq          32be <_sk_load_a8_dst_hsw+0x1e>
+  .byte  233,60,255,255,255                  // jmpq          a8fa <_sk_load_a8_dst_hsw+0x1e>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  144                                 // nop
   .byte  255                                 // (bad)
@@ -12575,7 +19701,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,221                 // callq         ffffffffde003394 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8954>
+  .byte  232,255,255,255,221                 // callq         ffffffffde00a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8954>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,210                             // callq         *%rdx
@@ -12642,7 +19768,7 @@
   .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,107,126,2,0       // vbroadcastss  0x27e6b(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,175,126,2,0       // vbroadcastss  0x27eaf(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -12664,14 +19790,14 @@
   .byte  77,15,175,193                       // imul          %r9,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,236,125,2,0         // vbroadcastss  0x27dec(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,48,126,2,0          // vbroadcastss  0x27e30(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  197,57,103,192                      // vpackuswb     %xmm0,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           34f0 <_sk_store_a8_hsw+0x44>
+  .byte  117,10                              // jne           ab2c <_sk_store_a8_hsw+0x44>
   .byte  196,1,121,214,4,24                  // vmovq         %xmm8,(%r8,%r11,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -12679,25 +19805,25 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            34ec <_sk_store_a8_hsw+0x40>
+  .byte  119,236                             // ja            ab28 <_sk_store_a8_hsw+0x40>
   .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,88,0,0,0                  // lea           0x58(%rip),%r10        # 3568 <_sk_store_a8_hsw+0xbc>
+  .byte  76,141,21,88,0,0,0                  // lea           0x58(%rip),%r10        # aba4 <_sk_store_a8_hsw+0xbc>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,20,4,24,0                 // vpextrb       $0x0,%xmm8,(%r8,%r11,1)
-  .byte  235,202                             // jmp           34ec <_sk_store_a8_hsw+0x40>
+  .byte  235,202                             // jmp           ab28 <_sk_store_a8_hsw+0x40>
   .byte  196,3,121,20,68,24,2,4              // vpextrb       $0x4,%xmm8,0x2(%r8,%r11,1)
-  .byte  196,98,57,0,5,253,126,2,0           // vpshufb       0x27efd(%rip),%xmm8,%xmm8        # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  196,98,57,0,5,65,127,2,0            // vpshufb       0x27f41(%rip),%xmm8,%xmm8        # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
   .byte  196,3,121,21,4,24,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,1)
-  .byte  235,176                             // jmp           34ec <_sk_store_a8_hsw+0x40>
+  .byte  235,176                             // jmp           ab28 <_sk_store_a8_hsw+0x40>
   .byte  196,3,121,20,68,24,6,12             // vpextrb       $0xc,%xmm8,0x6(%r8,%r11,1)
   .byte  196,3,121,20,68,24,5,10             // vpextrb       $0xa,%xmm8,0x5(%r8,%r11,1)
   .byte  196,3,121,20,68,24,4,8              // vpextrb       $0x8,%xmm8,0x4(%r8,%r11,1)
-  .byte  196,98,57,0,5,227,126,2,0           // vpshufb       0x27ee3(%rip),%xmm8,%xmm8        # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+  .byte  196,98,57,0,5,39,127,2,0            // vpshufb       0x27f27(%rip),%xmm8,%xmm8        # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
   .byte  196,1,121,126,4,24                  // vmovd         %xmm8,(%r8,%r11,1)
-  .byte  235,135                             // jmp           34ec <_sk_store_a8_hsw+0x40>
+  .byte  235,135                             // jmp           ab28 <_sk_store_a8_hsw+0x40>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  177,255                             // mov           $0xff,%cl
   .byte  255                                 // (bad)
@@ -12730,15 +19856,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,57                              // jne           35d5 <_sk_load_g8_hsw+0x51>
+  .byte  117,57                              // jne           ac11 <_sk_load_g8_hsw+0x51>
   .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
-  .byte  197,249,219,5,118,126,2,0           // vpand         0x27e76(%rip),%xmm0,%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,249,219,5,186,126,2,0           // vpand         0x27eba(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,64,125,2,0        // vbroadcastss  0x27d40(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,132,125,2,0       // vbroadcastss  0x27d84(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,189,124,2,0       // vbroadcastss  0x27cbd(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,1,125,2,0         // vbroadcastss  0x27d01(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  255,224                             // jmpq          *%rax
@@ -12747,15 +19873,15 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,185                             // ja            35a2 <_sk_load_g8_hsw+0x1e>
+  .byte  119,185                             // ja            abde <_sk_load_g8_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # 366c <_sk_load_g8_hsw+0xe8>
+  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # aca8 <_sk_load_g8_hsw+0xe8>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  235,154                             // jmp           35a2 <_sk_load_g8_hsw+0x1e>
+  .byte  235,154                             // jmp           abde <_sk_load_g8_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
@@ -12763,7 +19889,7 @@
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,114,255,255,255                 // jmpq          35a2 <_sk_load_g8_hsw+0x1e>
+  .byte  233,114,255,255,255                 // jmpq          abde <_sk_load_g8_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
@@ -12774,7 +19900,7 @@
   .byte  196,129,121,110,12,24               // vmovd         (%r8,%r11,1),%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  233,55,255,255,255                  // jmpq          35a2 <_sk_load_g8_hsw+0x1e>
+  .byte  233,55,255,255,255                  // jmpq          abde <_sk_load_g8_hsw+0x1e>
   .byte  144                                 // nop
   .byte  145                                 // xchg          %eax,%ecx
   .byte  255                                 // (bad)
@@ -12783,7 +19909,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00367c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c3c>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00acb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c3c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -12805,15 +19931,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,57                              // jne           36d9 <_sk_load_g8_dst_hsw+0x51>
+  .byte  117,57                              // jne           ad15 <_sk_load_g8_dst_hsw+0x51>
   .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
-  .byte  197,217,219,37,114,125,2,0          // vpand         0x27d72(%rip),%xmm4,%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,217,219,37,182,125,2,0          // vpand         0x27db6(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,125,51,228                  // vpmovzxwd     %xmm4,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,60,124,2,0        // vbroadcastss  0x27c3c(%rip),%ymm5        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,45,128,124,2,0       // vbroadcastss  0x27c80(%rip),%ymm5        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,61,185,123,2,0       // vbroadcastss  0x27bb9(%rip),%ymm7        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,61,253,123,2,0       // vbroadcastss  0x27bfd(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,236                      // vmovaps       %ymm4,%ymm5
   .byte  197,252,40,244                      // vmovaps       %ymm4,%ymm6
   .byte  255,224                             // jmpq          *%rax
@@ -12822,15 +19948,15 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,185                             // ja            36a6 <_sk_load_g8_dst_hsw+0x1e>
+  .byte  119,185                             // ja            ace2 <_sk_load_g8_dst_hsw+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # 3770 <_sk_load_g8_dst_hsw+0xe8>
+  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # adac <_sk_load_g8_dst_hsw+0xe8>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  235,154                             // jmp           36a6 <_sk_load_g8_dst_hsw+0x1e>
+  .byte  235,154                             // jmp           ace2 <_sk_load_g8_dst_hsw+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
@@ -12838,7 +19964,7 @@
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,114,255,255,255                 // jmpq          36a6 <_sk_load_g8_dst_hsw+0x1e>
+  .byte  233,114,255,255,255                 // jmpq          ace2 <_sk_load_g8_dst_hsw+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
@@ -12849,7 +19975,7 @@
   .byte  196,129,121,110,44,24               // vmovd         (%r8,%r11,1),%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  233,55,255,255,255                  // jmpq          36a6 <_sk_load_g8_dst_hsw+0x1e>
+  .byte  233,55,255,255,255                  // jmpq          ace2 <_sk_load_g8_dst_hsw+0x1e>
   .byte  144                                 // nop
   .byte  145                                 // xchg          %eax,%ecx
   .byte  255                                 // (bad)
@@ -12858,7 +19984,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf003780 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8d40>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00adbc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8d40>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -12925,10 +20051,10 @@
   .byte  196,227,121,32,192,7                // vpinsrb       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,49,192                  // vpmovzxbd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,127,122,2,0       // vbroadcastss  0x27a7f(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,195,122,2,0       // vbroadcastss  0x27ac3(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,252,121,2,0       // vbroadcastss  0x279fc(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,64,122,2,0        // vbroadcastss  0x27a40(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  91                                  // pop           %rbx
@@ -12949,53 +20075,53 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,114                             // jne           392a <_sk_load_565_hsw+0x8d>
+  .byte  117,114                             // jne           af66 <_sk_load_565_hsw+0x8d>
   .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
   .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
-  .byte  196,226,125,88,5,52,122,2,0         // vpbroadcastd  0x27a34(%rip),%ymm0        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,88,5,120,122,2,0        // vpbroadcastd  0x27a78(%rip),%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,237,219,192                     // vpand         %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,39,122,2,0        // vbroadcastss  0x27a27(%rip),%ymm1        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,13,107,122,2,0       // vbroadcastss  0x27a6b(%rip),%ymm1        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,30,122,2,0        // vpbroadcastd  0x27a1e(%rip),%ymm1        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,88,13,98,122,2,0        // vpbroadcastd  0x27a62(%rip),%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,237,219,201                     // vpand         %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,29,17,122,2,0        // vbroadcastss  0x27a11(%rip),%ymm3        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,29,85,122,2,0        // vbroadcastss  0x27a55(%rip),%ymm3        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,88,29,8,122,2,0         // vpbroadcastd  0x27a08(%rip),%ymm3        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,88,29,76,122,2,0        // vpbroadcastd  0x27a4c(%rip),%ymm3        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,237,219,211                     // vpand         %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,226,125,24,29,251,121,2,0       // vbroadcastss  0x279fb(%rip),%ymm3        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,29,63,122,2,0        // vbroadcastss  0x27a3f(%rip),%ymm3        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,96,121,2,0        // vbroadcastss  0x27960(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,164,121,2,0       // vbroadcastss  0x279a4(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,128                             // ja            38be <_sk_load_565_hsw+0x21>
+  .byte  119,128                             // ja            aefa <_sk_load_565_hsw+0x21>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # 39ac <_sk_load_565_hsw+0x10f>
+  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # afe8 <_sk_load_565_hsw+0x10f>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,94,255,255,255                  // jmpq          38be <_sk_load_565_hsw+0x21>
+  .byte  233,94,255,255,255                  // jmpq          aefa <_sk_load_565_hsw+0x21>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,110,12,88               // vmovd         (%r8,%r11,2),%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,65,255,255,255                  // jmpq          38be <_sk_load_565_hsw+0x21>
+  .byte  233,65,255,255,255                  // jmpq          aefa <_sk_load_565_hsw+0x21>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,122,126,12,88               // vmovq         (%r8,%r11,2),%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  233,20,255,255,255                  // jmpq          38be <_sk_load_565_hsw+0x21>
+  .byte  233,20,255,255,255                  // jmpq          aefa <_sk_load_565_hsw+0x21>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  166                                 // cmpsb         %es:(%rdi),%ds:(%rsi)
   .byte  255                                 // (bad)
@@ -13028,53 +20154,53 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,114                             // jne           3a55 <_sk_load_565_dst_hsw+0x8d>
+  .byte  117,114                             // jne           b091 <_sk_load_565_dst_hsw+0x8d>
   .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
   .byte  196,226,125,51,244                  // vpmovzxwd     %xmm4,%ymm6
-  .byte  196,226,125,88,37,9,121,2,0         // vpbroadcastd  0x27909(%rip),%ymm4        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,88,37,77,121,2,0        // vpbroadcastd  0x2794d(%rip),%ymm4        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,205,219,228                     // vpand         %ymm4,%ymm6,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,252,120,2,0       // vbroadcastss  0x278fc(%rip),%ymm5        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,45,64,121,2,0        // vbroadcastss  0x27940(%rip),%ymm5        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
-  .byte  196,226,125,88,45,243,120,2,0       // vpbroadcastd  0x278f3(%rip),%ymm5        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,88,45,55,121,2,0        // vpbroadcastd  0x27937(%rip),%ymm5        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,205,219,237                     // vpand         %ymm5,%ymm6,%ymm5
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,226,125,24,61,230,120,2,0       // vbroadcastss  0x278e6(%rip),%ymm7        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,61,42,121,2,0        // vbroadcastss  0x2792a(%rip),%ymm7        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,212,89,239                      // vmulps        %ymm7,%ymm5,%ymm5
-  .byte  196,226,125,88,61,221,120,2,0       // vpbroadcastd  0x278dd(%rip),%ymm7        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,88,61,33,121,2,0        // vpbroadcastd  0x27921(%rip),%ymm7        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,205,219,247                     // vpand         %ymm7,%ymm6,%ymm6
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
-  .byte  196,226,125,24,61,208,120,2,0       // vbroadcastss  0x278d0(%rip),%ymm7        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,61,20,121,2,0        // vbroadcastss  0x27914(%rip),%ymm7        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,204,89,247                      // vmulps        %ymm7,%ymm6,%ymm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,61,53,120,2,0        // vbroadcastss  0x27835(%rip),%ymm7        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,61,121,120,2,0       // vbroadcastss  0x27879(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,128                             // ja            39e9 <_sk_load_565_dst_hsw+0x21>
+  .byte  119,128                             // ja            b025 <_sk_load_565_dst_hsw+0x21>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 3ad8 <_sk_load_565_dst_hsw+0x110>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # b114 <_sk_load_565_dst_hsw+0x110>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,94,255,255,255                  // jmpq          39e9 <_sk_load_565_dst_hsw+0x21>
+  .byte  233,94,255,255,255                  // jmpq          b025 <_sk_load_565_dst_hsw+0x21>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,121,110,44,88               // vmovd         (%r8,%r11,2),%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,65,255,255,255                  // jmpq          39e9 <_sk_load_565_dst_hsw+0x21>
+  .byte  233,65,255,255,255                  // jmpq          b025 <_sk_load_565_dst_hsw+0x21>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,122,126,44,88               // vmovq         (%r8,%r11,2),%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  233,20,255,255,255                  // jmpq          39e9 <_sk_load_565_dst_hsw+0x21>
+  .byte  233,20,255,255,255                  // jmpq          b025 <_sk_load_565_dst_hsw+0x21>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -13153,23 +20279,23 @@
   .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
   .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,51,208                  // vpmovzxwd     %xmm0,%ymm2
-  .byte  196,226,125,88,5,36,119,2,0         // vpbroadcastd  0x27724(%rip),%ymm0        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,88,5,104,119,2,0        // vpbroadcastd  0x27768(%rip),%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,237,219,192                     // vpand         %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,23,119,2,0        // vbroadcastss  0x27717(%rip),%ymm1        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,13,91,119,2,0        // vbroadcastss  0x2775b(%rip),%ymm1        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,14,119,2,0        // vpbroadcastd  0x2770e(%rip),%ymm1        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,88,13,82,119,2,0        // vpbroadcastd  0x27752(%rip),%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,237,219,201                     // vpand         %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,29,1,119,2,0         // vbroadcastss  0x27701(%rip),%ymm3        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,29,69,119,2,0        // vbroadcastss  0x27745(%rip),%ymm3        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,88,29,248,118,2,0       // vpbroadcastd  0x276f8(%rip),%ymm3        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,88,29,60,119,2,0        // vpbroadcastd  0x2773c(%rip),%ymm3        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,237,219,211                     // vpand         %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,226,125,24,29,235,118,2,0       // vbroadcastss  0x276eb(%rip),%ymm3        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,29,47,119,2,0        // vbroadcastss  0x2772f(%rip),%ymm3        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,80,118,2,0        // vbroadcastss  0x27650(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,148,118,2,0       // vbroadcastss  0x27694(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
   .byte  65,94                               // pop           %r14
@@ -13187,11 +20313,11 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,20,119,2,0          // vbroadcastss  0x27714(%rip),%ymm8        # 2b374 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,98,125,24,5,88,119,2,0          // vbroadcastss  0x27758(%rip),%ymm8        # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,53,114,241,11               // vpslld        $0xb,%ymm9,%ymm9
-  .byte  196,98,125,24,21,255,118,2,0        // vbroadcastss  0x276ff(%rip),%ymm10        # 2b378 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  196,98,125,24,21,67,119,2,0         // vbroadcastss  0x27743(%rip),%ymm10        # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
   .byte  196,65,116,89,210                   // vmulps        %ymm10,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,45,114,242,5                // vpslld        $0x5,%ymm10,%ymm10
@@ -13202,7 +20328,7 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           3cb7 <_sk_store_565_hsw+0x76>
+  .byte  117,10                              // jne           b2f3 <_sk_store_565_hsw+0x76>
   .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13210,22 +20336,22 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            3cb3 <_sk_store_565_hsw+0x72>
+  .byte  119,236                             // ja            b2ef <_sk_store_565_hsw+0x72>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # 3d14 <_sk_store_565_hsw+0xd3>
+  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # b350 <_sk_store_565_hsw+0xd3>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
-  .byte  235,207                             // jmp           3cb3 <_sk_store_565_hsw+0x72>
+  .byte  235,207                             // jmp           b2ef <_sk_store_565_hsw+0x72>
   .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
   .byte  196,1,121,126,4,88                  // vmovd         %xmm8,(%r8,%r11,2)
-  .byte  235,191                             // jmp           3cb3 <_sk_store_565_hsw+0x72>
+  .byte  235,191                             // jmp           b2ef <_sk_store_565_hsw+0x72>
   .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
   .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
   .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
   .byte  196,1,121,214,4,88                  // vmovq         %xmm8,(%r8,%r11,2)
-  .byte  235,159                             // jmp           3cb3 <_sk_store_565_hsw+0x72>
+  .byte  235,159                             // jmp           b2ef <_sk_store_565_hsw+0x72>
   .byte  199                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13243,7 +20369,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,224                 // callq         ffffffffe1003d2c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd92ec>
+  .byte  232,255,255,255,224                 // callq         ffffffffe100b368 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd92ec>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -13260,28 +20386,28 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,138,0,0,0                    // jne           3dd9 <_sk_load_4444_hsw+0xa9>
+  .byte  15,133,138,0,0,0                    // jne           b415 <_sk_load_4444_hsw+0xa9>
   .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
   .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
-  .byte  196,226,125,88,5,25,118,2,0         // vpbroadcastd  0x27619(%rip),%ymm0        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,88,5,93,118,2,0         // vpbroadcastd  0x2765d(%rip),%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,229,219,192                     // vpand         %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,12,118,2,0        // vbroadcastss  0x2760c(%rip),%ymm1        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,13,80,118,2,0        // vbroadcastss  0x27650(%rip),%ymm1        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,3,118,2,0         // vpbroadcastd  0x27603(%rip),%ymm1        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,88,13,71,118,2,0        // vpbroadcastd  0x27647(%rip),%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,229,219,201                     // vpand         %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,246,117,2,0       // vbroadcastss  0x275f6(%rip),%ymm2        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,21,58,118,2,0        // vbroadcastss  0x2763a(%rip),%ymm2        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,88,21,237,117,2,0       // vpbroadcastd  0x275ed(%rip),%ymm2        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,88,21,49,118,2,0        // vpbroadcastd  0x27631(%rip),%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,229,219,210                     // vpand         %ymm2,%ymm3,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,98,125,24,5,224,117,2,0         // vbroadcastss  0x275e0(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,36,118,2,0          // vbroadcastss  0x27624(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,88,5,214,117,2,0         // vpbroadcastd  0x275d6(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,88,5,26,118,2,0          // vpbroadcastd  0x2761a(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,101,219,216                 // vpand         %ymm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,200,117,2,0         // vbroadcastss  0x275c8(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,12,118,2,0          // vbroadcastss  0x2760c(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13290,27 +20416,27 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,100,255,255,255              // ja            3d55 <_sk_load_4444_hsw+0x25>
+  .byte  15,135,100,255,255,255              // ja            b391 <_sk_load_4444_hsw+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 3e60 <_sk_load_4444_hsw+0x130>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # b49c <_sk_load_4444_hsw+0x130>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,66,255,255,255                  // jmpq          3d55 <_sk_load_4444_hsw+0x25>
+  .byte  233,66,255,255,255                  // jmpq          b391 <_sk_load_4444_hsw+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,110,12,88               // vmovd         (%r8,%r11,2),%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,37,255,255,255                  // jmpq          3d55 <_sk_load_4444_hsw+0x25>
+  .byte  233,37,255,255,255                  // jmpq          b391 <_sk_load_4444_hsw+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,122,126,12,88               // vmovq         (%r8,%r11,2),%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  233,248,254,255,255                 // jmpq          3d55 <_sk_load_4444_hsw+0x25>
+  .byte  233,248,254,255,255                 // jmpq          b391 <_sk_load_4444_hsw+0x25>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -13346,28 +20472,28 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,138,0,0,0                    // jne           3f25 <_sk_load_4444_dst_hsw+0xa9>
+  .byte  15,133,138,0,0,0                    // jne           b561 <_sk_load_4444_dst_hsw+0xa9>
   .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
   .byte  196,226,125,51,252                  // vpmovzxwd     %xmm4,%ymm7
-  .byte  196,226,125,88,37,205,116,2,0       // vpbroadcastd  0x274cd(%rip),%ymm4        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,88,37,17,117,2,0        // vpbroadcastd  0x27511(%rip),%ymm4        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,197,219,228                     // vpand         %ymm4,%ymm7,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,192,116,2,0       // vbroadcastss  0x274c0(%rip),%ymm5        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,45,4,117,2,0         // vbroadcastss  0x27504(%rip),%ymm5        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
-  .byte  196,226,125,88,45,183,116,2,0       // vpbroadcastd  0x274b7(%rip),%ymm5        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,88,45,251,116,2,0       // vpbroadcastd  0x274fb(%rip),%ymm5        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,197,219,237                     // vpand         %ymm5,%ymm7,%ymm5
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,226,125,24,53,170,116,2,0       // vbroadcastss  0x274aa(%rip),%ymm6        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,53,238,116,2,0       // vbroadcastss  0x274ee(%rip),%ymm6        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,212,89,238                      // vmulps        %ymm6,%ymm5,%ymm5
-  .byte  196,226,125,88,53,161,116,2,0       // vpbroadcastd  0x274a1(%rip),%ymm6        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,88,53,229,116,2,0       // vpbroadcastd  0x274e5(%rip),%ymm6        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,197,219,246                     // vpand         %ymm6,%ymm7,%ymm6
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
-  .byte  196,98,125,24,5,148,116,2,0         // vbroadcastss  0x27494(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,216,116,2,0         // vbroadcastss  0x274d8(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,76,89,240                   // vmulps        %ymm8,%ymm6,%ymm6
-  .byte  196,98,125,88,5,138,116,2,0         // vpbroadcastd  0x2748a(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,88,5,206,116,2,0         // vpbroadcastd  0x274ce(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,69,219,248                  // vpand         %ymm8,%ymm7,%ymm7
   .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
-  .byte  196,98,125,24,5,124,116,2,0         // vbroadcastss  0x2747c(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,192,116,2,0         // vbroadcastss  0x274c0(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,68,89,248                   // vmulps        %ymm8,%ymm7,%ymm7
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13376,27 +20502,27 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,100,255,255,255              // ja            3ea1 <_sk_load_4444_dst_hsw+0x25>
+  .byte  15,135,100,255,255,255              // ja            b4dd <_sk_load_4444_dst_hsw+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 3fac <_sk_load_4444_dst_hsw+0x130>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # b5e8 <_sk_load_4444_dst_hsw+0x130>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,66,255,255,255                  // jmpq          3ea1 <_sk_load_4444_dst_hsw+0x25>
+  .byte  233,66,255,255,255                  // jmpq          b4dd <_sk_load_4444_dst_hsw+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,121,110,44,88               // vmovd         (%r8,%r11,2),%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,37,255,255,255                  // jmpq          3ea1 <_sk_load_4444_dst_hsw+0x25>
+  .byte  233,37,255,255,255                  // jmpq          b4dd <_sk_load_4444_dst_hsw+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,122,126,44,88               // vmovq         (%r8,%r11,2),%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  233,248,254,255,255                 // jmpq          3ea1 <_sk_load_4444_dst_hsw+0x25>
+  .byte  233,248,254,255,255                 // jmpq          b4dd <_sk_load_4444_dst_hsw+0x25>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -13475,25 +20601,25 @@
   .byte  65,15,183,4,88                      // movzwl        (%r8,%rbx,2),%eax
   .byte  197,249,196,192,7                   // vpinsrw       $0x7,%eax,%xmm0,%xmm0
   .byte  196,226,125,51,216                  // vpmovzxwd     %xmm0,%ymm3
-  .byte  196,226,125,88,5,204,114,2,0        // vpbroadcastd  0x272cc(%rip),%ymm0        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,88,5,16,115,2,0         // vpbroadcastd  0x27310(%rip),%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,229,219,192                     // vpand         %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,191,114,2,0       // vbroadcastss  0x272bf(%rip),%ymm1        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,13,3,115,2,0         // vbroadcastss  0x27303(%rip),%ymm1        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,88,13,182,114,2,0       // vpbroadcastd  0x272b6(%rip),%ymm1        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,88,13,250,114,2,0       // vpbroadcastd  0x272fa(%rip),%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,229,219,201                     // vpand         %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,169,114,2,0       // vbroadcastss  0x272a9(%rip),%ymm2        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,21,237,114,2,0       // vbroadcastss  0x272ed(%rip),%ymm2        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,88,21,160,114,2,0       // vpbroadcastd  0x272a0(%rip),%ymm2        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,88,21,228,114,2,0       // vpbroadcastd  0x272e4(%rip),%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,229,219,210                     // vpand         %ymm2,%ymm3,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,98,125,24,5,147,114,2,0         // vbroadcastss  0x27293(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,215,114,2,0         // vbroadcastss  0x272d7(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,88,5,137,114,2,0         // vpbroadcastd  0x27289(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,88,5,205,114,2,0         // vpbroadcastd  0x272cd(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,101,219,216                 // vpand         %ymm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,123,114,2,0         // vbroadcastss  0x2727b(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,191,114,2,0         // vbroadcastss  0x272bf(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
@@ -13513,7 +20639,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,80,114,2,0          // vbroadcastss  0x27250(%rip),%ymm8        # 2b39c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+  .byte  196,98,125,24,5,148,114,2,0         // vbroadcastss  0x27294(%rip),%ymm8        # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,53,114,241,12               // vpslld        $0xc,%ymm9,%ymm9
@@ -13531,7 +20657,7 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           41af <_sk_store_4444_hsw+0x82>
+  .byte  117,10                              // jne           b7eb <_sk_store_4444_hsw+0x82>
   .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13539,22 +20665,22 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            41ab <_sk_store_4444_hsw+0x7e>
+  .byte  119,236                             // ja            b7e7 <_sk_store_4444_hsw+0x7e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # 420c <_sk_store_4444_hsw+0xdf>
+  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # b848 <_sk_store_4444_hsw+0xdf>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
-  .byte  235,207                             // jmp           41ab <_sk_store_4444_hsw+0x7e>
+  .byte  235,207                             // jmp           b7e7 <_sk_store_4444_hsw+0x7e>
   .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
   .byte  196,1,121,126,4,88                  // vmovd         %xmm8,(%r8,%r11,2)
-  .byte  235,191                             // jmp           41ab <_sk_store_4444_hsw+0x7e>
+  .byte  235,191                             // jmp           b7e7 <_sk_store_4444_hsw+0x7e>
   .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
   .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
   .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
   .byte  196,1,121,214,4,88                  // vmovq         %xmm8,(%r8,%r11,2)
-  .byte  235,159                             // jmp           41ab <_sk_store_4444_hsw+0x7e>
+  .byte  235,159                             // jmp           b7e7 <_sk_store_4444_hsw+0x7e>
   .byte  199                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13572,7 +20698,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,224                 // callq         ffffffffe1004224 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd97e4>
+  .byte  232,255,255,255,224                 // callq         ffffffffe100b860 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd97e4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -13589,16 +20715,16 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,86                              // jne           429a <_sk_load_8888_hsw+0x72>
+  .byte  117,86                              // jne           b8d6 <_sk_load_8888_hsw+0x72>
   .byte  196,129,126,111,28,152              // vmovdqu       (%r8,%r11,4),%ymm3
-  .byte  197,229,219,5,174,107,2,0           // vpand         0x26bae(%rip),%ymm3,%ymm0        # 2ae00 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
+  .byte  197,229,219,5,242,107,2,0           // vpand         0x26bf2(%rip),%ymm3,%ymm0        # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,5,157,112,2,0         // vbroadcastss  0x2709d(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,225,112,2,0         // vbroadcastss  0x270e1(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,226,101,0,13,179,107,2,0        // vpshufb       0x26bb3(%rip),%ymm3,%ymm1        # 2ae20 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
+  .byte  196,226,101,0,13,247,107,2,0        // vpshufb       0x26bf7(%rip),%ymm3,%ymm1        # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,226,101,0,21,193,107,2,0        // vpshufb       0x26bc1(%rip),%ymm3,%ymm2        # 2ae40 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
+  .byte  196,226,101,0,21,5,108,2,0          // vpshufb       0x26c05(%rip),%ymm3,%ymm2        # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
@@ -13611,21 +20737,21 @@
   .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,156                             // ja            424a <_sk_load_8888_hsw+0x22>
+  .byte  119,156                             // ja            b886 <_sk_load_8888_hsw+0x22>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 4340 <_sk_load_8888_hsw+0x118>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # b97c <_sk_load_8888_hsw+0x118>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,28,152              // vmovd         (%r8,%r11,4),%xmm3
-  .byte  235,128                             // jmp           424a <_sk_load_8888_hsw+0x22>
+  .byte  235,128                             // jmp           b886 <_sk_load_8888_hsw+0x22>
   .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
   .byte  196,227,117,2,216,4                 // vpblendd      $0x4,%ymm0,%ymm1,%ymm3
   .byte  196,129,122,126,4,152               // vmovq         (%r8,%r11,4),%xmm0
   .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
-  .byte  233,89,255,255,255                  // jmpq          424a <_sk_load_8888_hsw+0x22>
+  .byte  233,89,255,255,255                  // jmpq          b886 <_sk_load_8888_hsw+0x22>
   .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -13638,7 +20764,7 @@
   .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
   .byte  196,129,122,111,4,152               // vmovdqu       (%r8,%r11,4),%xmm0
   .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
-  .byte  233,10,255,255,255                  // jmpq          424a <_sk_load_8888_hsw+0x22>
+  .byte  233,10,255,255,255                  // jmpq          b886 <_sk_load_8888_hsw+0x22>
   .byte  130                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13672,16 +20798,16 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,86                              // jne           43ce <_sk_load_8888_dst_hsw+0x72>
+  .byte  117,86                              // jne           ba0a <_sk_load_8888_dst_hsw+0x72>
   .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
-  .byte  197,197,219,37,218,106,2,0          // vpand         0x26ada(%rip),%ymm7,%ymm4        # 2ae60 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+  .byte  197,197,219,37,30,107,2,0           // vpand         0x26b1e(%rip),%ymm7,%ymm4        # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,98,125,24,5,105,111,2,0         // vbroadcastss  0x26f69(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,173,111,2,0         // vbroadcastss  0x26fad(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,92,89,224                   // vmulps        %ymm8,%ymm4,%ymm4
-  .byte  196,226,69,0,45,223,106,2,0         // vpshufb       0x26adf(%rip),%ymm7,%ymm5        # 2ae80 <_sk_srcover_rgba_8888_sse2_lowp+0x440>
+  .byte  196,226,69,0,45,35,107,2,0          // vpshufb       0x26b23(%rip),%ymm7,%ymm5        # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
   .byte  196,193,84,89,232                   // vmulps        %ymm8,%ymm5,%ymm5
-  .byte  196,226,69,0,53,237,106,2,0         // vpshufb       0x26aed(%rip),%ymm7,%ymm6        # 2aea0 <_sk_srcover_rgba_8888_sse2_lowp+0x460>
+  .byte  196,226,69,0,53,49,107,2,0          // vpshufb       0x26b31(%rip),%ymm7,%ymm6        # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
   .byte  196,193,76,89,240                   // vmulps        %ymm8,%ymm6,%ymm6
   .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
@@ -13694,21 +20820,21 @@
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,156                             // ja            437e <_sk_load_8888_dst_hsw+0x22>
+  .byte  119,156                             // ja            b9ba <_sk_load_8888_dst_hsw+0x22>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 4474 <_sk_load_8888_dst_hsw+0x118>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # bab0 <_sk_load_8888_dst_hsw+0x118>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
-  .byte  235,128                             // jmp           437e <_sk_load_8888_dst_hsw+0x22>
+  .byte  235,128                             // jmp           b9ba <_sk_load_8888_dst_hsw+0x22>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
   .byte  196,227,85,2,252,4                  // vpblendd      $0x4,%ymm4,%ymm5,%ymm7
   .byte  196,129,122,126,36,152              // vmovq         (%r8,%r11,4),%xmm4
   .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
-  .byte  233,89,255,255,255                  // jmpq          437e <_sk_load_8888_dst_hsw+0x22>
+  .byte  233,89,255,255,255                  // jmpq          b9ba <_sk_load_8888_dst_hsw+0x22>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -13721,7 +20847,7 @@
   .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
   .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
   .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
-  .byte  233,10,255,255,255                  // jmpq          437e <_sk_load_8888_dst_hsw+0x22>
+  .byte  233,10,255,255,255                  // jmpq          b9ba <_sk_load_8888_dst_hsw+0x22>
   .byte  130                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13765,14 +20891,14 @@
   .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
   .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
   .byte  196,66,101,144,4,128                // vpgatherdd    %ymm3,(%r8,%ymm0,4),%ymm8
-  .byte  197,189,219,5,217,105,2,0           // vpand         0x269d9(%rip),%ymm8,%ymm0        # 2aec0 <_sk_srcover_rgba_8888_sse2_lowp+0x480>
+  .byte  197,189,219,5,29,106,2,0            // vpand         0x26a1d(%rip),%ymm8,%ymm0        # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,29,8,110,2,0         // vbroadcastss  0x26e08(%rip),%ymm3        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,29,76,110,2,0        // vbroadcastss  0x26e4c(%rip),%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
-  .byte  196,226,61,0,13,223,105,2,0         // vpshufb       0x269df(%rip),%ymm8,%ymm1        # 2aee0 <_sk_srcover_rgba_8888_sse2_lowp+0x4a0>
+  .byte  196,226,61,0,13,35,106,2,0          // vpshufb       0x26a23(%rip),%ymm8,%ymm1        # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,61,0,21,238,105,2,0         // vpshufb       0x269ee(%rip),%ymm8,%ymm2        # 2af00 <_sk_srcover_rgba_8888_sse2_lowp+0x4c0>
+  .byte  196,226,61,0,21,50,106,2,0          // vpshufb       0x26a32(%rip),%ymm8,%ymm2        # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  196,193,61,114,208,24               // vpsrld        $0x18,%ymm8,%ymm8
@@ -13792,7 +20918,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,103,109,2,0         // vbroadcastss  0x26d67(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,171,109,2,0         // vbroadcastss  0x26dab(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
@@ -13808,7 +20934,7 @@
   .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           45a5 <_sk_store_8888_hsw+0x78>
+  .byte  117,10                              // jne           bbe1 <_sk_store_8888_hsw+0x78>
   .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -13816,17 +20942,17 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            45a1 <_sk_store_8888_hsw+0x74>
+  .byte  119,236                             // ja            bbdd <_sk_store_8888_hsw+0x74>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,84,0,0,0                  // lea           0x54(%rip),%r10        # 4614 <_sk_store_8888_hsw+0xe7>
+  .byte  76,141,21,84,0,0,0                  // lea           0x54(%rip),%r10        # bc50 <_sk_store_8888_hsw+0xe7>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,208                             // jmp           45a1 <_sk_store_8888_hsw+0x74>
+  .byte  235,208                             // jmp           bbdd <_sk_store_8888_hsw+0x74>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  235,192                             // jmp           45a1 <_sk_store_8888_hsw+0x74>
+  .byte  235,192                             // jmp           bbdd <_sk_store_8888_hsw+0x74>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -13834,7 +20960,7 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
-  .byte  235,143                             // jmp           45a1 <_sk_store_8888_hsw+0x74>
+  .byte  235,143                             // jmp           bbdd <_sk_store_8888_hsw+0x74>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  181,255                             // mov           $0xff,%ch
   .byte  255                                 // (bad)
@@ -13846,7 +20972,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,219                 // jmpq          ffffffffdc004628 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9be8>
+  .byte  233,255,255,255,219                 // jmpq          ffffffffdc00bc64 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9be8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,205                             // dec           %ebp
@@ -13866,16 +20992,16 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,86                              // jne           46a2 <_sk_load_bgra_hsw+0x72>
+  .byte  117,86                              // jne           bcde <_sk_load_bgra_hsw+0x72>
   .byte  196,129,126,111,28,152              // vmovdqu       (%r8,%r11,4),%ymm3
-  .byte  197,229,219,5,198,104,2,0           // vpand         0x268c6(%rip),%ymm3,%ymm0        # 2af20 <_sk_srcover_rgba_8888_sse2_lowp+0x4e0>
+  .byte  197,229,219,5,10,105,2,0            // vpand         0x2690a(%rip),%ymm3,%ymm0        # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,5,149,108,2,0         // vbroadcastss  0x26c95(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,217,108,2,0         // vbroadcastss  0x26cd9(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,208                  // vmulps        %ymm8,%ymm0,%ymm2
-  .byte  196,226,101,0,5,203,104,2,0         // vpshufb       0x268cb(%rip),%ymm3,%ymm0        # 2af40 <_sk_srcover_rgba_8888_sse2_lowp+0x500>
+  .byte  196,226,101,0,5,15,105,2,0          // vpshufb       0x2690f(%rip),%ymm3,%ymm0        # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
   .byte  196,193,124,89,200                  // vmulps        %ymm8,%ymm0,%ymm1
-  .byte  196,226,101,0,5,217,104,2,0         // vpshufb       0x268d9(%rip),%ymm3,%ymm0        # 2af60 <_sk_srcover_rgba_8888_sse2_lowp+0x520>
+  .byte  196,226,101,0,5,29,105,2,0          // vpshufb       0x2691d(%rip),%ymm3,%ymm0        # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,229,114,211,24                  // vpsrld        $0x18,%ymm3,%ymm3
@@ -13888,21 +21014,21 @@
   .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,156                             // ja            4652 <_sk_load_bgra_hsw+0x22>
+  .byte  119,156                             // ja            bc8e <_sk_load_bgra_hsw+0x22>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 4748 <_sk_load_bgra_hsw+0x118>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # bd84 <_sk_load_bgra_hsw+0x118>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,28,152              // vmovd         (%r8,%r11,4),%xmm3
-  .byte  235,128                             // jmp           4652 <_sk_load_bgra_hsw+0x22>
+  .byte  235,128                             // jmp           bc8e <_sk_load_bgra_hsw+0x22>
   .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
   .byte  196,227,117,2,216,4                 // vpblendd      $0x4,%ymm0,%ymm1,%ymm3
   .byte  196,129,122,126,4,152               // vmovq         (%r8,%r11,4),%xmm0
   .byte  196,227,101,2,216,3                 // vpblendd      $0x3,%ymm0,%ymm3,%ymm3
-  .byte  233,89,255,255,255                  // jmpq          4652 <_sk_load_bgra_hsw+0x22>
+  .byte  233,89,255,255,255                  // jmpq          bc8e <_sk_load_bgra_hsw+0x22>
   .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -13915,7 +21041,7 @@
   .byte  196,227,101,56,216,1                // vinserti128   $0x1,%xmm0,%ymm3,%ymm3
   .byte  196,129,122,111,4,152               // vmovdqu       (%r8,%r11,4),%xmm0
   .byte  196,227,125,2,219,240               // vpblendd      $0xf0,%ymm3,%ymm0,%ymm3
-  .byte  233,10,255,255,255                  // jmpq          4652 <_sk_load_bgra_hsw+0x22>
+  .byte  233,10,255,255,255                  // jmpq          bc8e <_sk_load_bgra_hsw+0x22>
   .byte  130                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -13949,16 +21075,16 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,86                              // jne           47d6 <_sk_load_bgra_dst_hsw+0x72>
+  .byte  117,86                              // jne           be12 <_sk_load_bgra_dst_hsw+0x72>
   .byte  196,129,126,111,60,152              // vmovdqu       (%r8,%r11,4),%ymm7
-  .byte  197,197,219,37,242,103,2,0          // vpand         0x267f2(%rip),%ymm7,%ymm4        # 2af80 <_sk_srcover_rgba_8888_sse2_lowp+0x540>
+  .byte  197,197,219,37,54,104,2,0           // vpand         0x26836(%rip),%ymm7,%ymm4        # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,98,125,24,5,97,107,2,0          // vbroadcastss  0x26b61(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,165,107,2,0         // vbroadcastss  0x26ba5(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,92,89,240                   // vmulps        %ymm8,%ymm4,%ymm6
-  .byte  196,226,69,0,37,247,103,2,0         // vpshufb       0x267f7(%rip),%ymm7,%ymm4        # 2afa0 <_sk_srcover_rgba_8888_sse2_lowp+0x560>
+  .byte  196,226,69,0,37,59,104,2,0          // vpshufb       0x2683b(%rip),%ymm7,%ymm4        # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
   .byte  196,193,92,89,232                   // vmulps        %ymm8,%ymm4,%ymm5
-  .byte  196,226,69,0,37,5,104,2,0           // vpshufb       0x26805(%rip),%ymm7,%ymm4        # 2afc0 <_sk_srcover_rgba_8888_sse2_lowp+0x580>
+  .byte  196,226,69,0,37,73,104,2,0          // vpshufb       0x26849(%rip),%ymm7,%ymm4        # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
   .byte  196,193,92,89,224                   // vmulps        %ymm8,%ymm4,%ymm4
   .byte  197,197,114,215,24                  // vpsrld        $0x18,%ymm7,%ymm7
@@ -13971,21 +21097,21 @@
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,156                             // ja            4786 <_sk_load_bgra_dst_hsw+0x22>
+  .byte  119,156                             // ja            bdc2 <_sk_load_bgra_dst_hsw+0x22>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 487c <_sk_load_bgra_dst_hsw+0x118>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # beb8 <_sk_load_bgra_dst_hsw+0x118>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,129,121,110,60,152              // vmovd         (%r8,%r11,4),%xmm7
-  .byte  235,128                             // jmp           4786 <_sk_load_bgra_dst_hsw+0x22>
+  .byte  235,128                             // jmp           bdc2 <_sk_load_bgra_dst_hsw+0x22>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
   .byte  196,227,85,2,252,4                  // vpblendd      $0x4,%ymm4,%ymm5,%ymm7
   .byte  196,129,122,126,36,152              // vmovq         (%r8,%r11,4),%xmm4
   .byte  196,227,69,2,252,3                  // vpblendd      $0x3,%ymm4,%ymm7,%ymm7
-  .byte  233,89,255,255,255                  // jmpq          4786 <_sk_load_bgra_dst_hsw+0x22>
+  .byte  233,89,255,255,255                  // jmpq          bdc2 <_sk_load_bgra_dst_hsw+0x22>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -13998,7 +21124,7 @@
   .byte  196,227,69,56,252,1                 // vinserti128   $0x1,%xmm4,%ymm7,%ymm7
   .byte  196,129,122,111,36,152              // vmovdqu       (%r8,%r11,4),%xmm4
   .byte  196,227,93,2,255,240                // vpblendd      $0xf0,%ymm7,%ymm4,%ymm7
-  .byte  233,10,255,255,255                  // jmpq          4786 <_sk_load_bgra_dst_hsw+0x22>
+  .byte  233,10,255,255,255                  // jmpq          bdc2 <_sk_load_bgra_dst_hsw+0x22>
   .byte  130                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -14042,14 +21168,14 @@
   .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
   .byte  197,245,254,192                     // vpaddd        %ymm0,%ymm1,%ymm0
   .byte  196,66,101,144,4,128                // vpgatherdd    %ymm3,(%r8,%ymm0,4),%ymm8
-  .byte  197,189,219,5,241,102,2,0           // vpand         0x266f1(%rip),%ymm8,%ymm0        # 2afe0 <_sk_srcover_rgba_8888_sse2_lowp+0x5a0>
+  .byte  197,189,219,5,53,103,2,0            // vpand         0x26735(%rip),%ymm8,%ymm0        # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,29,0,106,2,0         // vbroadcastss  0x26a00(%rip),%ymm3        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,29,68,106,2,0        // vbroadcastss  0x26a44(%rip),%ymm3        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,211                      // vmulps        %ymm3,%ymm0,%ymm2
-  .byte  196,226,61,0,5,247,102,2,0          // vpshufb       0x266f7(%rip),%ymm8,%ymm0        # 2b000 <_sk_srcover_rgba_8888_sse2_lowp+0x5c0>
+  .byte  196,226,61,0,5,59,103,2,0           // vpshufb       0x2673b(%rip),%ymm8,%ymm0        # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
   .byte  197,252,89,203                      // vmulps        %ymm3,%ymm0,%ymm1
-  .byte  196,226,61,0,5,6,103,2,0            // vpshufb       0x26706(%rip),%ymm8,%ymm0        # 2b020 <_sk_srcover_rgba_8888_sse2_lowp+0x5e0>
+  .byte  196,226,61,0,5,74,103,2,0           // vpshufb       0x2674a(%rip),%ymm8,%ymm0        # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
   .byte  196,193,61,114,208,24               // vpsrld        $0x18,%ymm8,%ymm8
@@ -14069,7 +21195,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,95,105,2,0          // vbroadcastss  0x2695f(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,163,105,2,0         // vbroadcastss  0x269a3(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,108,89,200                   // vmulps        %ymm8,%ymm2,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
@@ -14085,7 +21211,7 @@
   .byte  196,65,45,235,192                   // vpor          %ymm8,%ymm10,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           49ad <_sk_store_bgra_hsw+0x78>
+  .byte  117,10                              // jne           bfe9 <_sk_store_bgra_hsw+0x78>
   .byte  196,1,126,127,4,152                 // vmovdqu       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -14093,17 +21219,17 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            49a9 <_sk_store_bgra_hsw+0x74>
+  .byte  119,236                             // ja            bfe5 <_sk_store_bgra_hsw+0x74>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,84,0,0,0                  // lea           0x54(%rip),%r10        # 4a1c <_sk_store_bgra_hsw+0xe7>
+  .byte  76,141,21,84,0,0,0                  // lea           0x54(%rip),%r10        # c058 <_sk_store_bgra_hsw+0xe7>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,208                             // jmp           49a9 <_sk_store_bgra_hsw+0x74>
+  .byte  235,208                             // jmp           bfe5 <_sk_store_bgra_hsw+0x74>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  235,192                             // jmp           49a9 <_sk_store_bgra_hsw+0x74>
+  .byte  235,192                             // jmp           bfe5 <_sk_store_bgra_hsw+0x74>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -14111,7 +21237,7 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,1,121,126,76,152,16             // vmovd         %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,122,127,4,152                 // vmovdqu       %xmm8,(%r8,%r11,4)
-  .byte  235,143                             // jmp           49a9 <_sk_store_bgra_hsw+0x74>
+  .byte  235,143                             // jmp           bfe5 <_sk_store_bgra_hsw+0x74>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  181,255                             // mov           $0xff,%ch
   .byte  255                                 // (bad)
@@ -14123,7 +21249,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,219                 // jmpq          ffffffffdc004a30 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9ff0>
+  .byte  233,255,255,255,219                 // jmpq          ffffffffdc00c06c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9ff0>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,205                             // dec           %ebp
@@ -14143,7 +21269,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,101                             // jne           4ab9 <_sk_load_f16_hsw+0x81>
+  .byte  117,101                             // jne           c0f5 <_sk_load_f16_hsw+0x81>
   .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
   .byte  196,193,121,16,84,192,16            // vmovupd       0x10(%r8,%rax,8),%xmm2
   .byte  196,193,121,16,92,192,32            // vmovupd       0x20(%r8,%rax,8),%xmm3
@@ -14169,29 +21295,29 @@
   .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            4b1f <_sk_load_f16_hsw+0xe7>
+  .byte  116,85                              // je            c15b <_sk_load_f16_hsw+0xe7>
   .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            4b1f <_sk_load_f16_hsw+0xe7>
+  .byte  114,72                              // jb            c15b <_sk_load_f16_hsw+0xe7>
   .byte  196,193,123,16,84,192,16            // vmovsd        0x10(%r8,%rax,8),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            4b2c <_sk_load_f16_hsw+0xf4>
+  .byte  116,72                              // je            c168 <_sk_load_f16_hsw+0xf4>
   .byte  196,193,105,22,84,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            4b2c <_sk_load_f16_hsw+0xf4>
+  .byte  114,59                              // jb            c168 <_sk_load_f16_hsw+0xf4>
   .byte  196,193,123,16,92,192,32            // vmovsd        0x20(%r8,%rax,8),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,109,255,255,255              // je            4a6f <_sk_load_f16_hsw+0x37>
+  .byte  15,132,109,255,255,255              // je            c0ab <_sk_load_f16_hsw+0x37>
   .byte  196,193,97,22,92,192,40             // vmovhpd       0x28(%r8,%rax,8),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,92,255,255,255               // jb            4a6f <_sk_load_f16_hsw+0x37>
+  .byte  15,130,92,255,255,255               // jb            c0ab <_sk_load_f16_hsw+0x37>
   .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
-  .byte  233,80,255,255,255                  // jmpq          4a6f <_sk_load_f16_hsw+0x37>
+  .byte  233,80,255,255,255                  // jmpq          c0ab <_sk_load_f16_hsw+0x37>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,67,255,255,255                  // jmpq          4a6f <_sk_load_f16_hsw+0x37>
+  .byte  233,67,255,255,255                  // jmpq          c0ab <_sk_load_f16_hsw+0x37>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,58,255,255,255                  // jmpq          4a6f <_sk_load_f16_hsw+0x37>
+  .byte  233,58,255,255,255                  // jmpq          c0ab <_sk_load_f16_hsw+0x37>
 
 HIDDEN _sk_load_f16_dst_hsw
 .globl _sk_load_f16_dst_hsw
@@ -14205,7 +21331,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,101                             // jne           4bb6 <_sk_load_f16_dst_hsw+0x81>
+  .byte  117,101                             // jne           c1f2 <_sk_load_f16_dst_hsw+0x81>
   .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
   .byte  196,193,121,16,116,192,16           // vmovupd       0x10(%r8,%rax,8),%xmm6
   .byte  196,193,121,16,124,192,32           // vmovupd       0x20(%r8,%rax,8),%xmm7
@@ -14231,29 +21357,29 @@
   .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            4c1c <_sk_load_f16_dst_hsw+0xe7>
+  .byte  116,85                              // je            c258 <_sk_load_f16_dst_hsw+0xe7>
   .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            4c1c <_sk_load_f16_dst_hsw+0xe7>
+  .byte  114,72                              // jb            c258 <_sk_load_f16_dst_hsw+0xe7>
   .byte  196,193,123,16,116,192,16           // vmovsd        0x10(%r8,%rax,8),%xmm6
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            4c29 <_sk_load_f16_dst_hsw+0xf4>
+  .byte  116,72                              // je            c265 <_sk_load_f16_dst_hsw+0xf4>
   .byte  196,193,73,22,116,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm6,%xmm6
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            4c29 <_sk_load_f16_dst_hsw+0xf4>
+  .byte  114,59                              // jb            c265 <_sk_load_f16_dst_hsw+0xf4>
   .byte  196,193,123,16,124,192,32           // vmovsd        0x20(%r8,%rax,8),%xmm7
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,109,255,255,255              // je            4b6c <_sk_load_f16_dst_hsw+0x37>
+  .byte  15,132,109,255,255,255              // je            c1a8 <_sk_load_f16_dst_hsw+0x37>
   .byte  196,193,65,22,124,192,40            // vmovhpd       0x28(%r8,%rax,8),%xmm7,%xmm7
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,92,255,255,255               // jb            4b6c <_sk_load_f16_dst_hsw+0x37>
+  .byte  15,130,92,255,255,255               // jb            c1a8 <_sk_load_f16_dst_hsw+0x37>
   .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
-  .byte  233,80,255,255,255                  // jmpq          4b6c <_sk_load_f16_dst_hsw+0x37>
+  .byte  233,80,255,255,255                  // jmpq          c1a8 <_sk_load_f16_dst_hsw+0x37>
   .byte  197,193,87,255                      // vxorpd        %xmm7,%xmm7,%xmm7
   .byte  197,201,87,246                      // vxorpd        %xmm6,%xmm6,%xmm6
-  .byte  233,67,255,255,255                  // jmpq          4b6c <_sk_load_f16_dst_hsw+0x37>
+  .byte  233,67,255,255,255                  // jmpq          c1a8 <_sk_load_f16_dst_hsw+0x37>
   .byte  197,193,87,255                      // vxorpd        %xmm7,%xmm7,%xmm7
-  .byte  233,58,255,255,255                  // jmpq          4b6c <_sk_load_f16_dst_hsw+0x37>
+  .byte  233,58,255,255,255                  // jmpq          c1a8 <_sk_load_f16_dst_hsw+0x37>
 
 HIDDEN _sk_gather_f16_hsw
 .globl _sk_gather_f16_hsw
@@ -14326,7 +21452,7 @@
   .byte  196,65,57,98,205                    // vpunpckldq    %xmm13,%xmm8,%xmm9
   .byte  196,65,57,106,197                   // vpunpckhdq    %xmm13,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,31                              // jne           4d66 <_sk_store_f16_hsw+0x7b>
+  .byte  117,31                              // jne           c3a2 <_sk_store_f16_hsw+0x7b>
   .byte  196,65,122,127,28,192               // vmovdqu       %xmm11,(%r8,%rax,8)
   .byte  196,65,122,127,84,192,16            // vmovdqu       %xmm10,0x10(%r8,%rax,8)
   .byte  196,65,122,127,76,192,32            // vmovdqu       %xmm9,0x20(%r8,%rax,8)
@@ -14335,22 +21461,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,214,28,192               // vmovq         %xmm11,(%r8,%rax,8)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  116,240                             // je            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,23,92,192,8              // vmovhpd       %xmm11,0x8(%r8,%rax,8)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  114,227                             // jb            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,214,84,192,16            // vmovq         %xmm10,0x10(%r8,%rax,8)
-  .byte  116,218                             // je            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  116,218                             // je            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,23,84,192,24             // vmovhpd       %xmm10,0x18(%r8,%rax,8)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,205                             // jb            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  114,205                             // jb            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,214,76,192,32            // vmovq         %xmm9,0x20(%r8,%rax,8)
-  .byte  116,196                             // je            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  116,196                             // je            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,23,76,192,40             // vmovhpd       %xmm9,0x28(%r8,%rax,8)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,183                             // jb            4d62 <_sk_store_f16_hsw+0x77>
+  .byte  114,183                             // jb            c39e <_sk_store_f16_hsw+0x77>
   .byte  196,65,121,214,68,192,48            // vmovq         %xmm8,0x30(%r8,%rax,8)
-  .byte  235,174                             // jmp           4d62 <_sk_store_f16_hsw+0x77>
+  .byte  235,174                             // jmp           c39e <_sk_store_f16_hsw+0x77>
 
 HIDDEN _sk_load_u16_be_hsw
 .globl _sk_load_u16_be_hsw
@@ -14365,7 +21491,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,204,0,0,0                    // jne           4ea7 <_sk_load_u16_be_hsw+0xf3>
+  .byte  15,133,204,0,0,0                    // jne           c4e3 <_sk_load_u16_be_hsw+0xf3>
   .byte  196,65,121,16,4,64                  // vmovupd       (%r8,%rax,2),%xmm8
   .byte  196,193,121,16,84,64,16             // vmovupd       0x10(%r8,%rax,2),%xmm2
   .byte  196,193,121,16,92,64,32             // vmovupd       0x20(%r8,%rax,2),%xmm3
@@ -14384,7 +21510,7 @@
   .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,21,220,100,2,0        // vbroadcastss  0x264dc(%rip),%ymm10        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,98,125,24,21,32,101,2,0         // vbroadcastss  0x26520(%rip),%ymm10        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,185,109,202                     // vpunpckhqdq   %xmm2,%xmm8,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
@@ -14412,29 +21538,29 @@
   .byte  196,65,123,16,4,64                  // vmovsd        (%r8,%rax,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            4f0d <_sk_load_u16_be_hsw+0x159>
+  .byte  116,85                              // je            c549 <_sk_load_u16_be_hsw+0x159>
   .byte  196,65,57,22,68,64,8                // vmovhpd       0x8(%r8,%rax,2),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            4f0d <_sk_load_u16_be_hsw+0x159>
+  .byte  114,72                              // jb            c549 <_sk_load_u16_be_hsw+0x159>
   .byte  196,193,123,16,84,64,16             // vmovsd        0x10(%r8,%rax,2),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            4f1a <_sk_load_u16_be_hsw+0x166>
+  .byte  116,72                              // je            c556 <_sk_load_u16_be_hsw+0x166>
   .byte  196,193,105,22,84,64,24             // vmovhpd       0x18(%r8,%rax,2),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            4f1a <_sk_load_u16_be_hsw+0x166>
+  .byte  114,59                              // jb            c556 <_sk_load_u16_be_hsw+0x166>
   .byte  196,193,123,16,92,64,32             // vmovsd        0x20(%r8,%rax,2),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,6,255,255,255                // je            4df6 <_sk_load_u16_be_hsw+0x42>
+  .byte  15,132,6,255,255,255                // je            c432 <_sk_load_u16_be_hsw+0x42>
   .byte  196,193,97,22,92,64,40              // vmovhpd       0x28(%r8,%rax,2),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,245,254,255,255              // jb            4df6 <_sk_load_u16_be_hsw+0x42>
+  .byte  15,130,245,254,255,255              // jb            c432 <_sk_load_u16_be_hsw+0x42>
   .byte  196,65,122,126,76,64,48             // vmovq         0x30(%r8,%rax,2),%xmm9
-  .byte  233,233,254,255,255                 // jmpq          4df6 <_sk_load_u16_be_hsw+0x42>
+  .byte  233,233,254,255,255                 // jmpq          c432 <_sk_load_u16_be_hsw+0x42>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,220,254,255,255                 // jmpq          4df6 <_sk_load_u16_be_hsw+0x42>
+  .byte  233,220,254,255,255                 // jmpq          c432 <_sk_load_u16_be_hsw+0x42>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,211,254,255,255                 // jmpq          4df6 <_sk_load_u16_be_hsw+0x42>
+  .byte  233,211,254,255,255                 // jmpq          c432 <_sk_load_u16_be_hsw+0x42>
 
 HIDDEN _sk_load_rgb_u16_be_hsw
 .globl _sk_load_rgb_u16_be_hsw
@@ -14451,7 +21577,7 @@
   .byte  72,141,4,64                         // lea           (%rax,%rax,2),%rax
   .byte  72,193,248,32                       // sar           $0x20,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,205,0,0,0                    // jne           501b <_sk_load_rgb_u16_be_hsw+0xf8>
+  .byte  15,133,205,0,0,0                    // jne           c657 <_sk_load_rgb_u16_be_hsw+0xf8>
   .byte  196,65,122,111,28,64                // vmovdqu       (%r8,%rax,2),%xmm11
   .byte  196,193,122,111,92,64,12            // vmovdqu       0xc(%r8,%rax,2),%xmm3
   .byte  196,193,122,111,84,64,24            // vmovdqu       0x18(%r8,%rax,2),%xmm2
@@ -14476,7 +21602,7 @@
   .byte  197,241,235,192                     // vpor          %xmm0,%xmm1,%xmm0
   .byte  196,226,125,51,192                  // vpmovzxwd     %xmm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,13,75,99,2,0          // vbroadcastss  0x2634b(%rip),%ymm9        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,98,125,24,13,143,99,2,0         // vbroadcastss  0x2638f(%rip),%ymm9        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,185,109,203                     // vpunpckhqdq   %xmm3,%xmm8,%xmm1
   .byte  197,225,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm3
@@ -14492,69 +21618,69 @@
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,111,98,2,0        // vbroadcastss  0x2626f(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,179,98,2,0        // vbroadcastss  0x262b3(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,4,64                // vmovd         (%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,92,64,4,2            // vpinsrw       $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,31                              // jne           5053 <_sk_load_rgb_u16_be_hsw+0x130>
+  .byte  117,31                              // jne           c68f <_sk_load_rgb_u16_be_hsw+0x130>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
-  .byte  233,48,255,255,255                  // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,48,255,255,255                  // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  196,193,121,110,68,64,6             // vmovd         0x6(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,68,64,10,2           // vpinsrw       $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,48                              // jb            509d <_sk_load_rgb_u16_be_hsw+0x17a>
+  .byte  114,48                              // jb            c6d9 <_sk_load_rgb_u16_be_hsw+0x17a>
   .byte  196,193,121,110,68,64,12            // vmovd         0xc(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,92,64,16,2          // vpinsrw       $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  117,48                              // jne           50b7 <_sk_load_rgb_u16_be_hsw+0x194>
+  .byte  117,48                              // jne           c6f3 <_sk_load_rgb_u16_be_hsw+0x194>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
-  .byte  233,230,254,255,255                 // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,230,254,255,255                 // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
-  .byte  233,204,254,255,255                 // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,204,254,255,255                 // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  196,193,121,110,68,64,18            // vmovd         0x12(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,84,64,22,2           // vpinsrw       $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,39                              // jb            50f8 <_sk_load_rgb_u16_be_hsw+0x1d5>
+  .byte  114,39                              // jb            c734 <_sk_load_rgb_u16_be_hsw+0x1d5>
   .byte  196,193,121,110,68,64,24            // vmovd         0x18(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,84,64,28,2          // vpinsrw       $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  117,30                              // jne           5109 <_sk_load_rgb_u16_be_hsw+0x1e6>
+  .byte  117,30                              // jne           c745 <_sk_load_rgb_u16_be_hsw+0x1e6>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
-  .byte  233,139,254,255,255                 // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,139,254,255,255                 // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
-  .byte  233,122,254,255,255                 // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,122,254,255,255                 // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  196,193,121,110,68,64,30            // vmovd         0x1e(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,76,64,34,2          // vpinsrw       $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,25                              // jb            513c <_sk_load_rgb_u16_be_hsw+0x219>
+  .byte  114,25                              // jb            c778 <_sk_load_rgb_u16_be_hsw+0x219>
   .byte  196,193,121,110,68,64,36            // vmovd         0x24(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,68,64,40,2          // vpinsrw       $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
-  .byte  233,71,254,255,255                  // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,71,254,255,255                  // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  233,62,254,255,255                  // jmpq          4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+  .byte  233,62,254,255,255                  // jmpq          c5bf <_sk_load_rgb_u16_be_hsw+0x60>
 
 HIDDEN _sk_store_u16_be_hsw
 .globl _sk_store_u16_be_hsw
@@ -14568,7 +21694,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
-  .byte  196,98,125,24,5,52,98,2,0           // vbroadcastss  0x26234(%rip),%ymm8        # 2b3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+  .byte  196,98,125,24,5,120,98,2,0          // vbroadcastss  0x26278(%rip),%ymm8        # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,67,125,25,202,1                 // vextractf128  $0x1,%ymm9,%xmm10
@@ -14606,7 +21732,7 @@
   .byte  196,65,17,98,200                    // vpunpckldq    %xmm8,%xmm13,%xmm9
   .byte  196,65,17,106,192                   // vpunpckhdq    %xmm8,%xmm13,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,31                              // jne           5250 <_sk_store_u16_be_hsw+0x10b>
+  .byte  117,31                              // jne           c88c <_sk_store_u16_be_hsw+0x10b>
   .byte  196,65,122,127,28,64                // vmovdqu       %xmm11,(%r8,%rax,2)
   .byte  196,65,122,127,84,64,16             // vmovdqu       %xmm10,0x10(%r8,%rax,2)
   .byte  196,65,122,127,76,64,32             // vmovdqu       %xmm9,0x20(%r8,%rax,2)
@@ -14615,22 +21741,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,214,28,64                // vmovq         %xmm11,(%r8,%rax,2)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  116,240                             // je            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,23,92,64,8               // vmovhpd       %xmm11,0x8(%r8,%rax,2)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  114,227                             // jb            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,214,84,64,16             // vmovq         %xmm10,0x10(%r8,%rax,2)
-  .byte  116,218                             // je            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  116,218                             // je            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,23,84,64,24              // vmovhpd       %xmm10,0x18(%r8,%rax,2)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,205                             // jb            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  114,205                             // jb            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,214,76,64,32             // vmovq         %xmm9,0x20(%r8,%rax,2)
-  .byte  116,196                             // je            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  116,196                             // je            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,23,76,64,40              // vmovhpd       %xmm9,0x28(%r8,%rax,2)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,183                             // jb            524c <_sk_store_u16_be_hsw+0x107>
+  .byte  114,183                             // jb            c888 <_sk_store_u16_be_hsw+0x107>
   .byte  196,65,121,214,68,64,48             // vmovq         %xmm8,0x30(%r8,%rax,2)
-  .byte  235,174                             // jmp           524c <_sk_store_u16_be_hsw+0x107>
+  .byte  235,174                             // jmp           c888 <_sk_store_u16_be_hsw+0x107>
 
 HIDDEN _sk_load_f32_hsw
 .globl _sk_load_f32_hsw
@@ -14639,7 +21765,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,253,87,192                      // vxorpd        %ymm0,%ymm0,%ymm0
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,135,97,1,0,0                     // ja            540f <_sk_load_f32_hsw+0x171>
+  .byte  15,135,97,1,0,0                     // ja            ca4b <_sk_load_f32_hsw+0x171>
   .byte  72,131,236,24                       // sub           $0x18,%rsp
   .byte  197,253,17,100,36,128               // vmovupd       %ymm4,-0x80(%rsp)
   .byte  197,253,17,108,36,160               // vmovupd       %ymm5,-0x60(%rsp)
@@ -14652,7 +21778,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  77,99,201                           // movslq        %r9d,%r9
-  .byte  76,141,21,50,1,0,0                  // lea           0x132(%rip),%r10        # 5420 <_sk_load_f32_hsw+0x182>
+  .byte  76,141,21,50,1,0,0                  // lea           0x132(%rip),%r10        # ca5c <_sk_load_f32_hsw+0x182>
   .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  197,221,87,228                      // vxorpd        %ymm4,%ymm4,%ymm4
@@ -14715,7 +21841,7 @@
   .byte  197,229,87,219                      // vxorpd        %ymm3,%ymm3,%ymm3
   .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
   .byte  197,245,87,201                      // vxorpd        %ymm1,%ymm1,%ymm1
-  .byte  235,203                             // jmp           53e9 <_sk_load_f32_hsw+0x14b>
+  .byte  235,203                             // jmp           ca25 <_sk_load_f32_hsw+0x14b>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  27,255                              // sbb           %edi,%edi
   .byte  255                                 // (bad)
@@ -14727,7 +21853,7 @@
   .byte  255,92,255,255                      // lcall         *-0x1(%rdi,%rdi,8)
   .byte  255,70,255                          // incl          -0x1(%rsi)
   .byte  255                                 // (bad)
-  .byte  255,53,255,255,255,40               // pushq         0x28ffffff(%rip)        # 2900543c <_sk_srcover_rgba_8888_sse2_lowp+0x28fda9fc>
+  .byte  255,53,255,255,255,40               // pushq         0x28ffffff(%rip)        # 2900ca78 <_sk_srcover_rgba_8888_sse2_lowp+0x28fda9fc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -14739,7 +21865,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,221,87,228                      // vxorpd        %ymm4,%ymm4,%ymm4
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,135,97,1,0,0                     // ja            55b1 <_sk_load_f32_dst_hsw+0x171>
+  .byte  15,135,97,1,0,0                     // ja            cbed <_sk_load_f32_dst_hsw+0x171>
   .byte  72,131,236,24                       // sub           $0x18,%rsp
   .byte  197,253,17,68,36,128                // vmovupd       %ymm0,-0x80(%rsp)
   .byte  197,253,17,76,36,160                // vmovupd       %ymm1,-0x60(%rsp)
@@ -14752,7 +21878,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  77,99,201                           // movslq        %r9d,%r9
-  .byte  76,141,21,48,1,0,0                  // lea           0x130(%rip),%r10        # 55c0 <_sk_load_f32_dst_hsw+0x180>
+  .byte  76,141,21,48,1,0,0                  // lea           0x130(%rip),%r10        # cbfc <_sk_load_f32_dst_hsw+0x180>
   .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  197,253,87,192                      // vxorpd        %ymm0,%ymm0,%ymm0
@@ -14815,7 +21941,7 @@
   .byte  197,197,87,255                      // vxorpd        %ymm7,%ymm7,%ymm7
   .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
   .byte  197,213,87,237                      // vxorpd        %ymm5,%ymm5,%ymm5
-  .byte  235,203                             // jmp           558b <_sk_load_f32_dst_hsw+0x14b>
+  .byte  235,203                             // jmp           cbc7 <_sk_load_f32_dst_hsw+0x14b>
   .byte  29,255,255,255,163                  // sbb           $0xa3ffffff,%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -14855,7 +21981,7 @@
   .byte  196,65,37,20,196                    // vunpcklpd     %ymm12,%ymm11,%ymm8
   .byte  196,65,37,21,220                    // vunpckhpd     %ymm12,%ymm11,%ymm11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,55                              // jne           565f <_sk_store_f32_hsw+0x7f>
+  .byte  117,55                              // jne           cc9b <_sk_store_f32_hsw+0x7f>
   .byte  196,67,45,24,225,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm12
   .byte  196,67,61,24,235,1                  // vinsertf128   $0x1,%xmm11,%ymm8,%ymm13
   .byte  196,67,45,6,201,49                  // vperm2f128    $0x31,%ymm9,%ymm10,%ymm9
@@ -14868,22 +21994,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,17,20,128                // vmovupd       %xmm10,(%r8,%rax,4)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            565b <_sk_store_f32_hsw+0x7b>
+  .byte  116,240                             // je            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,65,121,17,76,128,16             // vmovupd       %xmm9,0x10(%r8,%rax,4)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            565b <_sk_store_f32_hsw+0x7b>
+  .byte  114,227                             // jb            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,65,121,17,68,128,32             // vmovupd       %xmm8,0x20(%r8,%rax,4)
-  .byte  116,218                             // je            565b <_sk_store_f32_hsw+0x7b>
+  .byte  116,218                             // je            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,65,121,17,92,128,48             // vmovupd       %xmm11,0x30(%r8,%rax,4)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,205                             // jb            565b <_sk_store_f32_hsw+0x7b>
+  .byte  114,205                             // jb            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,67,125,25,84,128,64,1           // vextractf128  $0x1,%ymm10,0x40(%r8,%rax,4)
-  .byte  116,195                             // je            565b <_sk_store_f32_hsw+0x7b>
+  .byte  116,195                             // je            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,67,125,25,76,128,80,1           // vextractf128  $0x1,%ymm9,0x50(%r8,%rax,4)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,181                             // jb            565b <_sk_store_f32_hsw+0x7b>
+  .byte  114,181                             // jb            cc97 <_sk_store_f32_hsw+0x7b>
   .byte  196,67,125,25,68,128,96,1           // vextractf128  $0x1,%ymm8,0x60(%r8,%rax,4)
-  .byte  235,171                             // jmp           565b <_sk_store_f32_hsw+0x7b>
+  .byte  235,171                             // jmp           cc97 <_sk_store_f32_hsw+0x7b>
 
 HIDDEN _sk_repeat_x_hsw
 .globl _sk_repeat_x_hsw
@@ -14922,7 +22048,7 @@
   .byte  196,65,124,92,218                   // vsubps        %ymm10,%ymm0,%ymm11
   .byte  196,193,58,88,192                   // vaddss        %xmm8,%xmm8,%xmm0
   .byte  196,98,125,24,192                   // vbroadcastss  %xmm0,%ymm8
-  .byte  197,178,89,5,109,91,2,0             // vmulss        0x25b6d(%rip),%xmm9,%xmm0        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,178,89,5,177,91,2,0             // vmulss        0x25bb1(%rip),%xmm9,%xmm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
   .byte  197,164,89,192                      // vmulps        %ymm0,%ymm11,%ymm0
   .byte  196,227,125,8,192,1                 // vroundps      $0x1,%ymm0,%ymm0
@@ -14945,7 +22071,7 @@
   .byte  196,65,116,92,218                   // vsubps        %ymm10,%ymm1,%ymm11
   .byte  196,193,58,88,200                   // vaddss        %xmm8,%xmm8,%xmm1
   .byte  196,98,125,24,193                   // vbroadcastss  %xmm1,%ymm8
-  .byte  197,178,89,13,28,91,2,0             // vmulss        0x25b1c(%rip),%xmm9,%xmm1        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,178,89,13,96,91,2,0             // vmulss        0x25b60(%rip),%xmm9,%xmm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,226,125,24,201                  // vbroadcastss  %xmm1,%ymm1
   .byte  197,164,89,201                      // vmulps        %ymm1,%ymm11,%ymm1
   .byte  196,227,125,8,201,1                 // vroundps      $0x1,%ymm1,%ymm1
@@ -14963,7 +22089,7 @@
 _sk_clamp_x_1_hsw:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,24,5,228,90,2,0          // vbroadcastss  0x25ae4(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,40,91,2,0           // vbroadcastss  0x25b28(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -14981,9 +22107,9 @@
 .globl _sk_mirror_x_1_hsw
 FUNCTION(_sk_mirror_x_1_hsw)
 _sk_mirror_x_1_hsw:
-  .byte  196,98,125,24,5,219,90,2,0          // vbroadcastss  0x25adb(%rip),%ymm8        # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+  .byte  196,98,125,24,5,31,91,2,0           // vbroadcastss  0x25b1f(%rip),%ymm8        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
   .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,13,177,90,2,0         // vbroadcastss  0x25ab1(%rip),%ymm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,13,245,90,2,0         // vbroadcastss  0x25af5(%rip),%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,124,89,201                   // vmulps        %ymm9,%ymm0,%ymm9
   .byte  196,67,125,8,201,1                  // vroundps      $0x1,%ymm9,%ymm9
   .byte  196,65,52,88,201                    // vaddps        %ymm9,%ymm9,%ymm9
@@ -14999,11 +22125,11 @@
 .globl _sk_luminance_to_alpha_hsw
 FUNCTION(_sk_luminance_to_alpha_hsw)
 _sk_luminance_to_alpha_hsw:
-  .byte  196,226,125,24,29,157,91,2,0        // vbroadcastss  0x25b9d(%rip),%ymm3        # 2b3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
-  .byte  196,98,125,24,5,152,91,2,0          // vbroadcastss  0x25b98(%rip),%ymm8        # 2b3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+  .byte  196,226,125,24,29,229,91,2,0        // vbroadcastss  0x25be5(%rip),%ymm3        # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,5,216,91,2,0          // vbroadcastss  0x25bd8(%rip),%ymm8        # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
   .byte  196,226,125,184,203                 // vfmadd231ps   %ymm3,%ymm0,%ymm1
-  .byte  196,226,125,24,29,137,91,2,0        // vbroadcastss  0x25b89(%rip),%ymm3        # 2b3ac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+  .byte  196,226,125,24,29,205,91,2,0        // vbroadcastss  0x25bcd(%rip),%ymm3        # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
   .byte  196,226,109,168,217                 // vfmadd213ps   %ymm1,%ymm2,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -15202,9 +22328,9 @@
   .byte  76,139,64,8                         // mov           0x8(%rax),%r8
   .byte  77,137,202                          // mov           %r9,%r10
   .byte  73,255,202                          // dec           %r10
-  .byte  120,7                               // js            5b1b <_sk_evenly_spaced_gradient_hsw+0x18>
+  .byte  120,7                               // js            d157 <_sk_evenly_spaced_gradient_hsw+0x18>
   .byte  196,193,242,42,202                  // vcvtsi2ss     %r10,%xmm1,%xmm1
-  .byte  235,22                              // jmp           5b31 <_sk_evenly_spaced_gradient_hsw+0x2e>
+  .byte  235,22                              // jmp           d16d <_sk_evenly_spaced_gradient_hsw+0x2e>
   .byte  77,137,211                          // mov           %r10,%r11
   .byte  73,209,235                          // shr           %r11
   .byte  65,131,226,1                        // and           $0x1,%r10d
@@ -15215,7 +22341,7 @@
   .byte  197,244,89,200                      // vmulps        %ymm0,%ymm1,%ymm1
   .byte  197,126,91,225                      // vcvttps2dq    %ymm1,%ymm12
   .byte  73,131,249,8                        // cmp           $0x8,%r9
-  .byte  119,73                              // ja            5b8d <_sk_evenly_spaced_gradient_hsw+0x8a>
+  .byte  119,73                              // ja            d1c9 <_sk_evenly_spaced_gradient_hsw+0x8a>
   .byte  196,66,29,22,0                      // vpermps       (%r8),%ymm12,%ymm8
   .byte  76,139,64,40                        // mov           0x28(%rax),%r8
   .byte  196,66,29,22,8                      // vpermps       (%r8),%ymm12,%ymm9
@@ -15231,7 +22357,7 @@
   .byte  196,194,29,22,24                    // vpermps       (%r8),%ymm12,%ymm3
   .byte  72,139,64,64                        // mov           0x40(%rax),%rax
   .byte  196,98,29,22,16                     // vpermps       (%rax),%ymm12,%ymm10
-  .byte  233,147,0,0,0                       // jmpq          5c20 <_sk_evenly_spaced_gradient_hsw+0x11d>
+  .byte  233,147,0,0,0                       // jmpq          d25c <_sk_evenly_spaced_gradient_hsw+0x11d>
   .byte  196,65,13,118,246                   // vpcmpeqd      %ymm14,%ymm14,%ymm14
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
   .byte  197,245,118,201                     // vpcmpeqd      %ymm1,%ymm1,%ymm1
@@ -15275,14 +22401,14 @@
 .globl _sk_gauss_a_to_rgba_hsw
 FUNCTION(_sk_gauss_a_to_rgba_hsw)
 _sk_gauss_a_to_rgba_hsw:
-  .byte  196,226,125,24,5,107,87,2,0         // vbroadcastss  0x2576b(%rip),%ymm0        # 2b3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
-  .byte  196,226,125,24,13,102,87,2,0        // vbroadcastss  0x25766(%rip),%ymm1        # 2b3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+  .byte  196,226,125,24,5,179,87,2,0         // vbroadcastss  0x257b3(%rip),%ymm0        # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,226,125,24,13,166,87,2,0        // vbroadcastss  0x257a6(%rip),%ymm1        # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
   .byte  196,226,101,168,200                 // vfmadd213ps   %ymm0,%ymm3,%ymm1
-  .byte  196,226,125,24,5,92,87,2,0          // vbroadcastss  0x2575c(%rip),%ymm0        # 2b3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+  .byte  196,226,125,24,5,160,87,2,0         // vbroadcastss  0x257a0(%rip),%ymm0        # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
   .byte  196,226,101,184,193                 // vfmadd231ps   %ymm1,%ymm3,%ymm0
-  .byte  196,226,125,24,13,82,87,2,0         // vbroadcastss  0x25752(%rip),%ymm1        # 2b3bc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+  .byte  196,226,125,24,13,150,87,2,0        // vbroadcastss  0x25796(%rip),%ymm1        # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
   .byte  196,226,101,184,200                 // vfmadd231ps   %ymm0,%ymm3,%ymm1
-  .byte  196,226,125,24,5,72,87,2,0          // vbroadcastss  0x25748(%rip),%ymm0        # 2b3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+  .byte  196,226,125,24,5,140,87,2,0         // vbroadcastss  0x2578c(%rip),%ymm0        # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
   .byte  196,226,101,184,193                 // vfmadd231ps   %ymm1,%ymm3,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
@@ -15297,11 +22423,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  73,131,248,1                        // cmp           $0x1,%r8
-  .byte  15,134,220,0,0,0                    // jbe           5d78 <_sk_gradient_hsw+0xeb>
+  .byte  15,134,220,0,0,0                    // jbe           d3b4 <_sk_gradient_hsw+0xeb>
   .byte  76,139,72,72                        // mov           0x48(%rax),%r9
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  65,186,1,0,0,0                      // mov           $0x1,%r10d
-  .byte  196,226,125,24,21,217,85,2,0        // vbroadcastss  0x255d9(%rip),%ymm2        # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+  .byte  196,226,125,24,21,29,86,2,0         // vbroadcastss  0x2561d(%rip),%ymm2        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
   .byte  196,65,53,239,201                   // vpxor         %ymm9,%ymm9,%ymm9
   .byte  196,130,125,24,28,145               // vbroadcastss  (%r9,%r10,4),%ymm3
   .byte  197,228,194,216,2                   // vcmpleps      %ymm0,%ymm3,%ymm3
@@ -15309,10 +22435,10 @@
   .byte  197,53,254,203                      // vpaddd        %ymm3,%ymm9,%ymm9
   .byte  73,255,194                          // inc           %r10
   .byte  77,57,208                           // cmp           %r10,%r8
-  .byte  117,227                             // jne           5cb8 <_sk_gradient_hsw+0x2b>
+  .byte  117,227                             // jne           d2f4 <_sk_gradient_hsw+0x2b>
   .byte  76,139,72,8                         // mov           0x8(%rax),%r9
   .byte  73,131,248,8                        // cmp           $0x8,%r8
-  .byte  15,134,158,0,0,0                    // jbe           5d81 <_sk_gradient_hsw+0xf4>
+  .byte  15,134,158,0,0,0                    // jbe           d3bd <_sk_gradient_hsw+0xf4>
   .byte  196,65,13,118,246                   // vpcmpeqd      %ymm14,%ymm14,%ymm14
   .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
@@ -15344,7 +22470,7 @@
   .byte  196,130,5,146,28,136                // vgatherdps    %ymm15,(%r8,%ymm9,4),%ymm3
   .byte  72,139,64,64                        // mov           0x40(%rax),%rax
   .byte  196,34,13,146,28,136                // vgatherdps    %ymm14,(%rax,%ymm9,4),%ymm11
-  .byte  235,77                              // jmp           5dc5 <_sk_gradient_hsw+0x138>
+  .byte  235,77                              // jmp           d401 <_sk_gradient_hsw+0x138>
   .byte  76,139,72,8                         // mov           0x8(%rax),%r9
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  196,66,53,22,1                      // vpermps       (%r9),%ymm9,%ymm8
@@ -15404,24 +22530,24 @@
   .byte  196,65,52,95,226                    // vmaxps        %ymm10,%ymm9,%ymm12
   .byte  196,65,36,94,220                    // vdivps        %ymm12,%ymm11,%ymm11
   .byte  196,65,36,89,227                    // vmulps        %ymm11,%ymm11,%ymm12
-  .byte  196,98,125,24,45,100,85,2,0         // vbroadcastss  0x25564(%rip),%ymm13        # 2b3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
-  .byte  196,98,125,24,53,95,85,2,0          // vbroadcastss  0x2555f(%rip),%ymm14        # 2b3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+  .byte  196,98,125,24,45,168,85,2,0         // vbroadcastss  0x255a8(%rip),%ymm13        # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+  .byte  196,98,125,24,53,163,85,2,0         // vbroadcastss  0x255a3(%rip),%ymm14        # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
   .byte  196,66,29,184,245                   // vfmadd231ps   %ymm13,%ymm12,%ymm14
-  .byte  196,98,125,24,45,85,85,2,0          // vbroadcastss  0x25555(%rip),%ymm13        # 2b3cc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+  .byte  196,98,125,24,45,153,85,2,0         // vbroadcastss  0x25599(%rip),%ymm13        # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
   .byte  196,66,29,184,238                   // vfmadd231ps   %ymm14,%ymm12,%ymm13
-  .byte  196,98,125,24,53,75,85,2,0          // vbroadcastss  0x2554b(%rip),%ymm14        # 2b3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+  .byte  196,98,125,24,53,143,85,2,0         // vbroadcastss  0x2558f(%rip),%ymm14        # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
   .byte  196,66,29,184,245                   // vfmadd231ps   %ymm13,%ymm12,%ymm14
   .byte  196,65,36,89,222                    // vmulps        %ymm14,%ymm11,%ymm11
   .byte  196,65,52,194,202,1                 // vcmpltps      %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,24,21,54,85,2,0          // vbroadcastss  0x25536(%rip),%ymm10        # 2b3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+  .byte  196,98,125,24,21,122,85,2,0         // vbroadcastss  0x2557a(%rip),%ymm10        # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
   .byte  196,65,44,92,211                    // vsubps        %ymm11,%ymm10,%ymm10
   .byte  196,67,37,74,202,144                // vblendvps     %ymm9,%ymm10,%ymm11,%ymm9
   .byte  196,193,124,194,192,1               // vcmpltps      %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,21,204,83,2,0         // vbroadcastss  0x253cc(%rip),%ymm10        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,21,16,84,2,0          // vbroadcastss  0x25410(%rip),%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,92,209                    // vsubps        %ymm9,%ymm10,%ymm10
   .byte  196,195,53,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm9,%ymm0
   .byte  196,65,116,194,200,1                // vcmpltps      %ymm8,%ymm1,%ymm9
-  .byte  196,98,125,24,21,182,83,2,0         // vbroadcastss  0x253b6(%rip),%ymm10        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,21,250,83,2,0         // vbroadcastss  0x253fa(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,44,92,208                       // vsubps        %ymm0,%ymm10,%ymm10
   .byte  196,195,125,74,194,144              // vblendvps     %ymm9,%ymm10,%ymm0,%ymm0
   .byte  196,65,124,194,200,3                // vcmpunordps   %ymm8,%ymm0,%ymm9
@@ -15449,23 +22575,23 @@
   .byte  197,50,89,80,44                     // vmulss        0x2c(%rax),%xmm9,%xmm10
   .byte  196,66,125,24,210                   // vbroadcastss  %xmm10,%ymm10
   .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
-  .byte  196,98,125,24,29,182,84,2,0         // vbroadcastss  0x254b6(%rip),%ymm11        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,29,250,84,2,0         // vbroadcastss  0x254fa(%rip),%ymm11        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
   .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
   .byte  196,98,125,184,216                  // vfmadd231ps   %ymm0,%ymm0,%ymm11
   .byte  196,193,50,89,193                   // vmulss        %xmm9,%xmm9,%xmm0
   .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,13,149,84,2,0         // vbroadcastss  0x25495(%rip),%ymm9        # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  196,98,125,24,13,217,84,2,0         // vbroadcastss  0x254d9(%rip),%ymm9        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,194,45,184,194                  // vfmadd231ps   %ymm10,%ymm10,%ymm0
   .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
   .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
-  .byte  196,98,125,24,13,120,84,2,0         // vbroadcastss  0x25478(%rip),%ymm9        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,13,188,84,2,0         // vbroadcastss  0x254bc(%rip),%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,65,44,87,201                    // vxorps        %ymm9,%ymm10,%ymm9
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,9,83,2,0           // vbroadcastss  0x25309(%rip),%ymm11        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,29,77,83,2,0          // vbroadcastss  0x2534d(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  196,65,44,89,208                    // vmulps        %ymm8,%ymm10,%ymm10
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
@@ -15484,23 +22610,23 @@
   .byte  197,50,89,80,44                     // vmulss        0x2c(%rax),%xmm9,%xmm10
   .byte  196,66,125,24,210                   // vbroadcastss  %xmm10,%ymm10
   .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
-  .byte  196,98,125,24,29,30,84,2,0          // vbroadcastss  0x2541e(%rip),%ymm11        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,29,98,84,2,0          // vbroadcastss  0x25462(%rip),%ymm11        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
   .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
   .byte  196,98,125,184,216                  // vfmadd231ps   %ymm0,%ymm0,%ymm11
   .byte  196,193,50,89,193                   // vmulss        %xmm9,%xmm9,%xmm0
   .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,13,253,83,2,0         // vbroadcastss  0x253fd(%rip),%ymm9        # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  196,98,125,24,13,65,84,2,0          // vbroadcastss  0x25441(%rip),%ymm9        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,194,45,184,194                  // vfmadd231ps   %ymm10,%ymm10,%ymm0
   .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
   .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
-  .byte  196,98,125,24,13,224,83,2,0         // vbroadcastss  0x253e0(%rip),%ymm9        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,13,36,84,2,0          // vbroadcastss  0x25424(%rip),%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,65,44,87,201                    // vxorps        %ymm9,%ymm10,%ymm9
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,113,82,2,0         // vbroadcastss  0x25271(%rip),%ymm11        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,29,181,82,2,0         // vbroadcastss  0x252b5(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  196,65,44,89,208                    // vmulps        %ymm8,%ymm10,%ymm10
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
@@ -15518,14 +22644,14 @@
   .byte  197,58,89,72,44                     // vmulss        0x2c(%rax),%xmm8,%xmm9
   .byte  196,66,125,24,201                   // vbroadcastss  %xmm9,%ymm9
   .byte  197,52,88,200                       // vaddps        %ymm0,%ymm9,%ymm9
-  .byte  196,98,125,24,21,140,83,2,0         // vbroadcastss  0x2538c(%rip),%ymm10        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,21,208,83,2,0         // vbroadcastss  0x253d0(%rip),%ymm10        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
   .byte  197,116,89,209                      // vmulps        %ymm1,%ymm1,%ymm10
   .byte  196,98,125,184,208                  // vfmadd231ps   %ymm0,%ymm0,%ymm10
   .byte  196,193,58,89,192                   // vmulss        %xmm8,%xmm8,%xmm0
   .byte  196,226,125,24,192                  // vbroadcastss  %xmm0,%ymm0
   .byte  197,172,92,192                      // vsubps        %ymm0,%ymm10,%ymm0
-  .byte  196,98,125,24,5,111,83,2,0          // vbroadcastss  0x2536f(%rip),%ymm8        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,5,179,83,2,0          // vbroadcastss  0x253b3(%rip),%ymm8        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,193,124,87,192                  // vxorps        %ymm8,%ymm0,%ymm0
   .byte  196,193,124,94,193                  // vdivps        %ymm9,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15568,7 +22694,7 @@
 FUNCTION(_sk_save_xy_hsw)
 _sk_save_xy_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,158,81,2,0          // vbroadcastss  0x2519e(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,226,81,2,0          // vbroadcastss  0x251e2(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,124,88,200                   // vaddps        %ymm8,%ymm0,%ymm9
   .byte  196,67,125,8,209,1                  // vroundps      $0x1,%ymm9,%ymm10
   .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
@@ -15602,9 +22728,9 @@
 FUNCTION(_sk_bilinear_nx_hsw)
 _sk_bilinear_nx_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,142,82,2,0         // vbroadcastss  0x2528e(%rip),%ymm0        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,5,210,82,2,0         // vbroadcastss  0x252d2(%rip),%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,37,81,2,0           // vbroadcastss  0x25125(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,105,81,2,0          // vbroadcastss  0x25169(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15615,7 +22741,7 @@
 FUNCTION(_sk_bilinear_px_hsw)
 _sk_bilinear_px_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,5,81,2,0           // vbroadcastss  0x25105(%rip),%ymm0        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,5,73,81,2,0          // vbroadcastss  0x25149(%rip),%ymm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -15627,9 +22753,9 @@
 FUNCTION(_sk_bilinear_ny_hsw)
 _sk_bilinear_ny_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,69,82,2,0         // vbroadcastss  0x25245(%rip),%ymm1        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,13,137,82,2,0        // vbroadcastss  0x25289(%rip),%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,219,80,2,0          // vbroadcastss  0x250db(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,31,81,2,0           // vbroadcastss  0x2511f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15640,7 +22766,7 @@
 FUNCTION(_sk_bilinear_py_hsw)
 _sk_bilinear_py_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,187,80,2,0        // vbroadcastss  0x250bb(%rip),%ymm1        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,13,255,80,2,0        // vbroadcastss  0x250ff(%rip),%ymm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -15652,13 +22778,13 @@
 FUNCTION(_sk_bicubic_n3x_hsw)
 _sk_bicubic_n3x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,254,81,2,0         // vbroadcastss  0x251fe(%rip),%ymm0        # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+  .byte  196,226,125,24,5,66,82,2,0          // vbroadcastss  0x25242(%rip),%ymm0        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,145,80,2,0          // vbroadcastss  0x25091(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,213,80,2,0          // vbroadcastss  0x250d5(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,238,80,2,0         // vbroadcastss  0x250ee(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
-  .byte  196,98,125,24,29,217,81,2,0         // vbroadcastss  0x251d9(%rip),%ymm11        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,50,81,2,0          // vbroadcastss  0x25132(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,29,82,2,0          // vbroadcastss  0x2521d(%rip),%ymm11        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
   .byte  196,65,36,89,193                    // vmulps        %ymm9,%ymm11,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -15670,16 +22796,16 @@
 FUNCTION(_sk_bicubic_n1x_hsw)
 _sk_bicubic_n1x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,176,81,2,0         // vbroadcastss  0x251b0(%rip),%ymm0        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,5,244,81,2,0         // vbroadcastss  0x251f4(%rip),%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,71,80,2,0           // vbroadcastss  0x25047(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,139,80,2,0          // vbroadcastss  0x2508b(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
-  .byte  196,98,125,24,13,161,81,2,0         // vbroadcastss  0x251a1(%rip),%ymm9        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
-  .byte  196,98,125,24,21,156,81,2,0         // vbroadcastss  0x2519c(%rip),%ymm10        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,13,233,81,2,0         // vbroadcastss  0x251e9(%rip),%ymm9        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,98,125,24,21,220,81,2,0         // vbroadcastss  0x251dc(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,66,61,168,209                   // vfmadd213ps   %ymm9,%ymm8,%ymm10
-  .byte  196,98,125,24,13,30,80,2,0          // vbroadcastss  0x2501e(%rip),%ymm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,13,98,80,2,0          // vbroadcastss  0x25062(%rip),%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,66,61,184,202                   // vfmadd231ps   %ymm10,%ymm8,%ymm9
-  .byte  196,98,125,24,21,132,81,2,0         // vbroadcastss  0x25184(%rip),%ymm10        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,21,200,81,2,0         // vbroadcastss  0x251c8(%rip),%ymm10        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
   .byte  197,124,17,144,128,0,0,0            // vmovups       %ymm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15690,14 +22816,14 @@
 FUNCTION(_sk_bicubic_p1x_hsw)
 _sk_bicubic_p1x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,244,79,2,0          // vbroadcastss  0x24ff4(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,56,80,2,0           // vbroadcastss  0x25038(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,188,88,0                        // vaddps        (%rax),%ymm8,%ymm0
   .byte  197,124,16,72,64                    // vmovups       0x40(%rax),%ymm9
-  .byte  196,98,125,24,21,78,81,2,0          // vbroadcastss  0x2514e(%rip),%ymm10        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
-  .byte  196,98,125,24,29,73,81,2,0          // vbroadcastss  0x25149(%rip),%ymm11        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,21,150,81,2,0         // vbroadcastss  0x25196(%rip),%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,98,125,24,29,137,81,2,0         // vbroadcastss  0x25189(%rip),%ymm11        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,66,53,168,218                   // vfmadd213ps   %ymm10,%ymm9,%ymm11
   .byte  196,66,53,168,216                   // vfmadd213ps   %ymm8,%ymm9,%ymm11
-  .byte  196,98,125,24,5,58,81,2,0           // vbroadcastss  0x2513a(%rip),%ymm8        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,5,126,81,2,0          // vbroadcastss  0x2517e(%rip),%ymm8        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,66,53,184,195                   // vfmadd231ps   %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15708,12 +22834,12 @@
 FUNCTION(_sk_bicubic_p3x_hsw)
 _sk_bicubic_p3x_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,22,81,2,0          // vbroadcastss  0x25116(%rip),%ymm0        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,226,125,24,5,94,81,2,0          // vbroadcastss  0x2515e(%rip),%ymm0        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,7,80,2,0           // vbroadcastss  0x25007(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
-  .byte  196,98,125,24,29,242,80,2,0         // vbroadcastss  0x250f2(%rip),%ymm11        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,75,80,2,0          // vbroadcastss  0x2504b(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,54,81,2,0          // vbroadcastss  0x25136(%rip),%ymm11        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
   .byte  196,65,52,89,195                    // vmulps        %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -15725,13 +22851,13 @@
 FUNCTION(_sk_bicubic_n3y_hsw)
 _sk_bicubic_n3y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,205,80,2,0        // vbroadcastss  0x250cd(%rip),%ymm1        # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+  .byte  196,226,125,24,13,17,81,2,0         // vbroadcastss  0x25111(%rip),%ymm1        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,95,79,2,0           // vbroadcastss  0x24f5f(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,163,79,2,0          // vbroadcastss  0x24fa3(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,188,79,2,0         // vbroadcastss  0x24fbc(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
-  .byte  196,98,125,24,29,167,80,2,0         // vbroadcastss  0x250a7(%rip),%ymm11        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,0,80,2,0           // vbroadcastss  0x25000(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,235,80,2,0         // vbroadcastss  0x250eb(%rip),%ymm11        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
   .byte  196,65,36,89,193                    // vmulps        %ymm9,%ymm11,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -15743,16 +22869,16 @@
 FUNCTION(_sk_bicubic_n1y_hsw)
 _sk_bicubic_n1y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,126,80,2,0        // vbroadcastss  0x2507e(%rip),%ymm1        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,13,194,80,2,0        // vbroadcastss  0x250c2(%rip),%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,20,79,2,0           // vbroadcastss  0x24f14(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,88,79,2,0           // vbroadcastss  0x24f58(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
-  .byte  196,98,125,24,13,110,80,2,0         // vbroadcastss  0x2506e(%rip),%ymm9        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
-  .byte  196,98,125,24,21,105,80,2,0         // vbroadcastss  0x25069(%rip),%ymm10        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,13,182,80,2,0         // vbroadcastss  0x250b6(%rip),%ymm9        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,98,125,24,21,169,80,2,0         // vbroadcastss  0x250a9(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,66,61,168,209                   // vfmadd213ps   %ymm9,%ymm8,%ymm10
-  .byte  196,98,125,24,13,235,78,2,0         // vbroadcastss  0x24eeb(%rip),%ymm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,13,47,79,2,0          // vbroadcastss  0x24f2f(%rip),%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,66,61,184,202                   // vfmadd231ps   %ymm10,%ymm8,%ymm9
-  .byte  196,98,125,24,21,81,80,2,0          // vbroadcastss  0x25051(%rip),%ymm10        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,21,149,80,2,0         // vbroadcastss  0x25095(%rip),%ymm10        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,66,61,184,209                   // vfmadd231ps   %ymm9,%ymm8,%ymm10
   .byte  197,124,17,144,160,0,0,0            // vmovups       %ymm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15763,14 +22889,14 @@
 FUNCTION(_sk_bicubic_p1y_hsw)
 _sk_bicubic_p1y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,193,78,2,0          // vbroadcastss  0x24ec1(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,5,79,2,0            // vbroadcastss  0x24f05(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,188,88,72,32                    // vaddps        0x20(%rax),%ymm8,%ymm1
   .byte  197,124,16,72,96                    // vmovups       0x60(%rax),%ymm9
-  .byte  196,98,125,24,21,26,80,2,0          // vbroadcastss  0x2501a(%rip),%ymm10        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
-  .byte  196,98,125,24,29,21,80,2,0          // vbroadcastss  0x25015(%rip),%ymm11        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,21,98,80,2,0          // vbroadcastss  0x25062(%rip),%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+  .byte  196,98,125,24,29,85,80,2,0          // vbroadcastss  0x25055(%rip),%ymm11        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,66,53,168,218                   // vfmadd213ps   %ymm10,%ymm9,%ymm11
   .byte  196,66,53,168,216                   // vfmadd213ps   %ymm8,%ymm9,%ymm11
-  .byte  196,98,125,24,5,6,80,2,0            // vbroadcastss  0x25006(%rip),%ymm8        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,5,74,80,2,0           // vbroadcastss  0x2504a(%rip),%ymm8        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,66,53,184,195                   // vfmadd231ps   %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -15781,12 +22907,12 @@
 FUNCTION(_sk_bicubic_p3y_hsw)
 _sk_bicubic_p3y_hsw:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,226,79,2,0        // vbroadcastss  0x24fe2(%rip),%ymm1        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,226,125,24,13,42,80,2,0         // vbroadcastss  0x2502a(%rip),%ymm1        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,210,78,2,0         // vbroadcastss  0x24ed2(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
-  .byte  196,98,125,24,29,189,79,2,0         // vbroadcastss  0x24fbd(%rip),%ymm11        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,22,79,2,0          // vbroadcastss  0x24f16(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,1,80,2,0           // vbroadcastss  0x25001(%rip),%ymm11        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,66,61,168,218                   // vfmadd213ps   %ymm10,%ymm8,%ymm11
   .byte  196,65,52,89,195                    // vmulps        %ymm11,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -15926,7 +23052,7 @@
   .byte  196,98,93,64,218                    // vpmulld       %ymm2,%ymm4,%ymm11
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  197,165,254,193                     // vpaddd        %ymm1,%ymm11,%ymm0
-  .byte  196,98,125,88,61,127,77,2,0         // vpbroadcastd  0x24d7f(%rip),%ymm15        # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+  .byte  196,98,125,88,61,195,77,2,0         // vpbroadcastd  0x24dc3(%rip),%ymm15        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
   .byte  196,194,125,64,199                  // vpmulld       %ymm15,%ymm0,%ymm0
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
   .byte  197,237,118,210                     // vpcmpeqd      %ymm2,%ymm2,%ymm2
@@ -15938,13 +23064,13 @@
   .byte  197,213,118,237                     // vpcmpeqd      %ymm5,%ymm5,%ymm5
   .byte  196,226,85,146,60,144               // vgatherdps    %ymm5,(%rax,%ymm2,4),%ymm7
   .byte  197,252,17,188,36,0,2,0,0           // vmovups       %ymm7,0x200(%rsp)
-  .byte  196,226,125,88,61,205,75,2,0        // vpbroadcastd  0x24bcd(%rip),%ymm7        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,226,125,88,61,17,76,2,0         // vpbroadcastd  0x24c11(%rip),%ymm7        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  197,253,254,199                     // vpaddd        %ymm7,%ymm0,%ymm0
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
   .byte  197,213,118,237                     // vpcmpeqd      %ymm5,%ymm5,%ymm5
   .byte  196,226,85,146,20,128               // vgatherdps    %ymm5,(%rax,%ymm0,4),%ymm2
   .byte  197,252,17,148,36,32,1,0,0          // vmovups       %ymm2,0x120(%rsp)
-  .byte  196,226,125,24,5,17,77,2,0          // vbroadcastss  0x24d11(%rip),%ymm0        # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+  .byte  196,226,125,24,5,85,77,2,0          // vbroadcastss  0x24d55(%rip),%ymm0        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
   .byte  197,172,88,232                      // vaddps        %ymm0,%ymm10,%ymm5
   .byte  197,254,91,237                      // vcvttps2dq    %ymm5,%ymm5
   .byte  196,226,93,64,213                   // vpmulld       %ymm5,%ymm4,%ymm2
@@ -16206,7 +23332,7 @@
   .byte  197,254,127,132,36,0,1,0,0          // vmovdqu       %ymm0,0x100(%rsp)
   .byte  196,98,109,64,200                   // vpmulld       %ymm0,%ymm2,%ymm9
   .byte  197,181,254,199                     // vpaddd        %ymm7,%ymm9,%ymm0
-  .byte  196,98,125,88,21,170,71,2,0         // vpbroadcastd  0x247aa(%rip),%ymm10        # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+  .byte  196,98,125,88,21,238,71,2,0         // vpbroadcastd  0x247ee(%rip),%ymm10        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
   .byte  196,194,125,64,194                  // vpmulld       %ymm10,%ymm0,%ymm0
   .byte  197,213,118,237                     // vpcmpeqd      %ymm5,%ymm5,%ymm5
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
@@ -16218,13 +23344,13 @@
   .byte  196,65,36,87,219                    // vxorps        %ymm11,%ymm11,%ymm11
   .byte  196,98,61,146,28,168                // vgatherdps    %ymm8,(%rax,%ymm5,4),%ymm11
   .byte  197,124,17,156,36,192,0,0,0         // vmovups       %ymm11,0xc0(%rsp)
-  .byte  196,98,125,88,29,245,69,2,0         // vpbroadcastd  0x245f5(%rip),%ymm11        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,98,125,88,29,57,70,2,0          // vpbroadcastd  0x24639(%rip),%ymm11        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  196,193,125,254,195                 // vpaddd        %ymm11,%ymm0,%ymm0
   .byte  196,65,61,118,192                   // vpcmpeqd      %ymm8,%ymm8,%ymm8
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
   .byte  196,226,61,146,44,128               // vgatherdps    %ymm8,(%rax,%ymm0,4),%ymm5
   .byte  197,252,17,108,36,32                // vmovups       %ymm5,0x20(%rsp)
-  .byte  196,226,125,24,5,58,71,2,0          // vbroadcastss  0x2473a(%rip),%ymm0        # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+  .byte  196,226,125,24,5,126,71,2,0         // vbroadcastss  0x2477e(%rip),%ymm0        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
   .byte  197,116,88,192                      // vaddps        %ymm0,%ymm1,%ymm8
   .byte  196,65,126,91,192                   // vcvttps2dq    %ymm8,%ymm8
   .byte  196,194,109,64,232                  // vpmulld       %ymm8,%ymm2,%ymm5
@@ -16657,7 +23783,7 @@
   .byte  196,193,100,92,210                  // vsubps        %ymm10,%ymm3,%ymm2
   .byte  196,194,77,168,210                  // vfmadd213ps   %ymm10,%ymm6,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,24,60,2,0         // vbroadcastss  0x23c18(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,92,60,2,0         // vbroadcastss  0x23c5c(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,16,164,36,96,6,0,0          // vmovups       0x660(%rsp),%ymm4
   .byte  197,252,16,172,36,128,6,0,0         // vmovups       0x680(%rsp),%ymm5
   .byte  197,252,16,180,36,160,6,0,0         // vmovups       0x6a0(%rsp),%ymm6
@@ -16689,13 +23815,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,151,0,0,0                    // jae           776a <_sk_start_pipeline_avx+0xca>
+  .byte  15,131,151,0,0,0                    // jae           eda6 <_sk_start_pipeline_avx+0xca>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,8                         // lea           0x8(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
-  .byte  119,67                              // ja            772c <_sk_start_pipeline_avx+0x8c>
+  .byte  119,67                              // ja            ed68 <_sk_start_pipeline_avx+0x8c>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -16714,10 +23840,10 @@
   .byte  73,131,196,16                       // add           $0x10,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,193                             // jbe           76ed <_sk_start_pipeline_avx+0x4d>
+  .byte  118,193                             // jbe           ed29 <_sk_start_pipeline_avx+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,41                              // je            775d <_sk_start_pipeline_avx+0xbd>
+  .byte  116,41                              // je            ed99 <_sk_start_pipeline_avx+0xbd>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -16731,7 +23857,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  15,133,117,255,255,255              // jne           76df <_sk_start_pipeline_avx+0x3f>
+  .byte  15,133,117,255,255,255              // jne           ed1b <_sk_start_pipeline_avx+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -16756,15 +23882,15 @@
   .byte  197,249,112,192,0                   // vpshufd       $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  197,252,88,5,168,56,2,0             // vaddps        0x238a8(%rip),%ymm0,%ymm0        # 2b040 <_sk_srcover_rgba_8888_sse2_lowp+0x600>
+  .byte  197,252,88,5,236,56,2,0             // vaddps        0x238ec(%rip),%ymm0,%ymm0        # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
   .byte  197,249,110,201                     // vmovd         %ecx,%xmm1
   .byte  197,249,112,201,0                   // vpshufd       $0x0,%xmm1,%xmm1
   .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,208,58,2,0        // vbroadcastss  0x23ad0(%rip),%ymm2        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,21,20,59,2,0         // vbroadcastss  0x23b14(%rip),%ymm2        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,244,88,202                      // vaddps        %ymm2,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,21,197,58,2,0        // vbroadcastss  0x23ac5(%rip),%ymm2        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,21,9,59,2,0          // vbroadcastss  0x23b09(%rip),%ymm2        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,228,87,219                      // vxorps        %ymm3,%ymm3,%ymm3
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
@@ -16778,46 +23904,46 @@
 _sk_dither_avx:
   .byte  197,121,110,194                     // vmovd         %edx,%xmm8
   .byte  196,65,121,112,192,0                // vpshufd       $0x0,%xmm8,%xmm8
-  .byte  197,57,254,13,101,60,2,0            // vpaddd        0x23c65(%rip),%xmm8,%xmm9        # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
-  .byte  197,57,254,5,109,60,2,0             // vpaddd        0x23c6d(%rip),%xmm8,%xmm8        # 2b460 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+  .byte  197,57,254,13,169,60,2,0            // vpaddd        0x23ca9(%rip),%xmm8,%xmm9        # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+  .byte  197,57,254,5,177,60,2,0             // vpaddd        0x23cb1(%rip),%xmm8,%xmm8        # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
   .byte  196,67,53,24,208,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm10
   .byte  197,121,110,217                     // vmovd         %ecx,%xmm11
   .byte  196,65,121,112,219,0                // vpshufd       $0x0,%xmm11,%xmm11
   .byte  196,67,37,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm11,%ymm11
   .byte  196,65,36,87,218                    // vxorps        %ymm10,%ymm11,%ymm11
-  .byte  196,98,125,24,21,117,58,2,0         // vbroadcastss  0x23a75(%rip),%ymm10        # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+  .byte  196,98,125,24,21,185,58,2,0         // vbroadcastss  0x23ab9(%rip),%ymm10        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
   .byte  196,65,36,84,210                    // vandps        %ymm10,%ymm11,%ymm10
   .byte  196,193,25,114,242,5                // vpslld        $0x5,%xmm10,%xmm12
   .byte  196,67,125,25,210,1                 // vextractf128  $0x1,%ymm10,%xmm10
   .byte  196,193,41,114,242,5                // vpslld        $0x5,%xmm10,%xmm10
   .byte  196,67,29,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm12,%ymm10
-  .byte  197,123,18,37,36,68,2,0             // vmovddup      0x24424(%rip),%xmm12        # 2bc60 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
+  .byte  197,123,18,37,104,68,2,0            // vmovddup      0x24468(%rip),%xmm12        # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
   .byte  196,65,49,219,236                   // vpand         %xmm12,%xmm9,%xmm13
   .byte  196,193,17,114,245,4                // vpslld        $0x4,%xmm13,%xmm13
   .byte  196,65,57,219,228                   // vpand         %xmm12,%xmm8,%xmm12
   .byte  196,193,25,114,244,4                // vpslld        $0x4,%xmm12,%xmm12
   .byte  196,67,21,24,228,1                  // vinsertf128   $0x1,%xmm12,%ymm13,%ymm12
-  .byte  196,98,125,24,45,51,58,2,0          // vbroadcastss  0x23a33(%rip),%ymm13        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,98,125,24,45,119,58,2,0         // vbroadcastss  0x23a77(%rip),%ymm13        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  196,65,36,84,237                    // vandps        %ymm13,%ymm11,%ymm13
   .byte  196,193,9,114,245,2                 // vpslld        $0x2,%xmm13,%xmm14
   .byte  196,67,125,25,237,1                 // vextractf128  $0x1,%ymm13,%xmm13
   .byte  196,193,17,114,245,2                // vpslld        $0x2,%xmm13,%xmm13
   .byte  196,67,13,24,237,1                  // vinsertf128   $0x1,%xmm13,%ymm14,%ymm13
-  .byte  197,123,18,53,226,67,2,0            // vmovddup      0x243e2(%rip),%xmm14        # 2bc68 <_sk_srcover_rgba_8888_sse2_lowp+0x1228>
+  .byte  197,123,18,53,38,68,2,0             // vmovddup      0x24426(%rip),%xmm14        # 332e8 <_sk_srcover_rgba_8888_sse2_lowp+0x126c>
   .byte  196,65,49,219,254                   // vpand         %xmm14,%xmm9,%xmm15
   .byte  196,65,1,254,255                    // vpaddd        %xmm15,%xmm15,%xmm15
   .byte  196,65,57,219,246                   // vpand         %xmm14,%xmm8,%xmm14
   .byte  196,65,9,254,246                    // vpaddd        %xmm14,%xmm14,%xmm14
   .byte  196,67,5,24,246,1                   // vinsertf128   $0x1,%xmm14,%ymm15,%ymm14
   .byte  196,65,12,86,228                    // vorps         %ymm12,%ymm14,%ymm12
-  .byte  196,98,125,24,53,226,57,2,0         // vbroadcastss  0x239e2(%rip),%ymm14        # 2b290 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+  .byte  196,98,125,24,53,38,58,2,0          // vbroadcastss  0x23a26(%rip),%ymm14        # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
   .byte  196,65,36,84,222                    // vandps        %ymm14,%ymm11,%ymm11
   .byte  196,193,9,114,211,1                 // vpsrld        $0x1,%xmm11,%xmm14
   .byte  196,67,125,25,219,1                 // vextractf128  $0x1,%ymm11,%xmm11
   .byte  196,193,33,114,211,1                // vpsrld        $0x1,%xmm11,%xmm11
   .byte  196,67,13,24,219,1                  // vinsertf128   $0x1,%xmm11,%ymm14,%ymm11
   .byte  196,65,20,86,219                    // vorps         %ymm11,%ymm13,%ymm11
-  .byte  197,123,18,45,152,67,2,0            // vmovddup      0x24398(%rip),%xmm13        # 2bc70 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
+  .byte  197,123,18,45,220,67,2,0            // vmovddup      0x243dc(%rip),%xmm13        # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
   .byte  196,65,49,219,205                   // vpand         %xmm13,%xmm9,%xmm9
   .byte  196,65,57,219,197                   // vpand         %xmm13,%xmm8,%xmm8
   .byte  196,193,49,114,209,2                // vpsrld        $0x2,%xmm9,%xmm9
@@ -16828,9 +23954,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  196,65,60,86,195                    // vorps         %ymm11,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,133,57,2,0         // vbroadcastss  0x23985(%rip),%ymm9        # 2b298 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+  .byte  196,98,125,24,13,201,57,2,0         // vbroadcastss  0x239c9(%rip),%ymm9        # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
-  .byte  196,98,125,24,13,123,57,2,0         // vbroadcastss  0x2397b(%rip),%ymm9        # 2b29c <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+  .byte  196,98,125,24,13,191,57,2,0         // vbroadcastss  0x239bf(%rip),%ymm9        # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
   .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  196,98,125,24,8                     // vbroadcastss  (%rax),%ymm9
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
@@ -16864,7 +23990,7 @@
 FUNCTION(_sk_black_color_avx)
 _sk_black_color_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,3,57,2,0          // vbroadcastss  0x23903(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,71,57,2,0         // vbroadcastss  0x23947(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -16875,7 +24001,7 @@
 FUNCTION(_sk_white_color_avx)
 _sk_white_color_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,234,56,2,0         // vbroadcastss  0x238ea(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,46,57,2,0          // vbroadcastss  0x2392e(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
@@ -16921,7 +24047,7 @@
 FUNCTION(_sk_srcatop_avx)
 _sk_srcatop_avx:
   .byte  197,252,89,199                      // vmulps        %ymm7,%ymm0,%ymm0
-  .byte  196,98,125,24,5,137,56,2,0          // vbroadcastss  0x23889(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,205,56,2,0          // vbroadcastss  0x238cd(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,204                       // vmulps        %ymm4,%ymm8,%ymm9
   .byte  197,180,88,192                      // vaddps        %ymm0,%ymm9,%ymm0
@@ -16942,7 +24068,7 @@
 FUNCTION(_sk_dstatop_avx)
 _sk_dstatop_avx:
   .byte  197,100,89,196                      // vmulps        %ymm4,%ymm3,%ymm8
-  .byte  196,98,125,24,13,71,56,2,0          // vbroadcastss  0x23847(%rip),%ymm9        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,13,139,56,2,0         // vbroadcastss  0x2388b(%rip),%ymm9        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,52,92,207                       // vsubps        %ymm7,%ymm9,%ymm9
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,188,88,192                      // vaddps        %ymm0,%ymm8,%ymm0
@@ -16984,7 +24110,7 @@
 .globl _sk_srcout_avx
 FUNCTION(_sk_srcout_avx)
 _sk_srcout_avx:
-  .byte  196,98,125,24,5,226,55,2,0          // vbroadcastss  0x237e2(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,38,56,2,0           // vbroadcastss  0x23826(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -16997,7 +24123,7 @@
 .globl _sk_dstout_avx
 FUNCTION(_sk_dstout_avx)
 _sk_dstout_avx:
-  .byte  196,226,125,24,5,193,55,2,0         // vbroadcastss  0x237c1(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,5,56,2,0           // vbroadcastss  0x23805(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,92,219                      // vsubps        %ymm3,%ymm0,%ymm3
   .byte  197,228,89,196                      // vmulps        %ymm4,%ymm3,%ymm0
   .byte  197,228,89,205                      // vmulps        %ymm5,%ymm3,%ymm1
@@ -17010,7 +24136,7 @@
 .globl _sk_srcover_avx
 FUNCTION(_sk_srcover_avx)
 _sk_srcover_avx:
-  .byte  196,98,125,24,5,160,55,2,0          // vbroadcastss  0x237a0(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,228,55,2,0          // vbroadcastss  0x237e4(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,204                       // vmulps        %ymm4,%ymm8,%ymm9
   .byte  197,180,88,192                      // vaddps        %ymm0,%ymm9,%ymm0
@@ -17027,7 +24153,7 @@
 .globl _sk_dstover_avx
 FUNCTION(_sk_dstover_avx)
 _sk_dstover_avx:
-  .byte  196,98,125,24,5,111,55,2,0          // vbroadcastss  0x2376f(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,179,55,2,0          // vbroadcastss  0x237b3(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,199                       // vsubps        %ymm7,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
@@ -17055,7 +24181,7 @@
 .globl _sk_multiply_avx
 FUNCTION(_sk_multiply_avx)
 _sk_multiply_avx:
-  .byte  196,98,125,24,5,42,55,2,0           // vbroadcastss  0x2372a(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,110,55,2,0          // vbroadcastss  0x2376e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,208                       // vmulps        %ymm0,%ymm9,%ymm10
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17086,7 +24212,7 @@
 FUNCTION(_sk_plus__avx)
 _sk_plus__avx:
   .byte  197,252,88,196                      // vaddps        %ymm4,%ymm0,%ymm0
-  .byte  196,98,125,24,5,185,54,2,0          // vbroadcastss  0x236b9(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,253,54,2,0          // vbroadcastss  0x236fd(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  197,244,88,205                      // vaddps        %ymm5,%ymm1,%ymm1
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
@@ -17120,7 +24246,7 @@
 .globl _sk_xor__avx
 FUNCTION(_sk_xor__avx)
 _sk_xor__avx:
-  .byte  196,98,125,24,5,88,54,2,0           // vbroadcastss  0x23658(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,156,54,2,0          // vbroadcastss  0x2369c(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,180,89,192                      // vmulps        %ymm0,%ymm9,%ymm0
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17157,7 +24283,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,95,209                  // vmaxps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,212,53,2,0          // vbroadcastss  0x235d4(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,24,54,2,0           // vbroadcastss  0x23618(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -17183,7 +24309,7 @@
   .byte  197,100,89,206                      // vmulps        %ymm6,%ymm3,%ymm9
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,124,53,2,0          // vbroadcastss  0x2357c(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,192,53,2,0          // vbroadcastss  0x235c0(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -17212,7 +24338,7 @@
   .byte  196,193,108,93,209                  // vminps        %ymm9,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,24,53,2,0           // vbroadcastss  0x23518(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,92,53,2,0           // vbroadcastss  0x2355c(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -17235,7 +24361,7 @@
   .byte  197,236,89,214                      // vmulps        %ymm6,%ymm2,%ymm2
   .byte  197,236,88,210                      // vaddps        %ymm2,%ymm2,%ymm2
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
-  .byte  196,98,125,24,5,207,52,2,0          // vbroadcastss  0x234cf(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,19,53,2,0           // vbroadcastss  0x23513(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
   .byte  197,60,89,199                       // vmulps        %ymm7,%ymm8,%ymm8
   .byte  197,188,88,219                      // vaddps        %ymm3,%ymm8,%ymm3
@@ -17246,7 +24372,7 @@
 .globl _sk_colorburn_avx
 FUNCTION(_sk_colorburn_avx)
 _sk_colorburn_avx:
-  .byte  196,98,125,24,5,182,52,2,0          // vbroadcastss  0x234b6(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,250,52,2,0          // vbroadcastss  0x234fa(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,52,89,216                       // vmulps        %ymm0,%ymm9,%ymm11
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
@@ -17308,7 +24434,7 @@
 FUNCTION(_sk_colordodge_avx)
 _sk_colordodge_avx:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
-  .byte  196,98,125,24,13,186,51,2,0         // vbroadcastss  0x233ba(%rip),%ymm9        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,13,254,51,2,0         // vbroadcastss  0x233fe(%rip),%ymm9        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,52,92,215                       // vsubps        %ymm7,%ymm9,%ymm10
   .byte  197,44,89,216                       // vmulps        %ymm0,%ymm10,%ymm11
   .byte  197,52,92,203                       // vsubps        %ymm3,%ymm9,%ymm9
@@ -17365,7 +24491,7 @@
 .globl _sk_hardlight_avx
 FUNCTION(_sk_hardlight_avx)
 _sk_hardlight_avx:
-  .byte  196,98,125,24,5,197,50,2,0          // vbroadcastss  0x232c5(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,9,51,2,0            // vbroadcastss  0x23309(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,200                       // vmulps        %ymm0,%ymm10,%ymm9
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17420,7 +24546,7 @@
 .globl _sk_overlay_avx
 FUNCTION(_sk_overlay_avx)
 _sk_overlay_avx:
-  .byte  196,98,125,24,5,234,49,2,0          // vbroadcastss  0x231ea(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,46,50,2,0           // vbroadcastss  0x2322e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,215                       // vsubps        %ymm7,%ymm8,%ymm10
   .byte  197,44,89,200                       // vmulps        %ymm0,%ymm10,%ymm9
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17486,10 +24612,10 @@
   .byte  196,65,60,88,192                    // vaddps        %ymm8,%ymm8,%ymm8
   .byte  196,65,60,89,216                    // vmulps        %ymm8,%ymm8,%ymm11
   .byte  196,65,60,88,195                    // vaddps        %ymm11,%ymm8,%ymm8
-  .byte  196,98,125,24,29,241,48,2,0         // vbroadcastss  0x230f1(%rip),%ymm11        # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+  .byte  196,98,125,24,29,53,49,2,0          // vbroadcastss  0x23135(%rip),%ymm11        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
   .byte  196,65,28,88,235                    // vaddps        %ymm11,%ymm12,%ymm13
   .byte  196,65,20,89,192                    // vmulps        %ymm8,%ymm13,%ymm8
-  .byte  196,98,125,24,45,226,48,2,0         // vbroadcastss  0x230e2(%rip),%ymm13        # 2b2a4 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+  .byte  196,98,125,24,45,38,49,2,0          // vbroadcastss  0x23126(%rip),%ymm13        # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
   .byte  196,65,28,89,245                    // vmulps        %ymm13,%ymm12,%ymm14
   .byte  196,65,12,88,192                    // vaddps        %ymm8,%ymm14,%ymm8
   .byte  196,65,124,82,244                   // vrsqrtps      %ymm12,%ymm14
@@ -17500,7 +24626,7 @@
   .byte  197,4,194,255,2                     // vcmpleps      %ymm7,%ymm15,%ymm15
   .byte  196,67,13,74,240,240                // vblendvps     %ymm15,%ymm8,%ymm14,%ymm14
   .byte  197,116,88,249                      // vaddps        %ymm1,%ymm1,%ymm15
-  .byte  196,98,125,24,5,140,48,2,0          // vbroadcastss  0x2308c(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,208,48,2,0          // vbroadcastss  0x230d0(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,65,60,92,228                    // vsubps        %ymm12,%ymm8,%ymm12
   .byte  197,132,92,195                      // vsubps        %ymm3,%ymm15,%ymm0
   .byte  196,65,124,89,228                   // vmulps        %ymm12,%ymm0,%ymm12
@@ -17627,12 +24753,12 @@
   .byte  196,65,28,89,219                    // vmulps        %ymm11,%ymm12,%ymm11
   .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
   .byte  196,67,37,74,224,240                // vblendvps     %ymm15,%ymm8,%ymm11,%ymm12
-  .byte  196,98,125,24,53,111,46,2,0         // vbroadcastss  0x22e6f(%rip),%ymm14        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,53,179,46,2,0         // vbroadcastss  0x22eb3(%rip),%ymm14        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,92,89,222                    // vmulps        %ymm14,%ymm4,%ymm11
-  .byte  196,98,125,24,61,101,46,2,0         // vbroadcastss  0x22e65(%rip),%ymm15        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,61,169,46,2,0         // vbroadcastss  0x22ea9(%rip),%ymm15        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,239                    // vmulps        %ymm15,%ymm5,%ymm13
   .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
-  .byte  196,226,125,24,5,86,46,2,0          // vbroadcastss  0x22e56(%rip),%ymm0        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,226,125,24,5,154,46,2,0         // vbroadcastss  0x22e9a(%rip),%ymm0        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  197,76,89,232                       // vmulps        %ymm0,%ymm6,%ymm13
   .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
   .byte  196,65,52,89,238                    // vmulps        %ymm14,%ymm9,%ymm13
@@ -17693,7 +24819,7 @@
   .byte  196,65,36,95,208                    // vmaxps        %ymm8,%ymm11,%ymm10
   .byte  196,195,109,74,209,240              // vblendvps     %ymm15,%ymm9,%ymm2,%ymm2
   .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,3,45,2,0            // vbroadcastss  0x22d03(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,71,45,2,0           // vbroadcastss  0x22d47(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17750,12 +24876,12 @@
   .byte  196,65,28,89,219                    // vmulps        %ymm11,%ymm12,%ymm11
   .byte  196,65,36,94,222                    // vdivps        %ymm14,%ymm11,%ymm11
   .byte  196,67,37,74,224,240                // vblendvps     %ymm15,%ymm8,%ymm11,%ymm12
-  .byte  196,98,125,24,53,45,44,2,0          // vbroadcastss  0x22c2d(%rip),%ymm14        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,53,113,44,2,0         // vbroadcastss  0x22c71(%rip),%ymm14        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,92,89,222                    // vmulps        %ymm14,%ymm4,%ymm11
-  .byte  196,98,125,24,61,35,44,2,0          // vbroadcastss  0x22c23(%rip),%ymm15        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,61,103,44,2,0         // vbroadcastss  0x22c67(%rip),%ymm15        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,239                    // vmulps        %ymm15,%ymm5,%ymm13
   .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
-  .byte  196,226,125,24,5,20,44,2,0          // vbroadcastss  0x22c14(%rip),%ymm0        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,226,125,24,5,88,44,2,0          // vbroadcastss  0x22c58(%rip),%ymm0        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  197,76,89,232                       // vmulps        %ymm0,%ymm6,%ymm13
   .byte  196,65,36,88,221                    // vaddps        %ymm13,%ymm11,%ymm11
   .byte  196,65,52,89,238                    // vmulps        %ymm14,%ymm9,%ymm13
@@ -17816,7 +24942,7 @@
   .byte  196,65,36,95,208                    // vmaxps        %ymm8,%ymm11,%ymm10
   .byte  196,195,109,74,209,240              // vblendvps     %ymm15,%ymm9,%ymm2,%ymm2
   .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,193,42,2,0          // vbroadcastss  0x22ac1(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,5,43,2,0            // vbroadcastss  0x22b05(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,207                       // vsubps        %ymm7,%ymm8,%ymm9
   .byte  197,180,89,201                      // vmulps        %ymm1,%ymm9,%ymm1
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
@@ -17845,12 +24971,12 @@
   .byte  197,252,17,68,36,168                // vmovups       %ymm0,-0x58(%rsp)
   .byte  197,124,89,199                      // vmulps        %ymm7,%ymm0,%ymm8
   .byte  197,116,89,207                      // vmulps        %ymm7,%ymm1,%ymm9
-  .byte  196,98,125,24,45,115,42,2,0         // vbroadcastss  0x22a73(%rip),%ymm13        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,45,183,42,2,0         // vbroadcastss  0x22ab7(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,92,89,213                    // vmulps        %ymm13,%ymm4,%ymm10
-  .byte  196,98,125,24,53,105,42,2,0         // vbroadcastss  0x22a69(%rip),%ymm14        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,53,173,42,2,0         // vbroadcastss  0x22aad(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,84,89,222                    // vmulps        %ymm14,%ymm5,%ymm11
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,24,61,90,42,2,0          // vbroadcastss  0x22a5a(%rip),%ymm15        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,98,125,24,61,158,42,2,0         // vbroadcastss  0x22a9e(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,65,76,89,223                    // vmulps        %ymm15,%ymm6,%ymm11
   .byte  196,193,44,88,195                   // vaddps        %ymm11,%ymm10,%ymm0
   .byte  196,65,60,89,221                    // vmulps        %ymm13,%ymm8,%ymm11
@@ -17913,7 +25039,7 @@
   .byte  196,65,44,95,207                    // vmaxps        %ymm15,%ymm10,%ymm9
   .byte  196,195,37,74,192,0                 // vblendvps     %ymm0,%ymm8,%ymm11,%ymm0
   .byte  196,65,124,95,199                   // vmaxps        %ymm15,%ymm0,%ymm8
-  .byte  196,226,125,24,5,245,40,2,0         // vbroadcastss  0x228f5(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,57,41,2,0          // vbroadcastss  0x22939(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,124,92,215                      // vsubps        %ymm7,%ymm0,%ymm10
   .byte  197,172,89,84,36,168                // vmulps        -0x58(%rsp),%ymm10,%ymm2
   .byte  197,124,92,219                      // vsubps        %ymm3,%ymm0,%ymm11
@@ -17943,12 +25069,12 @@
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  197,100,89,196                      // vmulps        %ymm4,%ymm3,%ymm8
   .byte  197,100,89,205                      // vmulps        %ymm5,%ymm3,%ymm9
-  .byte  196,98,125,24,45,163,40,2,0         // vbroadcastss  0x228a3(%rip),%ymm13        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,45,231,40,2,0         // vbroadcastss  0x228e7(%rip),%ymm13        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,108,89,213                   // vmulps        %ymm13,%ymm2,%ymm10
-  .byte  196,98,125,24,53,153,40,2,0         // vbroadcastss  0x22899(%rip),%ymm14        # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+  .byte  196,98,125,24,53,221,40,2,0         // vbroadcastss  0x228dd(%rip),%ymm14        # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
   .byte  196,65,116,89,222                   // vmulps        %ymm14,%ymm1,%ymm11
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,24,61,138,40,2,0         // vbroadcastss  0x2288a(%rip),%ymm15        # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+  .byte  196,98,125,24,61,206,40,2,0         // vbroadcastss  0x228ce(%rip),%ymm15        # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
   .byte  196,65,28,89,223                    // vmulps        %ymm15,%ymm12,%ymm11
   .byte  196,193,44,88,195                   // vaddps        %ymm11,%ymm10,%ymm0
   .byte  196,65,60,89,221                    // vmulps        %ymm13,%ymm8,%ymm11
@@ -18011,7 +25137,7 @@
   .byte  196,65,44,95,207                    // vmaxps        %ymm15,%ymm10,%ymm9
   .byte  196,195,37,74,192,0                 // vblendvps     %ymm0,%ymm8,%ymm11,%ymm0
   .byte  196,65,124,95,199                   // vmaxps        %ymm15,%ymm0,%ymm8
-  .byte  196,226,125,24,5,37,39,2,0          // vbroadcastss  0x22725(%rip),%ymm0        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,5,105,39,2,0         // vbroadcastss  0x22769(%rip),%ymm0        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,124,92,215                      // vsubps        %ymm7,%ymm0,%ymm10
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  197,124,92,219                      // vsubps        %ymm3,%ymm0,%ymm11
@@ -18043,9 +25169,9 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,42,1,0,0                     // jne           8cf8 <_sk_srcover_rgba_8888_avx+0x14a>
+  .byte  15,133,42,1,0,0                     // jne           10334 <_sk_srcover_rgba_8888_avx+0x14a>
   .byte  196,1,125,16,4,152                  // vmovupd       (%r8,%r11,4),%ymm8
-  .byte  197,125,40,13,132,36,2,0            // vmovapd       0x22484(%rip),%ymm9        # 2b060 <_sk_srcover_rgba_8888_sse2_lowp+0x620>
+  .byte  197,125,40,13,200,36,2,0            // vmovapd       0x224c8(%rip),%ymm9        # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
   .byte  196,193,61,84,225                   // vandpd        %ymm9,%ymm8,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
   .byte  196,193,81,114,208,8                // vpsrld        $0x8,%xmm8,%xmm5
@@ -18063,9 +25189,9 @@
   .byte  197,193,114,215,24                  // vpsrld        $0x18,%xmm7,%xmm7
   .byte  196,227,61,24,255,1                 // vinsertf128   $0x1,%xmm7,%ymm8,%ymm7
   .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
-  .byte  196,98,125,24,5,75,38,2,0           // vbroadcastss  0x2264b(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,143,38,2,0          // vbroadcastss  0x2268f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,195                       // vsubps        %ymm3,%ymm8,%ymm8
-  .byte  196,98,125,24,13,106,38,2,0         // vbroadcastss  0x2266a(%rip),%ymm9        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,13,174,38,2,0         // vbroadcastss  0x226ae(%rip),%ymm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,60,89,212                       // vmulps        %ymm4,%ymm8,%ymm10
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
@@ -18098,7 +25224,7 @@
   .byte  196,65,53,86,202                    // vorpd         %ymm10,%ymm9,%ymm9
   .byte  196,65,61,86,193                    // vorpd         %ymm9,%ymm8,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,66                              // jne           8d30 <_sk_srcover_rgba_8888_avx+0x182>
+  .byte  117,66                              // jne           1036c <_sk_srcover_rgba_8888_avx+0x182>
   .byte  196,1,124,17,4,152                  // vmovups       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -18107,33 +25233,33 @@
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,195,254,255,255              // ja            8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+  .byte  15,135,195,254,255,255              // ja            10210 <_sk_srcover_rgba_8888_avx+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,4,1,0,0                   // lea           0x104(%rip),%r10        # 8e20 <_sk_srcover_rgba_8888_avx+0x272>
+  .byte  76,141,21,4,1,0,0                   // lea           0x104(%rip),%r10        # 1045c <_sk_srcover_rgba_8888_avx+0x272>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,122,16,4,152                  // vmovss        (%r8,%r11,4),%xmm8
-  .byte  233,164,254,255,255                 // jmpq          8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+  .byte  233,164,254,255,255                 // jmpq          10210 <_sk_srcover_rgba_8888_avx+0x26>
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,180                             // ja            8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+  .byte  119,180                             // ja            10330 <_sk_srcover_rgba_8888_avx+0x146>
   .byte  65,15,182,193                       // movzbl        %r9b,%eax
-  .byte  76,141,13,241,0,0,0                 // lea           0xf1(%rip),%r9        # 8e3c <_sk_srcover_rgba_8888_avx+0x28e>
+  .byte  76,141,13,241,0,0,0                 // lea           0xf1(%rip),%r9        # 10478 <_sk_srcover_rgba_8888_avx+0x28e>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,152                             // jmp           8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+  .byte  235,152                             // jmp           10330 <_sk_srcover_rgba_8888_avx+0x146>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
   .byte  196,99,85,12,196,4                  // vblendps      $0x4,%ymm4,%ymm5,%ymm8
   .byte  196,129,123,16,36,152               // vmovsd        (%r8,%r11,4),%xmm4
   .byte  196,99,61,13,196,1                  // vblendpd      $0x1,%ymm4,%ymm8,%ymm8
-  .byte  233,81,254,255,255                  // jmpq          8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+  .byte  233,81,254,255,255                  // jmpq          10210 <_sk_srcover_rgba_8888_avx+0x26>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  196,227,125,24,228,1                // vinsertf128   $0x1,%xmm4,%ymm0,%ymm4
@@ -18147,10 +25273,10 @@
   .byte  196,99,61,24,196,1                  // vinsertf128   $0x1,%xmm4,%ymm8,%ymm8
   .byte  196,129,121,16,36,152               // vmovupd       (%r8,%r11,4),%xmm4
   .byte  196,67,93,13,192,12                 // vblendpd      $0xc,%ymm8,%ymm4,%ymm8
-  .byte  233,252,253,255,255                 // jmpq          8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+  .byte  233,252,253,255,255                 // jmpq          10210 <_sk_srcover_rgba_8888_avx+0x26>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  233,9,255,255,255                   // jmpq          8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+  .byte  233,9,255,255,255                   // jmpq          10330 <_sk_srcover_rgba_8888_avx+0x146>
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
@@ -18158,7 +25284,7 @@
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,1,122,17,76,152,16              // vmovss        %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,121,17,4,152                  // vmovupd       %xmm8,(%r8,%r11,4)
-  .byte  233,213,254,255,255                 // jmpq          8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+  .byte  233,213,254,255,255                 // jmpq          10330 <_sk_srcover_rgba_8888_avx+0x146>
   .byte  144                                 // nop
   .byte  5,255,255,255,82                    // add           $0x52ffffff,%eax
   .byte  255                                 // (bad)
@@ -18170,7 +25296,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,255                             // jg            8e35 <_sk_srcover_rgba_8888_avx+0x287>
+  .byte  127,255                             // jg            10471 <_sk_srcover_rgba_8888_avx+0x287>
   .byte  255                                 // (bad)
   .byte  255,99,255                          // jmpq          *-0x1(%rbx)
   .byte  255                                 // (bad)
@@ -18207,7 +25333,7 @@
 .globl _sk_clamp_1_avx
 FUNCTION(_sk_clamp_1_avx)
 _sk_clamp_1_avx:
-  .byte  196,98,125,24,5,10,36,2,0           // vbroadcastss  0x2240a(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,78,36,2,0           // vbroadcastss  0x2244e(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
@@ -18219,7 +25345,7 @@
 .globl _sk_clamp_a_avx
 FUNCTION(_sk_clamp_a_avx)
 _sk_clamp_a_avx:
-  .byte  196,98,125,24,5,233,35,2,0          // vbroadcastss  0x223e9(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,45,36,2,0           // vbroadcastss  0x2242d(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  197,252,93,195                      // vminps        %ymm3,%ymm0,%ymm0
   .byte  197,244,93,203                      // vminps        %ymm3,%ymm1,%ymm1
@@ -18231,7 +25357,7 @@
 .globl _sk_clamp_a_dst_avx
 FUNCTION(_sk_clamp_a_dst_avx)
 _sk_clamp_a_dst_avx:
-  .byte  196,98,125,24,5,203,35,2,0          // vbroadcastss  0x223cb(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,15,36,2,0           // vbroadcastss  0x2240f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,68,93,248                   // vminps        %ymm8,%ymm7,%ymm7
   .byte  197,220,93,231                      // vminps        %ymm7,%ymm4,%ymm4
   .byte  197,212,93,239                      // vminps        %ymm7,%ymm5,%ymm5
@@ -18264,7 +25390,7 @@
 .globl _sk_invert_avx
 FUNCTION(_sk_invert_avx)
 _sk_invert_avx:
-  .byte  196,98,125,24,5,134,35,2,0          // vbroadcastss  0x22386(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,202,35,2,0          // vbroadcastss  0x223ca(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,188,92,192                      // vsubps        %ymm0,%ymm8,%ymm0
   .byte  197,188,92,201                      // vsubps        %ymm1,%ymm8,%ymm1
   .byte  197,188,92,210                      // vsubps        %ymm2,%ymm8,%ymm2
@@ -18320,7 +25446,7 @@
 _sk_unpremul_avx:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,65,100,194,200,0                // vcmpeqps      %ymm8,%ymm3,%ymm9
-  .byte  196,98,125,24,21,22,35,2,0          // vbroadcastss  0x22316(%rip),%ymm10        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,21,90,35,2,0          // vbroadcastss  0x2235a(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,44,94,211                       // vdivps        %ymm3,%ymm10,%ymm10
   .byte  196,67,45,74,192,144                // vblendvps     %ymm9,%ymm8,%ymm10,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
@@ -18333,17 +25459,17 @@
 .globl _sk_from_srgb_avx
 FUNCTION(_sk_from_srgb_avx)
 _sk_from_srgb_avx:
-  .byte  196,98,125,24,5,35,35,2,0           // vbroadcastss  0x22323(%rip),%ymm8        # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+  .byte  196,98,125,24,5,103,35,2,0          // vbroadcastss  0x22367(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  197,124,89,208                      // vmulps        %ymm0,%ymm0,%ymm10
-  .byte  196,98,125,24,29,1,35,2,0           // vbroadcastss  0x22301(%rip),%ymm11        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,29,69,35,2,0          // vbroadcastss  0x22345(%rip),%ymm11        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,124,89,227                   // vmulps        %ymm11,%ymm0,%ymm12
-  .byte  196,98,125,24,45,7,35,2,0           // vbroadcastss  0x22307(%rip),%ymm13        # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+  .byte  196,98,125,24,45,75,35,2,0          // vbroadcastss  0x2234b(%rip),%ymm13        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
   .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
   .byte  196,65,44,89,212                    // vmulps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,248,34,2,0         // vbroadcastss  0x222f8(%rip),%ymm12        # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+  .byte  196,98,125,24,37,60,35,2,0          // vbroadcastss  0x2233c(%rip),%ymm12        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,53,238,34,2,0         // vbroadcastss  0x222ee(%rip),%ymm14        # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+  .byte  196,98,125,24,53,50,35,2,0          // vbroadcastss  0x22332(%rip),%ymm14        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
   .byte  196,193,124,194,198,1               // vcmpltps      %ymm14,%ymm0,%ymm0
   .byte  196,195,45,74,193,0                 // vblendvps     %ymm0,%ymm9,%ymm10,%ymm0
   .byte  196,65,116,89,200                   // vmulps        %ymm8,%ymm1,%ymm9
@@ -18369,17 +25495,17 @@
 .globl _sk_from_srgb_dst_avx
 FUNCTION(_sk_from_srgb_dst_avx)
 _sk_from_srgb_dst_avx:
-  .byte  196,98,125,24,5,119,34,2,0          // vbroadcastss  0x22277(%rip),%ymm8        # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+  .byte  196,98,125,24,5,187,34,2,0          // vbroadcastss  0x222bb(%rip),%ymm8        # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
   .byte  196,65,92,89,200                    // vmulps        %ymm8,%ymm4,%ymm9
   .byte  197,92,89,212                       // vmulps        %ymm4,%ymm4,%ymm10
-  .byte  196,98,125,24,29,85,34,2,0          // vbroadcastss  0x22255(%rip),%ymm11        # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+  .byte  196,98,125,24,29,153,34,2,0         // vbroadcastss  0x22299(%rip),%ymm11        # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
   .byte  196,65,92,89,227                    // vmulps        %ymm11,%ymm4,%ymm12
-  .byte  196,98,125,24,45,91,34,2,0          // vbroadcastss  0x2225b(%rip),%ymm13        # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+  .byte  196,98,125,24,45,159,34,2,0         // vbroadcastss  0x2229f(%rip),%ymm13        # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
   .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
   .byte  196,65,44,89,212                    // vmulps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,37,76,34,2,0          // vbroadcastss  0x2224c(%rip),%ymm12        # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+  .byte  196,98,125,24,37,144,34,2,0         // vbroadcastss  0x22290(%rip),%ymm12        # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
   .byte  196,65,44,88,212                    // vaddps        %ymm12,%ymm10,%ymm10
-  .byte  196,98,125,24,53,66,34,2,0          // vbroadcastss  0x22242(%rip),%ymm14        # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+  .byte  196,98,125,24,53,134,34,2,0         // vbroadcastss  0x22286(%rip),%ymm14        # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
   .byte  196,193,92,194,230,1                // vcmpltps      %ymm14,%ymm4,%ymm4
   .byte  196,195,45,74,225,64                // vblendvps     %ymm4,%ymm9,%ymm10,%ymm4
   .byte  196,65,84,89,200                    // vmulps        %ymm8,%ymm5,%ymm9
@@ -18406,20 +25532,20 @@
 FUNCTION(_sk_to_srgb_avx)
 _sk_to_srgb_avx:
   .byte  197,124,82,200                      // vrsqrtps      %ymm0,%ymm9
-  .byte  196,98,125,24,5,215,33,2,0          // vbroadcastss  0x221d7(%rip),%ymm8        # 2b2c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  196,98,125,24,5,27,34,2,0           // vbroadcastss  0x2221b(%rip),%ymm8        # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
   .byte  196,65,124,89,208                   // vmulps        %ymm8,%ymm0,%ymm10
-  .byte  196,98,125,24,29,209,33,2,0         // vbroadcastss  0x221d1(%rip),%ymm11        # 2b2d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+  .byte  196,98,125,24,29,21,34,2,0          // vbroadcastss  0x22215(%rip),%ymm11        # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
   .byte  196,65,52,89,227                    // vmulps        %ymm11,%ymm9,%ymm12
-  .byte  196,98,125,24,45,191,33,2,0         // vbroadcastss  0x221bf(%rip),%ymm13        # 2b2cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+  .byte  196,98,125,24,45,3,34,2,0           // vbroadcastss  0x22203(%rip),%ymm13        # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
   .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
   .byte  196,65,52,89,228                    // vmulps        %ymm12,%ymm9,%ymm12
-  .byte  196,98,125,24,53,180,33,2,0         // vbroadcastss  0x221b4(%rip),%ymm14        # 2b2d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+  .byte  196,98,125,24,53,40,35,2,0          // vbroadcastss  0x22328(%rip),%ymm14        # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
   .byte  196,65,28,88,230                    // vaddps        %ymm14,%ymm12,%ymm12
-  .byte  196,98,125,24,61,170,33,2,0         // vbroadcastss  0x221aa(%rip),%ymm15        # 2b2d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+  .byte  196,98,125,24,61,30,35,2,0          // vbroadcastss  0x2231e(%rip),%ymm15        # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
   .byte  196,65,52,88,207                    // vaddps        %ymm15,%ymm9,%ymm9
   .byte  196,65,124,83,201                   // vrcpps        %ymm9,%ymm9
   .byte  196,65,52,89,204                    // vmulps        %ymm12,%ymm9,%ymm9
-  .byte  196,98,125,24,37,150,33,2,0         // vbroadcastss  0x22196(%rip),%ymm12        # 2b2dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+  .byte  196,98,125,24,37,218,33,2,0         // vbroadcastss  0x221da(%rip),%ymm12        # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
   .byte  196,193,124,194,196,1               // vcmpltps      %ymm12,%ymm0,%ymm0
   .byte  196,195,53,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm9,%ymm0
   .byte  197,124,82,201                      // vrsqrtps      %ymm1,%ymm9
@@ -18456,7 +25582,7 @@
   .byte  197,116,93,202                      // vminps        %ymm2,%ymm1,%ymm9
   .byte  196,65,124,93,201                   // vminps        %ymm9,%ymm0,%ymm9
   .byte  196,65,60,92,209                    // vsubps        %ymm9,%ymm8,%ymm10
-  .byte  196,98,125,24,29,162,32,2,0         // vbroadcastss  0x220a2(%rip),%ymm11        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,29,230,32,2,0         // vbroadcastss  0x220e6(%rip),%ymm11        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,65,36,94,218                    // vdivps        %ymm10,%ymm11,%ymm11
   .byte  197,116,92,226                      // vsubps        %ymm2,%ymm1,%ymm12
   .byte  196,65,28,89,227                    // vmulps        %ymm11,%ymm12,%ymm12
@@ -18466,19 +25592,19 @@
   .byte  196,193,108,89,211                  // vmulps        %ymm11,%ymm2,%ymm2
   .byte  197,252,92,201                      // vsubps        %ymm1,%ymm0,%ymm1
   .byte  196,193,116,89,203                  // vmulps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,207,32,2,0         // vbroadcastss  0x220cf(%rip),%ymm11        # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+  .byte  196,98,125,24,29,19,33,2,0          // vbroadcastss  0x22113(%rip),%ymm11        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,189,32,2,0         // vbroadcastss  0x220bd(%rip),%ymm11        # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+  .byte  196,98,125,24,29,1,33,2,0           // vbroadcastss  0x22101(%rip),%ymm11        # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
   .byte  196,227,117,74,202,224              // vblendvps     %ymm14,%ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,165,32,2,0        // vbroadcastss  0x220a5(%rip),%ymm2        # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+  .byte  196,226,125,24,21,233,32,2,0        // vbroadcastss  0x220e9(%rip),%ymm2        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
   .byte  196,65,12,87,246                    // vxorps        %ymm14,%ymm14,%ymm14
   .byte  196,227,13,74,210,208               // vblendvps     %ymm13,%ymm2,%ymm14,%ymm2
   .byte  197,188,194,192,0                   // vcmpeqps      %ymm0,%ymm8,%ymm0
   .byte  196,193,108,88,212                  // vaddps        %ymm12,%ymm2,%ymm2
   .byte  196,227,117,74,194,0                // vblendvps     %ymm0,%ymm2,%ymm1,%ymm0
   .byte  196,193,60,88,201                   // vaddps        %ymm9,%ymm8,%ymm1
-  .byte  196,98,125,24,37,32,32,2,0          // vbroadcastss  0x22020(%rip),%ymm12        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,37,100,32,2,0         // vbroadcastss  0x22064(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,116,89,212                  // vmulps        %ymm12,%ymm1,%ymm2
   .byte  197,28,194,226,1                    // vcmpltps      %ymm2,%ymm12,%ymm12
   .byte  196,65,36,92,216                    // vsubps        %ymm8,%ymm11,%ymm11
@@ -18488,7 +25614,7 @@
   .byte  197,172,94,201                      // vdivps        %ymm1,%ymm10,%ymm1
   .byte  196,195,125,74,198,128              // vblendvps     %ymm8,%ymm14,%ymm0,%ymm0
   .byte  196,195,117,74,206,128              // vblendvps     %ymm8,%ymm14,%ymm1,%ymm1
-  .byte  196,98,125,24,5,79,32,2,0           // vbroadcastss  0x2204f(%rip),%ymm8        # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,5,147,32,2,0          // vbroadcastss  0x22093(%rip),%ymm8        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -18505,7 +25631,7 @@
   .byte  197,252,17,92,36,128                // vmovups       %ymm3,-0x80(%rsp)
   .byte  197,252,40,225                      // vmovaps       %ymm1,%ymm4
   .byte  197,252,40,216                      // vmovaps       %ymm0,%ymm3
-  .byte  196,98,125,24,5,172,31,2,0          // vbroadcastss  0x21fac(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,240,31,2,0          // vbroadcastss  0x21ff0(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,60,194,202,2                    // vcmpleps      %ymm2,%ymm8,%ymm9
   .byte  197,92,89,210                       // vmulps        %ymm2,%ymm4,%ymm10
   .byte  196,65,92,92,218                    // vsubps        %ymm10,%ymm4,%ymm11
@@ -18513,23 +25639,23 @@
   .byte  197,52,88,210                       // vaddps        %ymm2,%ymm9,%ymm10
   .byte  197,108,88,202                      // vaddps        %ymm2,%ymm2,%ymm9
   .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,24,29,238,31,2,0         // vbroadcastss  0x21fee(%rip),%ymm11        # 2b2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+  .byte  196,98,125,24,29,50,32,2,0          // vbroadcastss  0x22032(%rip),%ymm11        # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
   .byte  196,65,100,88,219                   // vaddps        %ymm11,%ymm3,%ymm11
   .byte  196,67,125,8,227,1                  // vroundps      $0x1,%ymm11,%ymm12
   .byte  196,65,36,92,252                    // vsubps        %ymm12,%ymm11,%ymm15
   .byte  196,65,44,92,217                    // vsubps        %ymm9,%ymm10,%ymm11
-  .byte  196,98,125,24,37,192,31,2,0         // vbroadcastss  0x21fc0(%rip),%ymm12        # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+  .byte  196,98,125,24,37,4,32,2,0           // vbroadcastss  0x22004(%rip),%ymm12        # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
   .byte  196,193,4,89,196                    // vmulps        %ymm12,%ymm15,%ymm0
-  .byte  196,98,125,24,45,186,31,2,0         // vbroadcastss  0x21fba(%rip),%ymm13        # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+  .byte  196,98,125,24,45,254,31,2,0         // vbroadcastss  0x21ffe(%rip),%ymm13        # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
   .byte  197,20,92,240                       // vsubps        %ymm0,%ymm13,%ymm14
   .byte  196,65,36,89,246                    // vmulps        %ymm14,%ymm11,%ymm14
   .byte  196,65,52,88,246                    // vaddps        %ymm14,%ymm9,%ymm14
-  .byte  196,226,125,24,13,175,31,2,0        // vbroadcastss  0x21faf(%rip),%ymm1        # 2b2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+  .byte  196,226,125,24,13,243,31,2,0        // vbroadcastss  0x21ff3(%rip),%ymm1        # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
   .byte  196,193,116,194,255,2               // vcmpleps      %ymm15,%ymm1,%ymm7
   .byte  196,195,13,74,249,112               // vblendvps     %ymm7,%ymm9,%ymm14,%ymm7
   .byte  196,65,60,194,247,2                 // vcmpleps      %ymm15,%ymm8,%ymm14
   .byte  196,227,45,74,255,224               // vblendvps     %ymm14,%ymm7,%ymm10,%ymm7
-  .byte  196,98,125,24,53,134,31,2,0         // vbroadcastss  0x21f86(%rip),%ymm14        # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+  .byte  196,98,125,24,53,202,31,2,0         // vbroadcastss  0x21fca(%rip),%ymm14        # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
   .byte  196,65,12,194,255,2                 // vcmpleps      %ymm15,%ymm14,%ymm15
   .byte  196,193,124,89,195                  // vmulps        %ymm11,%ymm0,%ymm0
   .byte  197,180,88,192                      // vaddps        %ymm0,%ymm9,%ymm0
@@ -18548,7 +25674,7 @@
   .byte  197,164,89,247                      // vmulps        %ymm7,%ymm11,%ymm6
   .byte  197,180,88,246                      // vaddps        %ymm6,%ymm9,%ymm6
   .byte  196,227,77,74,237,0                 // vblendvps     %ymm0,%ymm5,%ymm6,%ymm5
-  .byte  196,226,125,24,5,48,31,2,0          // vbroadcastss  0x21f30(%rip),%ymm0        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,226,125,24,5,116,31,2,0         // vbroadcastss  0x21f74(%rip),%ymm0        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  197,228,88,192                      // vaddps        %ymm0,%ymm3,%ymm0
   .byte  196,227,125,8,216,1                 // vroundps      $0x1,%ymm0,%ymm3
   .byte  197,252,92,195                      // vsubps        %ymm3,%ymm0,%ymm0
@@ -18602,15 +25728,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,75                              // jne           94ce <_sk_scale_u8_avx+0x63>
+  .byte  117,75                              // jne           10b0a <_sk_scale_u8_avx+0x63>
   .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
-  .byte  197,57,219,5,143,31,2,0             // vpand         0x21f8f(%rip),%xmm8,%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,57,219,5,211,31,2,0             // vpand         0x21fd3(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,66,121,51,200                   // vpmovzxwd     %xmm8,%xmm9
   .byte  196,65,121,112,192,78               // vpshufd       $0x4e,%xmm8,%xmm8
   .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,71,30,2,0          // vbroadcastss  0x21e47(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,139,30,2,0         // vbroadcastss  0x21e8b(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  197,188,89,201                      // vmulps        %ymm1,%ymm8,%ymm1
@@ -18623,15 +25749,15 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,166                             // ja            9489 <_sk_scale_u8_avx+0x1e>
+  .byte  119,166                             // ja            10ac5 <_sk_scale_u8_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 9568 <_sk_scale_u8_avx+0xfd>
+  .byte  76,141,21,122,0,0,0                 // lea           0x7a(%rip),%r10        # 10ba4 <_sk_scale_u8_avx+0xfd>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  235,135                             // jmp           9489 <_sk_scale_u8_avx+0x1e>
+  .byte  235,135                             // jmp           10ac5 <_sk_scale_u8_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
@@ -18639,7 +25765,7 @@
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,57,14,193,3                  // vpblendw      $0x3,%xmm9,%xmm8,%xmm8
-  .byte  233,94,255,255,255                  // jmpq          9489 <_sk_scale_u8_avx+0x1e>
+  .byte  233,94,255,255,255                  // jmpq          10ac5 <_sk_scale_u8_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
@@ -18650,7 +25776,7 @@
   .byte  196,1,121,110,12,24                 // vmovd         (%r8,%r11,1),%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,49,14,192,240                // vpblendw      $0xf0,%xmm8,%xmm9,%xmm8
-  .byte  233,34,255,255,255                  // jmpq          9489 <_sk_scale_u8_avx+0x1e>
+  .byte  233,34,255,255,255                  // jmpq          10ac5 <_sk_scale_u8_avx+0x1e>
   .byte  144                                 // nop
   .byte  143                                 // (bad)
   .byte  255                                 // (bad)
@@ -18659,7 +25785,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf009578 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeb38>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf010bb4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeb38>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -18682,26 +25808,26 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,178,0,0,0                    // jne           9655 <_sk_scale_565_avx+0xd1>
+  .byte  15,133,178,0,0,0                    // jne           10c91 <_sk_scale_565_avx+0xd1>
   .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
   .byte  196,66,121,51,200                   // vpmovzxwd     %xmm8,%xmm9
   .byte  196,65,121,112,192,78               // vpshufd       $0x4e,%xmm8,%xmm8
   .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
-  .byte  196,98,125,24,13,56,29,2,0          // vbroadcastss  0x21d38(%rip),%ymm9        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,13,124,29,2,0         // vbroadcastss  0x21d7c(%rip),%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  196,65,60,84,201                    // vandps        %ymm9,%ymm8,%ymm9
   .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
-  .byte  196,98,125,24,21,41,29,2,0          // vbroadcastss  0x21d29(%rip),%ymm10        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,98,125,24,21,109,29,2,0         // vbroadcastss  0x21d6d(%rip),%ymm10        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,24,21,31,29,2,0          // vbroadcastss  0x21d1f(%rip),%ymm10        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,98,125,24,21,99,29,2,0          // vbroadcastss  0x21d63(%rip),%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  196,65,60,84,210                    // vandps        %ymm10,%ymm8,%ymm10
   .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
-  .byte  196,98,125,24,29,16,29,2,0          // vbroadcastss  0x21d10(%rip),%ymm11        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,98,125,24,29,84,29,2,0          // vbroadcastss  0x21d54(%rip),%ymm11        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,24,29,6,29,2,0           // vbroadcastss  0x21d06(%rip),%ymm11        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,24,29,74,29,2,0          // vbroadcastss  0x21d4a(%rip),%ymm11        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  196,65,60,84,195                    // vandps        %ymm11,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,29,247,28,2,0         // vbroadcastss  0x21cf7(%rip),%ymm11        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,98,125,24,29,59,29,2,0          // vbroadcastss  0x21d3b(%rip),%ymm11        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  197,100,194,223,1                   // vcmpltps      %ymm7,%ymm3,%ymm11
   .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
@@ -18720,27 +25846,27 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,59,255,255,255               // ja            95a9 <_sk_scale_565_avx+0x25>
+  .byte  15,135,59,255,255,255               // ja            10be5 <_sk_scale_565_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # 96dc <_sk_scale_565_avx+0x158>
+  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # 10d18 <_sk_scale_565_avx+0x158>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,25,255,255,255                  // jmpq          95a9 <_sk_scale_565_avx+0x25>
+  .byte  233,25,255,255,255                  // jmpq          10be5 <_sk_scale_565_avx+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,121,110,12,88                 // vmovd         (%r8,%r11,2),%xmm9
   .byte  196,67,57,14,193,3                  // vpblendw      $0x3,%xmm9,%xmm8,%xmm8
-  .byte  233,251,254,255,255                 // jmpq          95a9 <_sk_scale_565_avx+0x25>
+  .byte  233,251,254,255,255                 // jmpq          10be5 <_sk_scale_565_avx+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,122,126,12,88                 // vmovq         (%r8,%r11,2),%xmm9
   .byte  196,67,49,14,192,240                // vpblendw      $0xf0,%xmm8,%xmm9,%xmm8
-  .byte  233,205,254,255,255                 // jmpq          95a9 <_sk_scale_565_avx+0x25>
+  .byte  233,205,254,255,255                 // jmpq          10be5 <_sk_scale_565_avx+0x25>
   .byte  166                                 // cmpsb         %es:(%rdi),%ds:(%rsi)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -18792,15 +25918,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,111                             // jne           97be <_sk_lerp_u8_avx+0x87>
+  .byte  117,111                             // jne           10dfa <_sk_lerp_u8_avx+0x87>
   .byte  196,2,121,48,4,24                   // vpmovzxbw     (%r8,%r11,1),%xmm8
-  .byte  197,57,219,5,195,28,2,0             // vpand         0x21cc3(%rip),%xmm8,%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,57,219,5,7,29,2,0               // vpand         0x21d07(%rip),%xmm8,%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,66,121,51,200                   // vpmovzxwd     %xmm8,%xmm9
   .byte  196,65,121,112,192,78               // vpshufd       $0x4e,%xmm8,%xmm8
   .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,13,123,27,2,0         // vbroadcastss  0x21b7b(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,191,27,2,0         // vbroadcastss  0x21bbf(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,252,92,196                      // vsubps        %ymm4,%ymm0,%ymm0
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
@@ -18821,15 +25947,15 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,130                             // ja            9755 <_sk_lerp_u8_avx+0x1e>
+  .byte  119,130                             // ja            10d91 <_sk_lerp_u8_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,126,0,0,0                 // lea           0x7e(%rip),%r10        # 985c <_sk_lerp_u8_avx+0x125>
+  .byte  76,141,21,126,0,0,0                 // lea           0x7e(%rip),%r10        # 10e98 <_sk_lerp_u8_avx+0x125>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,96,255,255,255                  // jmpq          9755 <_sk_lerp_u8_avx+0x1e>
+  .byte  233,96,255,255,255                  // jmpq          10d91 <_sk_lerp_u8_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,2                    // vpinsrw       $0x2,%eax,%xmm8,%xmm8
@@ -18837,7 +25963,7 @@
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,57,14,193,3                  // vpblendw      $0x3,%xmm9,%xmm8,%xmm8
-  .byte  233,55,255,255,255                  // jmpq          9755 <_sk_lerp_u8_avx+0x1e>
+  .byte  233,55,255,255,255                  // jmpq          10d91 <_sk_lerp_u8_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  197,57,196,192,6                    // vpinsrw       $0x6,%eax,%xmm8,%xmm8
@@ -18848,7 +25974,7 @@
   .byte  196,1,121,110,12,24                 // vmovd         (%r8,%r11,1),%xmm9
   .byte  196,66,121,48,201                   // vpmovzxbw     %xmm9,%xmm9
   .byte  196,67,49,14,192,240                // vpblendw      $0xf0,%xmm8,%xmm9,%xmm8
-  .byte  233,251,254,255,255                 // jmpq          9755 <_sk_lerp_u8_avx+0x1e>
+  .byte  233,251,254,255,255                 // jmpq          10d91 <_sk_lerp_u8_avx+0x1e>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  139,255                             // mov           %edi,%edi
   .byte  255                                 // (bad)
@@ -18856,7 +25982,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,221                 // callq         ffffffffde00986c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdee2c>
+  .byte  232,255,255,255,221                 // callq         ffffffffde010ea8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdee2c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,210                             // callq         *%rdx
@@ -18879,26 +26005,26 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,214,0,0,0                    // jne           996d <_sk_lerp_565_avx+0xf5>
+  .byte  15,133,214,0,0,0                    // jne           10fa9 <_sk_lerp_565_avx+0xf5>
   .byte  196,1,122,111,4,88                  // vmovdqu       (%r8,%r11,2),%xmm8
   .byte  196,66,121,51,200                   // vpmovzxwd     %xmm8,%xmm9
   .byte  196,65,121,112,192,78               // vpshufd       $0x4e,%xmm8,%xmm8
   .byte  196,66,121,51,192                   // vpmovzxwd     %xmm8,%xmm8
   .byte  196,67,53,24,192,1                  // vinsertf128   $0x1,%xmm8,%ymm9,%ymm8
-  .byte  196,98,125,24,13,68,26,2,0          // vbroadcastss  0x21a44(%rip),%ymm9        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,98,125,24,13,136,26,2,0         // vbroadcastss  0x21a88(%rip),%ymm9        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  196,65,60,84,201                    // vandps        %ymm9,%ymm8,%ymm9
   .byte  196,65,124,91,201                   // vcvtdq2ps     %ymm9,%ymm9
-  .byte  196,98,125,24,21,53,26,2,0          // vbroadcastss  0x21a35(%rip),%ymm10        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,98,125,24,21,121,26,2,0         // vbroadcastss  0x21a79(%rip),%ymm10        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,24,21,43,26,2,0          // vbroadcastss  0x21a2b(%rip),%ymm10        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,98,125,24,21,111,26,2,0         // vbroadcastss  0x21a6f(%rip),%ymm10        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  196,65,60,84,210                    // vandps        %ymm10,%ymm8,%ymm10
   .byte  196,65,124,91,210                   // vcvtdq2ps     %ymm10,%ymm10
-  .byte  196,98,125,24,29,28,26,2,0          // vbroadcastss  0x21a1c(%rip),%ymm11        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,98,125,24,29,96,26,2,0          // vbroadcastss  0x21a60(%rip),%ymm11        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,24,29,18,26,2,0          // vbroadcastss  0x21a12(%rip),%ymm11        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,98,125,24,29,86,26,2,0          // vbroadcastss  0x21a56(%rip),%ymm11        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  196,65,60,84,195                    // vandps        %ymm11,%ymm8,%ymm8
   .byte  196,65,124,91,192                   // vcvtdq2ps     %ymm8,%ymm8
-  .byte  196,98,125,24,29,3,26,2,0           // vbroadcastss  0x21a03(%rip),%ymm11        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,98,125,24,29,71,26,2,0          // vbroadcastss  0x21a47(%rip),%ymm11        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  197,100,194,223,1                   // vcmpltps      %ymm7,%ymm3,%ymm11
   .byte  196,65,44,93,224                    // vminps        %ymm8,%ymm10,%ymm12
@@ -18925,27 +26051,27 @@
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,23,255,255,255               // ja            989d <_sk_lerp_565_avx+0x25>
+  .byte  15,135,23,255,255,255               // ja            10ed9 <_sk_lerp_565_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # 99f4 <_sk_lerp_565_avx+0x17c>
+  .byte  76,141,21,99,0,0,0                  // lea           0x63(%rip),%r10        # 11030 <_sk_lerp_565_avx+0x17c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,245,254,255,255                 // jmpq          989d <_sk_lerp_565_avx+0x25>
+  .byte  233,245,254,255,255                 // jmpq          10ed9 <_sk_lerp_565_avx+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,4,2              // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,121,110,12,88                 // vmovd         (%r8,%r11,2),%xmm9
   .byte  196,67,57,14,193,3                  // vpblendw      $0x3,%xmm9,%xmm8,%xmm8
-  .byte  233,215,254,255,255                 // jmpq          989d <_sk_lerp_565_avx+0x25>
+  .byte  233,215,254,255,255                 // jmpq          10ed9 <_sk_lerp_565_avx+0x25>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,1,57,196,68,88,12,6             // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,10,5             // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,57,196,68,88,8,4              // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
   .byte  196,1,122,126,12,88                 // vmovq         (%r8,%r11,2),%xmm9
   .byte  196,67,49,14,192,240                // vpblendw      $0xf0,%xmm8,%xmm9,%xmm8
-  .byte  233,169,254,255,255                 // jmpq          989d <_sk_lerp_565_avx+0x25>
+  .byte  233,169,254,255,255                 // jmpq          10ed9 <_sk_lerp_565_avx+0x25>
   .byte  166                                 // cmpsb         %es:(%rdi),%ds:(%rsi)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -18973,9 +26099,9 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,4,2,0,0                      // jne           9c28 <_sk_load_tables_avx+0x218>
+  .byte  15,133,4,2,0,0                      // jne           11264 <_sk_load_tables_avx+0x218>
   .byte  196,65,125,16,20,144                // vmovupd       (%r8,%rdx,4),%ymm10
-  .byte  197,125,40,13,78,22,2,0             // vmovapd       0x2164e(%rip),%ymm9        # 2b080 <_sk_srcover_rgba_8888_sse2_lowp+0x640>
+  .byte  197,125,40,13,146,22,2,0            // vmovapd       0x21692(%rip),%ymm9        # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
   .byte  196,193,45,84,201                   // vandpd        %ymm9,%ymm10,%ymm1
   .byte  196,227,125,25,200,1                // vextractf128  $0x1,%ymm1,%xmm0
   .byte  196,193,249,126,192                 // vmovq         %xmm0,%r8
@@ -19067,7 +26193,7 @@
   .byte  196,193,65,114,213,24               // vpsrld        $0x18,%xmm13,%xmm7
   .byte  196,227,101,24,223,1                // vinsertf128   $0x1,%xmm7,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,226,125,24,61,226,22,2,0        // vbroadcastss  0x216e2(%rip),%ymm7        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,61,38,23,2,0         // vbroadcastss  0x21726(%rip),%ymm7        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,228,89,223                      // vmulps        %ymm7,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,16,124,36,200               // vmovups       -0x38(%rsp),%ymm7
@@ -19077,21 +26203,21 @@
   .byte  196,65,44,87,210                    // vxorps        %ymm10,%ymm10,%ymm10
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,233,253,255,255              // ja            9a2a <_sk_load_tables_avx+0x1a>
+  .byte  15,135,233,253,255,255              // ja            11066 <_sk_load_tables_avx+0x1a>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,148,0,0,0                 // lea           0x94(%rip),%r10        # 9ce0 <_sk_load_tables_avx+0x2d0>
+  .byte  76,141,21,148,0,0,0                 // lea           0x94(%rip),%r10        # 1131c <_sk_load_tables_avx+0x2d0>
   .byte  79,99,12,138                        // movslq        (%r10,%r9,4),%r9
   .byte  77,1,209                            // add           %r10,%r9
   .byte  65,255,225                          // jmpq          *%r9
   .byte  196,65,122,16,20,144                // vmovss        (%r8,%rdx,4),%xmm10
-  .byte  233,201,253,255,255                 // jmpq          9a2a <_sk_load_tables_avx+0x1a>
+  .byte  233,201,253,255,255                 // jmpq          11066 <_sk_load_tables_avx+0x1a>
   .byte  196,193,121,110,68,144,8            // vmovd         0x8(%r8,%rdx,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  196,99,117,12,208,4                 // vblendps      $0x4,%ymm0,%ymm1,%ymm10
   .byte  196,193,123,16,4,144                // vmovsd        (%r8,%rdx,4),%xmm0
   .byte  196,99,45,13,208,1                  // vblendpd      $0x1,%ymm0,%ymm10,%ymm10
-  .byte  233,162,253,255,255                 // jmpq          9a2a <_sk_load_tables_avx+0x1a>
+  .byte  233,162,253,255,255                 // jmpq          11066 <_sk_load_tables_avx+0x1a>
   .byte  196,193,121,110,68,144,24           // vmovd         0x18(%r8,%rdx,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
@@ -19105,9 +26231,9 @@
   .byte  196,99,45,24,208,1                  // vinsertf128   $0x1,%xmm0,%ymm10,%ymm10
   .byte  196,193,121,16,4,144                // vmovupd       (%r8,%rdx,4),%xmm0
   .byte  196,67,125,13,210,12                // vblendpd      $0xc,%ymm10,%ymm0,%ymm10
-  .byte  233,77,253,255,255                  // jmpq          9a2a <_sk_load_tables_avx+0x1a>
+  .byte  233,77,253,255,255                  // jmpq          11066 <_sk_load_tables_avx+0x1a>
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  118,255                             // jbe           9ce1 <_sk_load_tables_avx+0x2d1>
+  .byte  118,255                             // jbe           1131d <_sk_load_tables_avx+0x2d1>
   .byte  255                                 // (bad)
   .byte  255,151,255,255,255,129             // callq         *-0x7e000001(%rdi)
   .byte  255                                 // (bad)
@@ -19137,7 +26263,7 @@
   .byte  72,133,255                          // test          %rdi,%rdi
   .byte  197,252,17,124,36,200               // vmovups       %ymm7,-0x38(%rsp)
   .byte  197,252,17,116,36,168               // vmovups       %ymm6,-0x58(%rsp)
-  .byte  15,133,75,2,0,0                     // jne           9f69 <_sk_load_tables_u16_be_avx+0x26d>
+  .byte  15,133,75,2,0,0                     // jne           115a5 <_sk_load_tables_u16_be_avx+0x26d>
   .byte  196,1,121,16,4,72                   // vmovupd       (%r8,%r9,2),%xmm8
   .byte  196,129,121,16,84,72,16             // vmovupd       0x10(%r8,%r9,2),%xmm2
   .byte  196,129,121,16,92,72,32             // vmovupd       0x20(%r8,%r9,2),%xmm3
@@ -19153,7 +26279,7 @@
   .byte  197,177,108,208                     // vpunpcklqdq   %xmm0,%xmm9,%xmm2
   .byte  197,49,109,232                      // vpunpckhqdq   %xmm0,%xmm9,%xmm13
   .byte  196,65,57,108,212                   // vpunpcklqdq   %xmm12,%xmm8,%xmm10
-  .byte  197,121,111,29,176,22,2,0           // vmovdqa       0x216b0(%rip),%xmm11        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,121,111,29,244,22,2,0           // vmovdqa       0x216f4(%rip),%xmm11        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,193,105,219,195                 // vpand         %xmm11,%xmm2,%xmm0
   .byte  197,249,112,208,78                  // vpshufd       $0x4e,%xmm0,%xmm2
   .byte  196,226,121,51,210                  // vpmovzxwd     %xmm2,%xmm2
@@ -19247,7 +26373,7 @@
   .byte  196,226,121,51,219                  // vpmovzxwd     %xmm3,%xmm3
   .byte  196,227,77,24,219,1                 // vinsertf128   $0x1,%xmm3,%ymm6,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,226,125,24,53,195,19,2,0        // vbroadcastss  0x213c3(%rip),%ymm6        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,226,125,24,53,7,20,2,0          // vbroadcastss  0x21407(%rip),%ymm6        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  197,228,89,222                      // vmulps        %ymm6,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,16,116,36,168               // vmovups       -0x58(%rsp),%ymm6
@@ -19256,29 +26382,29 @@
   .byte  196,1,123,16,4,72                   // vmovsd        (%r8,%r9,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            9fcf <_sk_load_tables_u16_be_avx+0x2d3>
+  .byte  116,85                              // je            1160b <_sk_load_tables_u16_be_avx+0x2d3>
   .byte  196,1,57,22,68,72,8                 // vmovhpd       0x8(%r8,%r9,2),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            9fcf <_sk_load_tables_u16_be_avx+0x2d3>
+  .byte  114,72                              // jb            1160b <_sk_load_tables_u16_be_avx+0x2d3>
   .byte  196,129,123,16,84,72,16             // vmovsd        0x10(%r8,%r9,2),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            9fdc <_sk_load_tables_u16_be_avx+0x2e0>
+  .byte  116,72                              // je            11618 <_sk_load_tables_u16_be_avx+0x2e0>
   .byte  196,129,105,22,84,72,24             // vmovhpd       0x18(%r8,%r9,2),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            9fdc <_sk_load_tables_u16_be_avx+0x2e0>
+  .byte  114,59                              // jb            11618 <_sk_load_tables_u16_be_avx+0x2e0>
   .byte  196,129,123,16,92,72,32             // vmovsd        0x20(%r8,%r9,2),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,135,253,255,255              // je            9d39 <_sk_load_tables_u16_be_avx+0x3d>
+  .byte  15,132,135,253,255,255              // je            11375 <_sk_load_tables_u16_be_avx+0x3d>
   .byte  196,129,97,22,92,72,40              // vmovhpd       0x28(%r8,%r9,2),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,118,253,255,255              // jb            9d39 <_sk_load_tables_u16_be_avx+0x3d>
+  .byte  15,130,118,253,255,255              // jb            11375 <_sk_load_tables_u16_be_avx+0x3d>
   .byte  196,1,122,126,76,72,48              // vmovq         0x30(%r8,%r9,2),%xmm9
-  .byte  233,106,253,255,255                 // jmpq          9d39 <_sk_load_tables_u16_be_avx+0x3d>
+  .byte  233,106,253,255,255                 // jmpq          11375 <_sk_load_tables_u16_be_avx+0x3d>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,93,253,255,255                  // jmpq          9d39 <_sk_load_tables_u16_be_avx+0x3d>
+  .byte  233,93,253,255,255                  // jmpq          11375 <_sk_load_tables_u16_be_avx+0x3d>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,84,253,255,255                  // jmpq          9d39 <_sk_load_tables_u16_be_avx+0x3d>
+  .byte  233,84,253,255,255                  // jmpq          11375 <_sk_load_tables_u16_be_avx+0x3d>
 
 HIDDEN _sk_load_tables_rgb_u16_be_avx
 .globl _sk_load_tables_rgb_u16_be_avx
@@ -19290,7 +26416,7 @@
   .byte  72,133,255                          // test          %rdi,%rdi
   .byte  197,252,17,124,36,200               // vmovups       %ymm7,-0x38(%rsp)
   .byte  197,252,17,116,36,168               // vmovups       %ymm6,-0x58(%rsp)
-  .byte  15,133,54,2,0,0                     // jne           a239 <_sk_load_tables_rgb_u16_be_avx+0x254>
+  .byte  15,133,54,2,0,0                     // jne           11875 <_sk_load_tables_rgb_u16_be_avx+0x254>
   .byte  196,1,122,111,28,72                 // vmovdqu       (%r8,%r9,2),%xmm11
   .byte  196,129,122,111,92,72,12            // vmovdqu       0xc(%r8,%r9,2),%xmm3
   .byte  196,129,122,111,84,72,24            // vmovdqu       0x18(%r8,%r9,2),%xmm2
@@ -19311,7 +26437,7 @@
   .byte  197,105,108,216                     // vpunpcklqdq   %xmm0,%xmm2,%xmm11
   .byte  197,241,108,211                     // vpunpcklqdq   %xmm3,%xmm1,%xmm2
   .byte  197,241,109,203                     // vpunpckhqdq   %xmm3,%xmm1,%xmm1
-  .byte  197,121,111,53,176,19,2,0           // vmovdqa       0x213b0(%rip),%xmm14        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,121,111,53,244,19,2,0           // vmovdqa       0x213f4(%rip),%xmm14        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,193,105,219,214                 // vpand         %xmm14,%xmm2,%xmm2
   .byte  197,249,112,218,78                  // vpshufd       $0x4e,%xmm2,%xmm3
   .byte  196,226,121,51,219                  // vpmovzxwd     %xmm3,%xmm3
@@ -19397,7 +26523,7 @@
   .byte  196,227,105,33,215,48               // vinsertps     $0x30,%xmm7,%xmm2,%xmm2
   .byte  196,227,77,24,210,1                 // vinsertf128   $0x1,%xmm2,%ymm6,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,93,16,2,0         // vbroadcastss  0x2105d(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,161,16,2,0        // vbroadcastss  0x210a1(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,16,116,36,168               // vmovups       -0x58(%rsp),%ymm6
   .byte  197,252,16,124,36,200               // vmovups       -0x38(%rsp),%ymm7
   .byte  255,224                             // jmpq          *%rax
@@ -19405,70 +26531,70 @@
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,92,72,4,2             // vpinsrw       $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,31                              // jne           a271 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+  .byte  117,31                              // jne           118ad <_sk_load_tables_rgb_u16_be_avx+0x28c>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
-  .byte  233,199,253,255,255                 // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,199,253,255,255                 // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  196,129,121,110,68,72,6             // vmovd         0x6(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,68,72,10,2            // vpinsrw       $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,48                              // jb            a2bb <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+  .byte  114,48                              // jb            118f7 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
   .byte  196,129,121,110,68,72,12            // vmovd         0xc(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,92,72,16,2          // vpinsrw       $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  117,48                              // jne           a2d5 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+  .byte  117,48                              // jne           11911 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
-  .byte  233,125,253,255,255                 // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,125,253,255,255                 // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
-  .byte  233,99,253,255,255                  // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,99,253,255,255                  // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  196,129,121,110,68,72,18            // vmovd         0x12(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,1,121,196,84,72,22,2            // vpinsrw       $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,39                              // jb            a316 <_sk_load_tables_rgb_u16_be_avx+0x331>
+  .byte  114,39                              // jb            11952 <_sk_load_tables_rgb_u16_be_avx+0x331>
   .byte  196,129,121,110,68,72,24            // vmovd         0x18(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,84,72,28,2          // vpinsrw       $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  117,30                              // jne           a327 <_sk_load_tables_rgb_u16_be_avx+0x342>
+  .byte  117,30                              // jne           11963 <_sk_load_tables_rgb_u16_be_avx+0x342>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
-  .byte  233,34,253,255,255                  // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,34,253,255,255                  // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
-  .byte  233,17,253,255,255                  // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,17,253,255,255                  // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  196,129,121,110,68,72,30            // vmovd         0x1e(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,76,72,34,2          // vpinsrw       $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,25                              // jb            a35a <_sk_load_tables_rgb_u16_be_avx+0x375>
+  .byte  114,25                              // jb            11996 <_sk_load_tables_rgb_u16_be_avx+0x375>
   .byte  196,129,121,110,68,72,36            // vmovd         0x24(%r8,%r9,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,129,121,196,68,72,40,2          // vpinsrw       $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
-  .byte  233,222,252,255,255                 // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,222,252,255,255                 // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  233,213,252,255,255                 // jmpq          a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+  .byte  233,213,252,255,255                 // jmpq          11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
 
 HIDDEN _sk_byte_tables_avx
 .globl _sk_byte_tables_avx
 FUNCTION(_sk_byte_tables_avx)
 _sk_byte_tables_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,70,15,2,0           // vbroadcastss  0x20f46(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,138,15,2,0          // vbroadcastss  0x20f8a(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  197,125,91,200                      // vcvtps2dq     %ymm0,%ymm9
   .byte  196,65,249,126,200                  // vmovq         %xmm9,%r8
@@ -19603,7 +26729,7 @@
   .byte  196,194,121,49,204                  // vpmovzxbd     %xmm12,%xmm1
   .byte  196,194,121,49,213                  // vpmovzxbd     %xmm13,%xmm2
   .byte  196,227,117,24,202,1                // vinsertf128   $0x1,%xmm2,%ymm1,%ymm1
-  .byte  196,98,125,24,13,254,12,2,0         // vbroadcastss  0x20cfe(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,66,13,2,0          // vbroadcastss  0x20d42(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
   .byte  196,193,116,89,201                  // vmulps        %ymm9,%ymm1,%ymm1
@@ -19731,7 +26857,7 @@
   .byte  196,194,121,49,203                  // vpmovzxbd     %xmm11,%xmm1
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,13,179,10,2,0         // vbroadcastss  0x20ab3(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,247,10,2,0         // vbroadcastss  0x20af7(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  196,194,121,49,202                  // vpmovzxbd     %xmm10,%xmm1
   .byte  196,194,121,49,212                  // vpmovzxbd     %xmm12,%xmm2
@@ -19968,36 +27094,36 @@
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,216                      // vcvtdq2ps     %ymm0,%ymm11
-  .byte  196,98,125,24,37,68,7,2,0           // vbroadcastss  0x20744(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,98,125,24,37,136,7,2,0          // vbroadcastss  0x20788(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,58,7,2,0           // vbroadcastss  0x2073a(%rip),%ymm12        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,126,7,2,0          // vbroadcastss  0x2077e(%rip),%ymm12        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,193,124,84,196                  // vandps        %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,144,6,2,0          // vbroadcastss  0x20690(%rip),%ymm12        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,37,212,6,2,0          // vbroadcastss  0x206d4(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,124,86,196                  // vorps         %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,34,7,2,0           // vbroadcastss  0x20722(%rip),%ymm12        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,37,102,7,2,0          // vbroadcastss  0x20766(%rip),%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,24,7,2,0           // vbroadcastss  0x20718(%rip),%ymm12        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,37,92,7,2,0           // vbroadcastss  0x2075c(%rip),%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,65,124,89,228                   // vmulps        %ymm12,%ymm0,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,9,7,2,0            // vbroadcastss  0x20709(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,77,7,2,0           // vbroadcastss  0x2074d(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,193,124,88,196                  // vaddps        %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,37,255,6,2,0          // vbroadcastss  0x206ff(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,67,7,2,0           // vbroadcastss  0x20743(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  197,156,94,192                      // vdivps        %ymm0,%ymm12,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
   .byte  197,172,89,192                      // vmulps        %ymm0,%ymm10,%ymm0
   .byte  196,99,125,8,208,1                  // vroundps      $0x1,%ymm0,%ymm10
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,227,6,2,0          // vbroadcastss  0x206e3(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,39,7,2,0           // vbroadcastss  0x20727(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,124,88,195                  // vaddps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,217,6,2,0          // vbroadcastss  0x206d9(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,29,7,2,0           // vbroadcastss  0x2071d(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,124,92,195                  // vsubps        %ymm11,%ymm0,%ymm0
-  .byte  196,98,125,24,29,202,6,2,0          // vbroadcastss  0x206ca(%rip),%ymm11        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,14,7,2,0           // vbroadcastss  0x2070e(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,192,6,2,0          // vbroadcastss  0x206c0(%rip),%ymm11        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,29,4,7,2,0            // vbroadcastss  0x20704(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,124,88,194                  // vaddps        %ymm10,%ymm0,%ymm0
-  .byte  196,98,125,24,21,177,6,2,0          // vbroadcastss  0x206b1(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,245,6,2,0          // vbroadcastss  0x206f5(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,124,89,194                  // vmulps        %ymm10,%ymm0,%ymm0
   .byte  197,253,91,192                      // vcvtps2dq     %ymm0,%ymm0
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -20005,7 +27131,7 @@
   .byte  196,195,125,74,193,128              // vblendvps     %ymm8,%ymm9,%ymm0,%ymm0
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,124,95,192                  // vmaxps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,5,201,5,2,0           // vbroadcastss  0x205c9(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,13,6,2,0            // vbroadcastss  0x2060d(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20027,36 +27153,36 @@
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,217                      // vcvtdq2ps     %ymm1,%ymm11
-  .byte  196,98,125,24,37,10,6,2,0           // vbroadcastss  0x2060a(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,98,125,24,37,78,6,2,0           // vbroadcastss  0x2064e(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,0,6,2,0            // vbroadcastss  0x20600(%rip),%ymm12        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,68,6,2,0           // vbroadcastss  0x20644(%rip),%ymm12        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,193,116,84,204                  // vandps        %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,86,5,2,0           // vbroadcastss  0x20556(%rip),%ymm12        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,37,154,5,2,0          // vbroadcastss  0x2059a(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,116,86,204                  // vorps         %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,232,5,2,0          // vbroadcastss  0x205e8(%rip),%ymm12        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,37,44,6,2,0           // vbroadcastss  0x2062c(%rip),%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,222,5,2,0          // vbroadcastss  0x205de(%rip),%ymm12        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,37,34,6,2,0           // vbroadcastss  0x20622(%rip),%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,65,116,89,228                   // vmulps        %ymm12,%ymm1,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,207,5,2,0          // vbroadcastss  0x205cf(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,19,6,2,0           // vbroadcastss  0x20613(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,193,116,88,204                  // vaddps        %ymm12,%ymm1,%ymm1
-  .byte  196,98,125,24,37,197,5,2,0          // vbroadcastss  0x205c5(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,9,6,2,0            // vbroadcastss  0x20609(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  197,156,94,201                      // vdivps        %ymm1,%ymm12,%ymm1
   .byte  197,164,92,201                      // vsubps        %ymm1,%ymm11,%ymm1
   .byte  197,172,89,201                      // vmulps        %ymm1,%ymm10,%ymm1
   .byte  196,99,125,8,209,1                  // vroundps      $0x1,%ymm1,%ymm10
   .byte  196,65,116,92,210                   // vsubps        %ymm10,%ymm1,%ymm10
-  .byte  196,98,125,24,29,169,5,2,0          // vbroadcastss  0x205a9(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,237,5,2,0          // vbroadcastss  0x205ed(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,159,5,2,0          // vbroadcastss  0x2059f(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,227,5,2,0          // vbroadcastss  0x205e3(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,116,92,203                  // vsubps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,29,144,5,2,0          // vbroadcastss  0x20590(%rip),%ymm11        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,212,5,2,0          // vbroadcastss  0x205d4(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,134,5,2,0          // vbroadcastss  0x20586(%rip),%ymm11        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,29,202,5,2,0          // vbroadcastss  0x205ca(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
-  .byte  196,98,125,24,21,119,5,2,0          // vbroadcastss  0x20577(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,187,5,2,0          // vbroadcastss  0x205bb(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,116,89,202                  // vmulps        %ymm10,%ymm1,%ymm1
   .byte  197,253,91,201                      // vcvtps2dq     %ymm1,%ymm1
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -20064,7 +27190,7 @@
   .byte  196,195,117,74,201,128              // vblendvps     %ymm8,%ymm9,%ymm1,%ymm1
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,116,95,200                  // vmaxps        %ymm8,%ymm1,%ymm1
-  .byte  196,98,125,24,5,143,4,2,0           // vbroadcastss  0x2048f(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,211,4,2,0           // vbroadcastss  0x204d3(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,116,93,200                  // vminps        %ymm8,%ymm1,%ymm1
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20086,36 +27212,36 @@
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,218                      // vcvtdq2ps     %ymm2,%ymm11
-  .byte  196,98,125,24,37,208,4,2,0          // vbroadcastss  0x204d0(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,98,125,24,37,20,5,2,0           // vbroadcastss  0x20514(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,198,4,2,0          // vbroadcastss  0x204c6(%rip),%ymm12        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,10,5,2,0           // vbroadcastss  0x2050a(%rip),%ymm12        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,193,108,84,212                  // vandps        %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,28,4,2,0           // vbroadcastss  0x2041c(%rip),%ymm12        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,37,96,4,2,0           // vbroadcastss  0x20460(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,108,86,212                  // vorps         %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,174,4,2,0          // vbroadcastss  0x204ae(%rip),%ymm12        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,37,242,4,2,0          // vbroadcastss  0x204f2(%rip),%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,164,4,2,0          // vbroadcastss  0x204a4(%rip),%ymm12        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,37,232,4,2,0          // vbroadcastss  0x204e8(%rip),%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,65,108,89,228                   // vmulps        %ymm12,%ymm2,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,149,4,2,0          // vbroadcastss  0x20495(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,217,4,2,0          // vbroadcastss  0x204d9(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,193,108,88,212                  // vaddps        %ymm12,%ymm2,%ymm2
-  .byte  196,98,125,24,37,139,4,2,0          // vbroadcastss  0x2048b(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,207,4,2,0          // vbroadcastss  0x204cf(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  197,156,94,210                      // vdivps        %ymm2,%ymm12,%ymm2
   .byte  197,164,92,210                      // vsubps        %ymm2,%ymm11,%ymm2
   .byte  197,172,89,210                      // vmulps        %ymm2,%ymm10,%ymm2
   .byte  196,99,125,8,210,1                  // vroundps      $0x1,%ymm2,%ymm10
   .byte  196,65,108,92,210                   // vsubps        %ymm10,%ymm2,%ymm10
-  .byte  196,98,125,24,29,111,4,2,0          // vbroadcastss  0x2046f(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,179,4,2,0          // vbroadcastss  0x204b3(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,101,4,2,0          // vbroadcastss  0x20465(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,169,4,2,0          // vbroadcastss  0x204a9(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,108,92,211                  // vsubps        %ymm11,%ymm2,%ymm2
-  .byte  196,98,125,24,29,86,4,2,0           // vbroadcastss  0x20456(%rip),%ymm11        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,154,4,2,0          // vbroadcastss  0x2049a(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,76,4,2,0           // vbroadcastss  0x2044c(%rip),%ymm11        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,29,144,4,2,0          // vbroadcastss  0x20490(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,108,88,210                  // vaddps        %ymm10,%ymm2,%ymm2
-  .byte  196,98,125,24,21,61,4,2,0           // vbroadcastss  0x2043d(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,129,4,2,0          // vbroadcastss  0x20481(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,108,89,210                  // vmulps        %ymm10,%ymm2,%ymm2
   .byte  197,253,91,210                      // vcvtps2dq     %ymm2,%ymm2
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -20123,7 +27249,7 @@
   .byte  196,195,109,74,209,128              // vblendvps     %ymm8,%ymm9,%ymm2,%ymm2
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,108,95,208                  // vmaxps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,85,3,2,0            // vbroadcastss  0x20355(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,153,3,2,0           // vbroadcastss  0x20399(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,108,93,208                  // vminps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20145,36 +27271,36 @@
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
   .byte  196,98,125,24,16                    // vbroadcastss  (%rax),%ymm10
   .byte  197,124,91,219                      // vcvtdq2ps     %ymm3,%ymm11
-  .byte  196,98,125,24,37,150,3,2,0          // vbroadcastss  0x20396(%rip),%ymm12        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,98,125,24,37,218,3,2,0          // vbroadcastss  0x203da(%rip),%ymm12        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,140,3,2,0          // vbroadcastss  0x2038c(%rip),%ymm12        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,37,208,3,2,0          // vbroadcastss  0x203d0(%rip),%ymm12        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,193,100,84,220                  // vandps        %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,226,2,2,0          // vbroadcastss  0x202e2(%rip),%ymm12        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,37,38,3,2,0           // vbroadcastss  0x20326(%rip),%ymm12        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,100,86,220                  // vorps         %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,116,3,2,0          // vbroadcastss  0x20374(%rip),%ymm12        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,37,184,3,2,0          // vbroadcastss  0x203b8(%rip),%ymm12        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,65,36,88,220                    // vaddps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,106,3,2,0          // vbroadcastss  0x2036a(%rip),%ymm12        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,37,174,3,2,0          // vbroadcastss  0x203ae(%rip),%ymm12        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,65,100,89,228                   // vmulps        %ymm12,%ymm3,%ymm12
   .byte  196,65,36,92,220                    // vsubps        %ymm12,%ymm11,%ymm11
-  .byte  196,98,125,24,37,91,3,2,0           // vbroadcastss  0x2035b(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,159,3,2,0          // vbroadcastss  0x2039f(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,193,100,88,220                  // vaddps        %ymm12,%ymm3,%ymm3
-  .byte  196,98,125,24,37,81,3,2,0           // vbroadcastss  0x20351(%rip),%ymm12        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,37,149,3,2,0          // vbroadcastss  0x20395(%rip),%ymm12        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  197,156,94,219                      // vdivps        %ymm3,%ymm12,%ymm3
   .byte  197,164,92,219                      // vsubps        %ymm3,%ymm11,%ymm3
   .byte  197,172,89,219                      // vmulps        %ymm3,%ymm10,%ymm3
   .byte  196,99,125,8,211,1                  // vroundps      $0x1,%ymm3,%ymm10
   .byte  196,65,100,92,210                   // vsubps        %ymm10,%ymm3,%ymm10
-  .byte  196,98,125,24,29,53,3,2,0           // vbroadcastss  0x20335(%rip),%ymm11        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,29,121,3,2,0          // vbroadcastss  0x20379(%rip),%ymm11        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,100,88,219                  // vaddps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,43,3,2,0           // vbroadcastss  0x2032b(%rip),%ymm11        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,98,125,24,29,111,3,2,0          // vbroadcastss  0x2036f(%rip),%ymm11        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  196,65,44,89,219                    // vmulps        %ymm11,%ymm10,%ymm11
   .byte  196,193,100,92,219                  // vsubps        %ymm11,%ymm3,%ymm3
-  .byte  196,98,125,24,29,28,3,2,0           // vbroadcastss  0x2031c(%rip),%ymm11        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,98,125,24,29,96,3,2,0           // vbroadcastss  0x20360(%rip),%ymm11        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  196,65,36,92,210                    // vsubps        %ymm10,%ymm11,%ymm10
-  .byte  196,98,125,24,29,18,3,2,0           // vbroadcastss  0x20312(%rip),%ymm11        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,98,125,24,29,86,3,2,0           // vbroadcastss  0x20356(%rip),%ymm11        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  196,65,36,94,210                    // vdivps        %ymm10,%ymm11,%ymm10
   .byte  196,193,100,88,218                  // vaddps        %ymm10,%ymm3,%ymm3
-  .byte  196,98,125,24,21,3,3,2,0            // vbroadcastss  0x20303(%rip),%ymm10        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,98,125,24,21,71,3,2,0           // vbroadcastss  0x20347(%rip),%ymm10        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  196,193,100,89,218                  // vmulps        %ymm10,%ymm3,%ymm3
   .byte  197,253,91,219                      // vcvtps2dq     %ymm3,%ymm3
   .byte  196,98,125,24,80,20                 // vbroadcastss  0x14(%rax),%ymm10
@@ -20182,7 +27308,7 @@
   .byte  196,195,101,74,217,128              // vblendvps     %ymm8,%ymm9,%ymm3,%ymm3
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  196,193,100,95,216                  // vmaxps        %ymm8,%ymm3,%ymm3
-  .byte  196,98,125,24,5,27,2,2,0            // vbroadcastss  0x2021b(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,95,2,2,0            // vbroadcastss  0x2025f(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,100,93,216                  // vminps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20201,34 +27327,34 @@
   .byte  197,252,40,233                      // vmovaps       %ymm1,%ymm5
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,91,200                      // vcvtdq2ps     %ymm0,%ymm1
-  .byte  196,98,125,24,5,110,2,2,0           // vbroadcastss  0x2026e(%rip),%ymm8        # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+  .byte  196,98,125,24,5,178,2,2,0           // vbroadcastss  0x202b2(%rip),%ymm8        # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,98,125,24,13,100,2,2,0          // vbroadcastss  0x20264(%rip),%ymm9        # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+  .byte  196,98,125,24,13,168,2,2,0          // vbroadcastss  0x202a8(%rip),%ymm9        # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
   .byte  196,193,124,84,193                  // vandps        %ymm9,%ymm0,%ymm0
-  .byte  196,226,125,24,37,186,1,2,0         // vbroadcastss  0x201ba(%rip),%ymm4        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,37,254,1,2,0         // vbroadcastss  0x201fe(%rip),%ymm4        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,252,86,196                      // vorps         %ymm4,%ymm0,%ymm0
-  .byte  196,98,125,24,21,77,2,2,0           // vbroadcastss  0x2024d(%rip),%ymm10        # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+  .byte  196,98,125,24,21,145,2,2,0          // vbroadcastss  0x20291(%rip),%ymm10        # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
   .byte  196,193,116,88,202                  // vaddps        %ymm10,%ymm1,%ymm1
-  .byte  196,98,125,24,29,67,2,2,0           // vbroadcastss  0x20243(%rip),%ymm11        # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+  .byte  196,98,125,24,29,135,2,2,0          // vbroadcastss  0x20287(%rip),%ymm11        # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
   .byte  196,193,124,89,211                  // vmulps        %ymm11,%ymm0,%ymm2
   .byte  197,244,92,202                      // vsubps        %ymm2,%ymm1,%ymm1
-  .byte  196,98,125,24,37,53,2,2,0           // vbroadcastss  0x20235(%rip),%ymm12        # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+  .byte  196,98,125,24,37,121,2,2,0          // vbroadcastss  0x20279(%rip),%ymm12        # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
   .byte  196,193,124,88,196                  // vaddps        %ymm12,%ymm0,%ymm0
-  .byte  196,98,125,24,45,43,2,2,0           // vbroadcastss  0x2022b(%rip),%ymm13        # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+  .byte  196,98,125,24,45,111,2,2,0          // vbroadcastss  0x2026f(%rip),%ymm13        # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
   .byte  197,148,94,192                      // vdivps        %ymm0,%ymm13,%ymm0
   .byte  197,244,92,192                      // vsubps        %ymm0,%ymm1,%ymm0
   .byte  196,98,125,24,48                    // vbroadcastss  (%rax),%ymm14
   .byte  196,193,124,89,198                  // vmulps        %ymm14,%ymm0,%ymm0
   .byte  196,227,125,8,200,1                 // vroundps      $0x1,%ymm0,%ymm1
   .byte  197,252,92,241                      // vsubps        %ymm1,%ymm0,%ymm6
-  .byte  196,98,125,24,61,10,2,2,0           // vbroadcastss  0x2020a(%rip),%ymm15        # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+  .byte  196,98,125,24,61,78,2,2,0           // vbroadcastss  0x2024e(%rip),%ymm15        # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
   .byte  196,193,124,88,199                  // vaddps        %ymm15,%ymm0,%ymm0
-  .byte  196,226,125,24,29,0,2,2,0           // vbroadcastss  0x20200(%rip),%ymm3        # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+  .byte  196,226,125,24,29,68,2,2,0          // vbroadcastss  0x20244(%rip),%ymm3        # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
   .byte  197,204,89,203                      // vmulps        %ymm3,%ymm6,%ymm1
   .byte  197,252,92,201                      // vsubps        %ymm1,%ymm0,%ymm1
-  .byte  196,226,125,24,21,243,1,2,0         // vbroadcastss  0x201f3(%rip),%ymm2        # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+  .byte  196,226,125,24,21,55,2,2,0          // vbroadcastss  0x20237(%rip),%ymm2        # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
   .byte  197,236,92,198                      // vsubps        %ymm6,%ymm2,%ymm0
-  .byte  196,226,125,24,53,234,1,2,0         // vbroadcastss  0x201ea(%rip),%ymm6        # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+  .byte  196,226,125,24,53,46,2,2,0          // vbroadcastss  0x2022e(%rip),%ymm6        # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
   .byte  197,204,94,192                      // vdivps        %ymm0,%ymm6,%ymm0
   .byte  197,244,88,192                      // vaddps        %ymm0,%ymm1,%ymm0
   .byte  197,252,17,68,36,128                // vmovups       %ymm0,-0x80(%rsp)
@@ -20270,7 +27396,7 @@
   .byte  197,236,92,212                      // vsubps        %ymm4,%ymm2,%ymm2
   .byte  197,204,94,210                      // vdivps        %ymm2,%ymm6,%ymm2
   .byte  197,244,88,202                      // vaddps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,45,1,2,0          // vbroadcastss  0x2012d(%rip),%ymm2        # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+  .byte  196,226,125,24,21,113,1,2,0         // vbroadcastss  0x20171(%rip),%ymm2        # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
   .byte  197,236,89,92,36,128                // vmulps        -0x80(%rsp),%ymm2,%ymm3
   .byte  197,252,89,226                      // vmulps        %ymm2,%ymm0,%ymm4
   .byte  197,244,89,210                      // vmulps        %ymm2,%ymm1,%ymm2
@@ -20290,31 +27416,31 @@
 .globl _sk_lab_to_xyz_avx
 FUNCTION(_sk_lab_to_xyz_avx)
 _sk_lab_to_xyz_avx:
-  .byte  196,98,125,24,5,233,0,2,0           // vbroadcastss  0x200e9(%rip),%ymm8        # 2b348 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+  .byte  196,98,125,24,5,45,1,2,0            // vbroadcastss  0x2012d(%rip),%ymm8        # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,5,71,0,2,0            // vbroadcastss  0x20047(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,139,0,2,0           // vbroadcastss  0x2008b(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
-  .byte  196,98,125,24,13,209,0,2,0          // vbroadcastss  0x200d1(%rip),%ymm9        # 2b34c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+  .byte  196,98,125,24,13,21,1,2,0           // vbroadcastss  0x20115(%rip),%ymm9        # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
   .byte  196,193,116,88,201                  // vaddps        %ymm9,%ymm1,%ymm1
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  196,193,108,88,209                  // vaddps        %ymm9,%ymm2,%ymm2
-  .byte  196,98,125,24,5,189,0,2,0           // vbroadcastss  0x200bd(%rip),%ymm8        # 2b350 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+  .byte  196,98,125,24,5,1,1,2,0             // vbroadcastss  0x20101(%rip),%ymm8        # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
   .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,5,179,0,2,0           // vbroadcastss  0x200b3(%rip),%ymm8        # 2b354 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+  .byte  196,98,125,24,5,247,0,2,0           // vbroadcastss  0x200f7(%rip),%ymm8        # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,5,169,0,2,0           // vbroadcastss  0x200a9(%rip),%ymm8        # 2b358 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+  .byte  196,98,125,24,5,237,0,2,0           // vbroadcastss  0x200ed(%rip),%ymm8        # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
   .byte  196,193,116,89,200                  // vmulps        %ymm8,%ymm1,%ymm1
   .byte  197,252,88,201                      // vaddps        %ymm1,%ymm0,%ymm1
-  .byte  196,98,125,24,5,155,0,2,0           // vbroadcastss  0x2009b(%rip),%ymm8        # 2b35c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+  .byte  196,98,125,24,5,223,0,2,0           // vbroadcastss  0x200df(%rip),%ymm8        # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  197,252,92,210                      // vsubps        %ymm2,%ymm0,%ymm2
   .byte  197,116,89,193                      // vmulps        %ymm1,%ymm1,%ymm8
   .byte  196,65,116,89,192                   // vmulps        %ymm8,%ymm1,%ymm8
-  .byte  196,98,125,24,13,132,0,2,0          // vbroadcastss  0x20084(%rip),%ymm9        # 2b360 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+  .byte  196,98,125,24,13,200,0,2,0          // vbroadcastss  0x200c8(%rip),%ymm9        # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
   .byte  196,65,52,194,208,1                 // vcmpltps      %ymm8,%ymm9,%ymm10
-  .byte  196,98,125,24,29,121,0,2,0          // vbroadcastss  0x20079(%rip),%ymm11        # 2b364 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+  .byte  196,98,125,24,29,189,0,2,0          // vbroadcastss  0x200bd(%rip),%ymm11        # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
   .byte  196,193,116,88,203                  // vaddps        %ymm11,%ymm1,%ymm1
-  .byte  196,98,125,24,37,111,0,2,0          // vbroadcastss  0x2006f(%rip),%ymm12        # 2b368 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+  .byte  196,98,125,24,37,179,0,2,0          // vbroadcastss  0x200b3(%rip),%ymm12        # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
   .byte  196,193,116,89,204                  // vmulps        %ymm12,%ymm1,%ymm1
   .byte  196,67,117,74,192,160               // vblendvps     %ymm10,%ymm8,%ymm1,%ymm8
   .byte  197,252,89,200                      // vmulps        %ymm0,%ymm0,%ymm1
@@ -20329,9 +27455,9 @@
   .byte  196,193,108,88,211                  // vaddps        %ymm11,%ymm2,%ymm2
   .byte  196,193,108,89,212                  // vmulps        %ymm12,%ymm2,%ymm2
   .byte  196,227,109,74,208,144              // vblendvps     %ymm9,%ymm0,%ymm2,%ymm2
-  .byte  196,226,125,24,5,37,0,2,0           // vbroadcastss  0x20025(%rip),%ymm0        # 2b36c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+  .byte  196,226,125,24,5,105,0,2,0          // vbroadcastss  0x20069(%rip),%ymm0        # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,24,5,28,0,2,0            // vbroadcastss  0x2001c(%rip),%ymm8        # 2b370 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+  .byte  196,98,125,24,5,96,0,2,0            // vbroadcastss  0x20060(%rip),%ymm8        # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20347,15 +27473,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,68                              // jne           b3b9 <_sk_load_a8_avx+0x5c>
+  .byte  117,68                              // jne           129f5 <_sk_load_a8_avx+0x5c>
   .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
-  .byte  197,249,219,5,157,0,2,0             // vpand         0x2009d(%rip),%xmm0,%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,249,219,5,225,0,2,0             // vpand         0x200e1(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,121,51,200                  // vpmovzxwd     %xmm0,%xmm1
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,87,255,1,0        // vbroadcastss  0x1ff57(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,155,255,1,0       // vbroadcastss  0x1ff9b(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -20367,15 +27493,15 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,174                             // ja            b37b <_sk_load_a8_avx+0x1e>
+  .byte  119,174                             // ja            129b7 <_sk_load_a8_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # b450 <_sk_load_a8_avx+0xf3>
+  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # 12a8c <_sk_load_a8_avx+0xf3>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  235,143                             // jmp           b37b <_sk_load_a8_avx+0x1e>
+  .byte  235,143                             // jmp           129b7 <_sk_load_a8_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
@@ -20383,7 +27509,7 @@
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,121,14,193,3                // vpblendw      $0x3,%xmm1,%xmm0,%xmm0
-  .byte  233,103,255,255,255                 // jmpq          b37b <_sk_load_a8_avx+0x1e>
+  .byte  233,103,255,255,255                 // jmpq          129b7 <_sk_load_a8_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
@@ -20394,7 +27520,7 @@
   .byte  196,129,121,110,12,24               // vmovd         (%r8,%r11,1),%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,113,14,192,240              // vpblendw      $0xf0,%xmm0,%xmm1,%xmm0
-  .byte  233,44,255,255,255                  // jmpq          b37b <_sk_load_a8_avx+0x1e>
+  .byte  233,44,255,255,255                  // jmpq          129b7 <_sk_load_a8_avx+0x1e>
   .byte  144                                 // nop
   .byte  145                                 // xchg          %eax,%ecx
   .byte  255                                 // (bad)
@@ -20403,7 +27529,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00b460 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0a20>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf012a9c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0a20>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -20425,15 +27551,15 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,68                              // jne           b4c8 <_sk_load_a8_dst_avx+0x5c>
+  .byte  117,68                              // jne           12b04 <_sk_load_a8_dst_avx+0x5c>
   .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
-  .byte  197,217,219,37,142,255,1,0          // vpand         0x1ff8e(%rip),%xmm4,%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,217,219,37,210,255,1,0          // vpand         0x1ffd2(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,121,51,236                  // vpmovzxwd     %xmm4,%xmm5
   .byte  197,249,112,228,78                  // vpshufd       $0x4e,%xmm4,%xmm4
   .byte  196,226,121,51,228                  // vpmovzxwd     %xmm4,%xmm4
   .byte  196,227,85,24,228,1                 // vinsertf128   $0x1,%xmm4,%ymm5,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,72,254,1,0        // vbroadcastss  0x1fe48(%rip),%ymm5        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,45,140,254,1,0       // vbroadcastss  0x1fe8c(%rip),%ymm5        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,220,89,253                      // vmulps        %ymm5,%ymm4,%ymm7
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,220,87,228                      // vxorps        %ymm4,%ymm4,%ymm4
@@ -20445,15 +27571,15 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,174                             // ja            b48a <_sk_load_a8_dst_avx+0x1e>
+  .byte  119,174                             // ja            12ac6 <_sk_load_a8_dst_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,121,0,0,0                 // lea           0x79(%rip),%r10        # b560 <_sk_load_a8_dst_avx+0xf4>
+  .byte  76,141,21,121,0,0,0                 // lea           0x79(%rip),%r10        # 12b9c <_sk_load_a8_dst_avx+0xf4>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  235,143                             // jmp           b48a <_sk_load_a8_dst_avx+0x1e>
+  .byte  235,143                             // jmp           12ac6 <_sk_load_a8_dst_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
@@ -20461,7 +27587,7 @@
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,89,14,229,3                 // vpblendw      $0x3,%xmm5,%xmm4,%xmm4
-  .byte  233,103,255,255,255                 // jmpq          b48a <_sk_load_a8_dst_avx+0x1e>
+  .byte  233,103,255,255,255                 // jmpq          12ac6 <_sk_load_a8_dst_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
@@ -20472,7 +27598,7 @@
   .byte  196,129,121,110,44,24               // vmovd         (%r8,%r11,1),%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,81,14,228,240               // vpblendw      $0xf0,%xmm4,%xmm5,%xmm4
-  .byte  233,44,255,255,255                  // jmpq          b48a <_sk_load_a8_dst_avx+0x1e>
+  .byte  233,44,255,255,255                  // jmpq          12ac6 <_sk_load_a8_dst_avx+0x1e>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  144                                 // nop
   .byte  255                                 // (bad)
@@ -20481,7 +27607,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,221                 // callq         ffffffffde00b570 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0b30>
+  .byte  232,255,255,255,221                 // callq         ffffffffde012bac <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0b30>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,210                             // callq         *%rdx
@@ -20561,7 +27687,7 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,78,252,1,0        // vbroadcastss  0x1fc4e(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,146,252,1,0       // vbroadcastss  0x1fc92(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,217                      // vmulps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -20584,14 +27710,14 @@
   .byte  77,15,175,193                       // imul          %r9,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,206,251,1,0         // vbroadcastss  0x1fbce(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,18,252,1,0          // vbroadcastss  0x1fc12(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,100,89,192                   // vmulps        %ymm8,%ymm3,%ymm8
   .byte  196,65,125,91,192                   // vcvtps2dq     %ymm8,%ymm8
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  197,57,103,192                      // vpackuswb     %xmm0,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           b70e <_sk_store_a8_avx+0x44>
+  .byte  117,10                              // jne           12d4a <_sk_store_a8_avx+0x44>
   .byte  196,1,121,214,4,24                  // vmovq         %xmm8,(%r8,%r11,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -20599,25 +27725,25 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            b70a <_sk_store_a8_avx+0x40>
+  .byte  119,236                             // ja            12d46 <_sk_store_a8_avx+0x40>
   .byte  196,66,121,48,192                   // vpmovzxbw     %xmm8,%xmm8
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,86,0,0,0                  // lea           0x56(%rip),%r10        # b784 <_sk_store_a8_avx+0xba>
+  .byte  76,141,21,86,0,0,0                  // lea           0x56(%rip),%r10        # 12dc0 <_sk_store_a8_avx+0xba>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,20,4,24,0                 // vpextrb       $0x0,%xmm8,(%r8,%r11,1)
-  .byte  235,202                             // jmp           b70a <_sk_store_a8_avx+0x40>
+  .byte  235,202                             // jmp           12d46 <_sk_store_a8_avx+0x40>
   .byte  196,3,121,20,68,24,2,4              // vpextrb       $0x4,%xmm8,0x2(%r8,%r11,1)
-  .byte  196,98,57,0,5,223,252,1,0           // vpshufb       0x1fcdf(%rip),%xmm8,%xmm8        # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  196,98,57,0,5,35,253,1,0            // vpshufb       0x1fd23(%rip),%xmm8,%xmm8        # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
   .byte  196,3,121,21,4,24,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,1)
-  .byte  235,176                             // jmp           b70a <_sk_store_a8_avx+0x40>
+  .byte  235,176                             // jmp           12d46 <_sk_store_a8_avx+0x40>
   .byte  196,3,121,20,68,24,6,12             // vpextrb       $0xc,%xmm8,0x6(%r8,%r11,1)
   .byte  196,3,121,20,68,24,5,10             // vpextrb       $0xa,%xmm8,0x5(%r8,%r11,1)
   .byte  196,3,121,20,68,24,4,8              // vpextrb       $0x8,%xmm8,0x4(%r8,%r11,1)
-  .byte  196,98,57,0,5,197,252,1,0           // vpshufb       0x1fcc5(%rip),%xmm8,%xmm8        # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+  .byte  196,98,57,0,5,9,253,1,0             // vpshufb       0x1fd09(%rip),%xmm8,%xmm8        # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
   .byte  196,1,121,126,4,24                  // vmovd         %xmm8,(%r8,%r11,1)
-  .byte  235,135                             // jmp           b70a <_sk_store_a8_avx+0x40>
+  .byte  235,135                             // jmp           12d46 <_sk_store_a8_avx+0x40>
   .byte  144                                 // nop
   .byte  179,255                             // mov           $0xff,%bl
   .byte  255                                 // (bad)
@@ -20650,18 +27776,18 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,73                              // jne           b801 <_sk_load_g8_avx+0x61>
+  .byte  117,73                              // jne           12e3d <_sk_load_g8_avx+0x61>
   .byte  196,130,121,48,4,24                 // vpmovzxbw     (%r8,%r11,1),%xmm0
-  .byte  197,249,219,5,90,252,1,0            // vpand         0x1fc5a(%rip),%xmm0,%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,249,219,5,158,252,1,0           // vpand         0x1fc9e(%rip),%xmm0,%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,121,51,200                  // vpmovzxwd     %xmm0,%xmm1
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,20,251,1,0        // vbroadcastss  0x1fb14(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,88,251,1,0        // vbroadcastss  0x1fb58(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,145,250,1,0       // vbroadcastss  0x1fa91(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,213,250,1,0       // vbroadcastss  0x1fad5(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  255,224                             // jmpq          *%rax
@@ -20670,15 +27796,15 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,169                             // ja            b7be <_sk_load_g8_avx+0x1e>
+  .byte  119,169                             // ja            12dfa <_sk_load_g8_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # b898 <_sk_load_g8_avx+0xf8>
+  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # 12ed4 <_sk_load_g8_avx+0xf8>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  235,138                             // jmp           b7be <_sk_load_g8_avx+0x1e>
+  .byte  235,138                             // jmp           12dfa <_sk_load_g8_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,2                   // vpinsrw       $0x2,%eax,%xmm0,%xmm0
@@ -20686,7 +27812,7 @@
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,121,14,193,3                // vpblendw      $0x3,%xmm1,%xmm0,%xmm0
-  .byte  233,98,255,255,255                  // jmpq          b7be <_sk_load_g8_avx+0x1e>
+  .byte  233,98,255,255,255                  // jmpq          12dfa <_sk_load_g8_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,249,196,192,6                   // vpinsrw       $0x6,%eax,%xmm0,%xmm0
@@ -20697,7 +27823,7 @@
   .byte  196,129,121,110,12,24               // vmovd         (%r8,%r11,1),%xmm1
   .byte  196,226,121,48,201                  // vpmovzxbw     %xmm1,%xmm1
   .byte  196,227,113,14,192,240              // vpblendw      $0xf0,%xmm0,%xmm1,%xmm0
-  .byte  233,39,255,255,255                  // jmpq          b7be <_sk_load_g8_avx+0x1e>
+  .byte  233,39,255,255,255                  // jmpq          12dfa <_sk_load_g8_avx+0x1e>
   .byte  144                                 // nop
   .byte  145                                 // xchg          %eax,%ecx
   .byte  255                                 // (bad)
@@ -20706,7 +27832,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00b8a8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e68>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf012ee4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e68>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -20728,18 +27854,18 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,73                              // jne           b915 <_sk_load_g8_dst_avx+0x61>
+  .byte  117,73                              // jne           12f51 <_sk_load_g8_dst_avx+0x61>
   .byte  196,130,121,48,36,24                // vpmovzxbw     (%r8,%r11,1),%xmm4
-  .byte  197,217,219,37,70,251,1,0           // vpand         0x1fb46(%rip),%xmm4,%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  197,217,219,37,138,251,1,0          // vpand         0x1fb8a(%rip),%xmm4,%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  196,226,121,51,236                  // vpmovzxwd     %xmm4,%xmm5
   .byte  197,249,112,228,78                  // vpshufd       $0x4e,%xmm4,%xmm4
   .byte  196,226,121,51,228                  // vpmovzxwd     %xmm4,%xmm4
   .byte  196,227,85,24,228,1                 // vinsertf128   $0x1,%xmm4,%ymm5,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,0,250,1,0         // vbroadcastss  0x1fa00(%rip),%ymm5        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,45,68,250,1,0        // vbroadcastss  0x1fa44(%rip),%ymm5        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,61,125,249,1,0       // vbroadcastss  0x1f97d(%rip),%ymm7        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,61,193,249,1,0       // vbroadcastss  0x1f9c1(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,236                      // vmovaps       %ymm4,%ymm5
   .byte  197,252,40,244                      // vmovaps       %ymm4,%ymm6
   .byte  255,224                             // jmpq          *%rax
@@ -20748,15 +27874,15 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,169                             // ja            b8d2 <_sk_load_g8_dst_avx+0x1e>
+  .byte  119,169                             // ja            12f0e <_sk_load_g8_dst_avx+0x1e>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # b9ac <_sk_load_g8_dst_avx+0xf8>
+  .byte  76,141,21,120,0,0,0                 // lea           0x78(%rip),%r10        # 12fe8 <_sk_load_g8_dst_avx+0xf8>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,182,4,24                      // movzbl        (%r8,%r11,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  235,138                             // jmp           b8d2 <_sk_load_g8_dst_avx+0x1e>
+  .byte  235,138                             // jmp           12f0e <_sk_load_g8_dst_avx+0x1e>
   .byte  67,15,182,68,24,2                   // movzbl        0x2(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,2                   // vpinsrw       $0x2,%eax,%xmm4,%xmm4
@@ -20764,7 +27890,7 @@
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,89,14,229,3                 // vpblendw      $0x3,%xmm5,%xmm4,%xmm4
-  .byte  233,98,255,255,255                  // jmpq          b8d2 <_sk_load_g8_dst_avx+0x1e>
+  .byte  233,98,255,255,255                  // jmpq          12f0e <_sk_load_g8_dst_avx+0x1e>
   .byte  67,15,182,68,24,6                   // movzbl        0x6(%r8,%r11,1),%eax
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  197,217,196,224,6                   // vpinsrw       $0x6,%eax,%xmm4,%xmm4
@@ -20775,7 +27901,7 @@
   .byte  196,129,121,110,44,24               // vmovd         (%r8,%r11,1),%xmm5
   .byte  196,226,121,48,237                  // vpmovzxbw     %xmm5,%xmm5
   .byte  196,227,81,14,228,240               // vpblendw      $0xf0,%xmm4,%xmm5,%xmm4
-  .byte  233,39,255,255,255                  // jmpq          b8d2 <_sk_load_g8_dst_avx+0x1e>
+  .byte  233,39,255,255,255                  // jmpq          12f0e <_sk_load_g8_dst_avx+0x1e>
   .byte  144                                 // nop
   .byte  145                                 // xchg          %eax,%ecx
   .byte  255                                 // (bad)
@@ -20784,7 +27910,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  233,255,255,255,222                 // jmpq          ffffffffdf00b9bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f7c>
+  .byte  233,255,255,255,222                 // jmpq          ffffffffdf012ff8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f7c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,211                             // callq         *%rbx
@@ -20864,10 +27990,10 @@
   .byte  196,226,121,49,201                  // vpmovzxbd     %xmm1,%xmm1
   .byte  196,227,125,24,193,1                // vinsertf128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,2,248,1,0         // vbroadcastss  0x1f802(%rip),%ymm1        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,226,125,24,13,70,248,1,0        // vbroadcastss  0x1f846(%rip),%ymm1        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,127,247,1,0       // vbroadcastss  0x1f77f(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,195,247,1,0       // vbroadcastss  0x1f7c3(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
   .byte  197,252,40,208                      // vmovaps       %ymm0,%ymm2
   .byte  91                                  // pop           %rbx
@@ -20889,56 +28015,56 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,130,0,0,0                    // jne           bbbc <_sk_load_565_avx+0xa1>
+  .byte  15,133,130,0,0,0                    // jne           131f8 <_sk_load_565_avx+0xa1>
   .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
   .byte  196,226,121,51,200                  // vpmovzxwd     %xmm0,%xmm1
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,208,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm2
-  .byte  196,226,125,24,5,162,247,1,0        // vbroadcastss  0x1f7a2(%rip),%ymm0        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,24,5,230,247,1,0        // vbroadcastss  0x1f7e6(%rip),%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,236,84,192                      // vandps        %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,149,247,1,0       // vbroadcastss  0x1f795(%rip),%ymm1        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,13,217,247,1,0       // vbroadcastss  0x1f7d9(%rip),%ymm1        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,140,247,1,0       // vbroadcastss  0x1f78c(%rip),%ymm1        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,24,13,208,247,1,0       // vbroadcastss  0x1f7d0(%rip),%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,236,84,201                      // vandps        %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,29,127,247,1,0       // vbroadcastss  0x1f77f(%rip),%ymm3        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,29,195,247,1,0       // vbroadcastss  0x1f7c3(%rip),%ymm3        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,24,29,118,247,1,0       // vbroadcastss  0x1f776(%rip),%ymm3        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,24,29,186,247,1,0       // vbroadcastss  0x1f7ba(%rip),%ymm3        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,236,84,211                      // vandps        %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,226,125,24,29,105,247,1,0       // vbroadcastss  0x1f769(%rip),%ymm3        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,29,173,247,1,0       // vbroadcastss  0x1f7ad(%rip),%ymm3        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,206,246,1,0       // vbroadcastss  0x1f6ce(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,18,247,1,0        // vbroadcastss  0x1f712(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,108,255,255,255              // ja            bb40 <_sk_load_565_avx+0x25>
+  .byte  15,135,108,255,255,255              // ja            1317c <_sk_load_565_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,97,0,0,0                  // lea           0x61(%rip),%r10        # bc40 <_sk_load_565_avx+0x125>
+  .byte  76,141,21,97,0,0,0                  // lea           0x61(%rip),%r10        # 1327c <_sk_load_565_avx+0x125>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,74,255,255,255                  // jmpq          bb40 <_sk_load_565_avx+0x25>
+  .byte  233,74,255,255,255                  // jmpq          1317c <_sk_load_565_avx+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,110,12,88               // vmovd         (%r8,%r11,2),%xmm1
   .byte  196,227,121,14,193,3                // vpblendw      $0x3,%xmm1,%xmm0,%xmm0
-  .byte  233,45,255,255,255                  // jmpq          bb40 <_sk_load_565_avx+0x25>
+  .byte  233,45,255,255,255                  // jmpq          1317c <_sk_load_565_avx+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,122,126,12,88               // vmovq         (%r8,%r11,2),%xmm1
   .byte  196,227,113,14,192,240              // vpblendw      $0xf0,%xmm0,%xmm1,%xmm0
-  .byte  233,0,255,255,255                   // jmpq          bb40 <_sk_load_565_avx+0x25>
+  .byte  233,0,255,255,255                   // jmpq          1317c <_sk_load_565_avx+0x25>
   .byte  168,255                             // test          $0xff,%al
   .byte  255                                 // (bad)
   .byte  255,194                             // inc           %edx
@@ -20970,56 +28096,56 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,130,0,0,0                    // jne           bcfd <_sk_load_565_dst_avx+0xa1>
+  .byte  15,133,130,0,0,0                    // jne           13339 <_sk_load_565_dst_avx+0xa1>
   .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
   .byte  196,226,121,51,236                  // vpmovzxwd     %xmm4,%xmm5
   .byte  197,249,112,228,78                  // vpshufd       $0x4e,%xmm4,%xmm4
   .byte  196,226,121,51,228                  // vpmovzxwd     %xmm4,%xmm4
   .byte  196,227,85,24,244,1                 // vinsertf128   $0x1,%xmm4,%ymm5,%ymm6
-  .byte  196,226,125,24,37,97,246,1,0        // vbroadcastss  0x1f661(%rip),%ymm4        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,24,37,165,246,1,0       // vbroadcastss  0x1f6a5(%rip),%ymm4        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,204,84,228                      // vandps        %ymm4,%ymm6,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,84,246,1,0        // vbroadcastss  0x1f654(%rip),%ymm5        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,45,152,246,1,0       // vbroadcastss  0x1f698(%rip),%ymm5        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
-  .byte  196,226,125,24,45,75,246,1,0        // vbroadcastss  0x1f64b(%rip),%ymm5        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,24,45,143,246,1,0       // vbroadcastss  0x1f68f(%rip),%ymm5        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,204,84,237                      // vandps        %ymm5,%ymm6,%ymm5
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,226,125,24,61,62,246,1,0        // vbroadcastss  0x1f63e(%rip),%ymm7        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,61,130,246,1,0       // vbroadcastss  0x1f682(%rip),%ymm7        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,212,89,239                      // vmulps        %ymm7,%ymm5,%ymm5
-  .byte  196,226,125,24,61,53,246,1,0        // vbroadcastss  0x1f635(%rip),%ymm7        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,24,61,121,246,1,0       // vbroadcastss  0x1f679(%rip),%ymm7        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,204,84,247                      // vandps        %ymm7,%ymm6,%ymm6
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
-  .byte  196,226,125,24,61,40,246,1,0        // vbroadcastss  0x1f628(%rip),%ymm7        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,61,108,246,1,0       // vbroadcastss  0x1f66c(%rip),%ymm7        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,204,89,247                      // vmulps        %ymm7,%ymm6,%ymm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,61,141,245,1,0       // vbroadcastss  0x1f58d(%rip),%ymm7        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,61,209,245,1,0       // vbroadcastss  0x1f5d1(%rip),%ymm7        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,108,255,255,255              // ja            bc81 <_sk_load_565_dst_avx+0x25>
+  .byte  15,135,108,255,255,255              // ja            132bd <_sk_load_565_dst_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # bd84 <_sk_load_565_dst_avx+0x128>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 133c0 <_sk_load_565_dst_avx+0x128>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,74,255,255,255                  // jmpq          bc81 <_sk_load_565_dst_avx+0x25>
+  .byte  233,74,255,255,255                  // jmpq          132bd <_sk_load_565_dst_avx+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,121,110,44,88               // vmovd         (%r8,%r11,2),%xmm5
   .byte  196,227,89,14,229,3                 // vpblendw      $0x3,%xmm5,%xmm4,%xmm4
-  .byte  233,45,255,255,255                  // jmpq          bc81 <_sk_load_565_dst_avx+0x25>
+  .byte  233,45,255,255,255                  // jmpq          132bd <_sk_load_565_dst_avx+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,122,126,44,88               // vmovq         (%r8,%r11,2),%xmm5
   .byte  196,227,81,14,228,240               // vpblendw      $0xf0,%xmm4,%xmm5,%xmm4
-  .byte  233,0,255,255,255                   // jmpq          bc81 <_sk_load_565_dst_avx+0x25>
+  .byte  233,0,255,255,255                   // jmpq          132bd <_sk_load_565_dst_avx+0x25>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -21112,23 +28238,23 @@
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,208,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm2
-  .byte  196,226,125,24,5,49,244,1,0         // vbroadcastss  0x1f431(%rip),%ymm0        # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+  .byte  196,226,125,24,5,117,244,1,0        // vbroadcastss  0x1f475(%rip),%ymm0        # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
   .byte  197,236,84,192                      // vandps        %ymm0,%ymm2,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,36,244,1,0        // vbroadcastss  0x1f424(%rip),%ymm1        # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+  .byte  196,226,125,24,13,104,244,1,0       // vbroadcastss  0x1f468(%rip),%ymm1        # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,27,244,1,0        // vbroadcastss  0x1f41b(%rip),%ymm1        # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+  .byte  196,226,125,24,13,95,244,1,0        // vbroadcastss  0x1f45f(%rip),%ymm1        # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
   .byte  197,236,84,201                      // vandps        %ymm1,%ymm2,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,29,14,244,1,0        // vbroadcastss  0x1f40e(%rip),%ymm3        # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+  .byte  196,226,125,24,29,82,244,1,0        // vbroadcastss  0x1f452(%rip),%ymm3        # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
-  .byte  196,226,125,24,29,5,244,1,0         // vbroadcastss  0x1f405(%rip),%ymm3        # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+  .byte  196,226,125,24,29,73,244,1,0        // vbroadcastss  0x1f449(%rip),%ymm3        # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
   .byte  197,236,84,211                      // vandps        %ymm3,%ymm2,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,226,125,24,29,248,243,1,0       // vbroadcastss  0x1f3f8(%rip),%ymm3        # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+  .byte  196,226,125,24,29,60,244,1,0        // vbroadcastss  0x1f43c(%rip),%ymm3        # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
   .byte  197,236,89,211                      // vmulps        %ymm3,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,93,243,1,0        // vbroadcastss  0x1f35d(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,161,243,1,0       // vbroadcastss  0x1f3a1(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
   .byte  65,94                               // pop           %r14
@@ -21147,14 +28273,14 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,32,244,1,0          // vbroadcastss  0x1f420(%rip),%ymm8        # 2b374 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+  .byte  196,98,125,24,5,100,244,1,0         // vbroadcastss  0x1f464(%rip),%ymm8        # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,41,114,241,11               // vpslld        $0xb,%xmm9,%xmm10
   .byte  196,67,125,25,201,1                 // vextractf128  $0x1,%ymm9,%xmm9
   .byte  196,193,49,114,241,11               // vpslld        $0xb,%xmm9,%xmm9
   .byte  196,67,45,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm9
-  .byte  196,98,125,24,21,249,243,1,0        // vbroadcastss  0x1f3f9(%rip),%ymm10        # 2b378 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+  .byte  196,98,125,24,21,61,244,1,0         // vbroadcastss  0x1f43d(%rip),%ymm10        # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
   .byte  196,65,116,89,210                   // vmulps        %ymm10,%ymm1,%ymm10
   .byte  196,65,125,91,210                   // vcvtps2dq     %ymm10,%ymm10
   .byte  196,193,33,114,242,5                // vpslld        $0x5,%xmm10,%xmm11
@@ -21168,7 +28294,7 @@
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           bfcf <_sk_store_565_avx+0x9a>
+  .byte  117,10                              // jne           1360b <_sk_store_565_avx+0x9a>
   .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21176,22 +28302,22 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            bfcb <_sk_store_565_avx+0x96>
+  .byte  119,236                             // ja            13607 <_sk_store_565_avx+0x96>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # c02c <_sk_store_565_avx+0xf7>
+  .byte  76,141,21,66,0,0,0                  // lea           0x42(%rip),%r10        # 13668 <_sk_store_565_avx+0xf7>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
-  .byte  235,207                             // jmp           bfcb <_sk_store_565_avx+0x96>
+  .byte  235,207                             // jmp           13607 <_sk_store_565_avx+0x96>
   .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
   .byte  196,1,121,126,4,88                  // vmovd         %xmm8,(%r8,%r11,2)
-  .byte  235,191                             // jmp           bfcb <_sk_store_565_avx+0x96>
+  .byte  235,191                             // jmp           13607 <_sk_store_565_avx+0x96>
   .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
   .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
   .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
   .byte  196,1,121,214,4,88                  // vmovq         %xmm8,(%r8,%r11,2)
-  .byte  235,159                             // jmp           bfcb <_sk_store_565_avx+0x96>
+  .byte  235,159                             // jmp           13607 <_sk_store_565_avx+0x96>
   .byte  199                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -21209,7 +28335,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,224                 // callq         ffffffffe100c044 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1604>
+  .byte  232,255,255,255,224                 // callq         ffffffffe1013680 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1604>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -21226,31 +28352,31 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,154,0,0,0                    // jne           c101 <_sk_load_4444_avx+0xb9>
+  .byte  15,133,154,0,0,0                    // jne           1373d <_sk_load_4444_avx+0xb9>
   .byte  196,129,122,111,4,88                // vmovdqu       (%r8,%r11,2),%xmm0
   .byte  196,226,121,51,200                  // vpmovzxwd     %xmm0,%xmm1
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,216,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm3
-  .byte  196,226,125,24,5,241,242,1,0        // vbroadcastss  0x1f2f1(%rip),%ymm0        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,24,5,53,243,1,0         // vbroadcastss  0x1f335(%rip),%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,228,84,192                      // vandps        %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,228,242,1,0       // vbroadcastss  0x1f2e4(%rip),%ymm1        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,13,40,243,1,0        // vbroadcastss  0x1f328(%rip),%ymm1        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,219,242,1,0       // vbroadcastss  0x1f2db(%rip),%ymm1        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,24,13,31,243,1,0        // vbroadcastss  0x1f31f(%rip),%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,228,84,201                      // vandps        %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,206,242,1,0       // vbroadcastss  0x1f2ce(%rip),%ymm2        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,21,18,243,1,0        // vbroadcastss  0x1f312(%rip),%ymm2        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,197,242,1,0       // vbroadcastss  0x1f2c5(%rip),%ymm2        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,24,21,9,243,1,0         // vbroadcastss  0x1f309(%rip),%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,228,84,210                      // vandps        %ymm2,%ymm3,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,98,125,24,5,184,242,1,0         // vbroadcastss  0x1f2b8(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,252,242,1,0         // vbroadcastss  0x1f2fc(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,174,242,1,0         // vbroadcastss  0x1f2ae(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,24,5,242,242,1,0         // vbroadcastss  0x1f2f2(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,100,84,216                  // vandps        %ymm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,160,242,1,0         // vbroadcastss  0x1f2a0(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,228,242,1,0         // vbroadcastss  0x1f2e4(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21259,27 +28385,27 @@
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,84,255,255,255               // ja            c06d <_sk_load_4444_avx+0x25>
+  .byte  15,135,84,255,255,255               // ja            136a9 <_sk_load_4444_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # c188 <_sk_load_4444_avx+0x140>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 137c4 <_sk_load_4444_avx+0x140>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,50,255,255,255                  // jmpq          c06d <_sk_load_4444_avx+0x25>
+  .byte  233,50,255,255,255                  // jmpq          136a9 <_sk_load_4444_avx+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,110,12,88               // vmovd         (%r8,%r11,2),%xmm1
   .byte  196,227,121,14,193,3                // vpblendw      $0x3,%xmm1,%xmm0,%xmm0
-  .byte  233,21,255,255,255                  // jmpq          c06d <_sk_load_4444_avx+0x25>
+  .byte  233,21,255,255,255                  // jmpq          136a9 <_sk_load_4444_avx+0x25>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,129,121,196,68,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,121,196,68,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
   .byte  196,129,122,126,12,88               // vmovq         (%r8,%r11,2),%xmm1
   .byte  196,227,113,14,192,240              // vpblendw      $0xf0,%xmm0,%xmm1,%xmm0
-  .byte  233,232,254,255,255                 // jmpq          c06d <_sk_load_4444_avx+0x25>
+  .byte  233,232,254,255,255                 // jmpq          136a9 <_sk_load_4444_avx+0x25>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -21315,31 +28441,31 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,154,0,0,0                    // jne           c25d <_sk_load_4444_dst_avx+0xb9>
+  .byte  15,133,154,0,0,0                    // jne           13899 <_sk_load_4444_dst_avx+0xb9>
   .byte  196,129,122,111,36,88               // vmovdqu       (%r8,%r11,2),%xmm4
   .byte  196,226,121,51,236                  // vpmovzxwd     %xmm4,%xmm5
   .byte  197,249,112,228,78                  // vpshufd       $0x4e,%xmm4,%xmm4
   .byte  196,226,121,51,228                  // vpmovzxwd     %xmm4,%xmm4
   .byte  196,227,85,24,252,1                 // vinsertf128   $0x1,%xmm4,%ymm5,%ymm7
-  .byte  196,226,125,24,37,149,241,1,0       // vbroadcastss  0x1f195(%rip),%ymm4        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,24,37,217,241,1,0       // vbroadcastss  0x1f1d9(%rip),%ymm4        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,196,84,228                      // vandps        %ymm4,%ymm7,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,226,125,24,45,136,241,1,0       // vbroadcastss  0x1f188(%rip),%ymm5        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,45,204,241,1,0       // vbroadcastss  0x1f1cc(%rip),%ymm5        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,220,89,229                      // vmulps        %ymm5,%ymm4,%ymm4
-  .byte  196,226,125,24,45,127,241,1,0       // vbroadcastss  0x1f17f(%rip),%ymm5        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,24,45,195,241,1,0       // vbroadcastss  0x1f1c3(%rip),%ymm5        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,196,84,237                      // vandps        %ymm5,%ymm7,%ymm5
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,226,125,24,53,114,241,1,0       // vbroadcastss  0x1f172(%rip),%ymm6        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,53,182,241,1,0       // vbroadcastss  0x1f1b6(%rip),%ymm6        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,212,89,238                      // vmulps        %ymm6,%ymm5,%ymm5
-  .byte  196,226,125,24,53,105,241,1,0       // vbroadcastss  0x1f169(%rip),%ymm6        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,24,53,173,241,1,0       // vbroadcastss  0x1f1ad(%rip),%ymm6        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,196,84,246                      // vandps        %ymm6,%ymm7,%ymm6
   .byte  197,252,91,246                      // vcvtdq2ps     %ymm6,%ymm6
-  .byte  196,98,125,24,5,92,241,1,0          // vbroadcastss  0x1f15c(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,160,241,1,0         // vbroadcastss  0x1f1a0(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,76,89,240                   // vmulps        %ymm8,%ymm6,%ymm6
-  .byte  196,98,125,24,5,82,241,1,0          // vbroadcastss  0x1f152(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,24,5,150,241,1,0         // vbroadcastss  0x1f196(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,68,84,248                   // vandps        %ymm8,%ymm7,%ymm7
   .byte  197,252,91,255                      // vcvtdq2ps     %ymm7,%ymm7
-  .byte  196,98,125,24,5,68,241,1,0          // vbroadcastss  0x1f144(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,136,241,1,0         // vbroadcastss  0x1f188(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,68,89,248                   // vmulps        %ymm8,%ymm7,%ymm7
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21348,27 +28474,27 @@
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,84,255,255,255               // ja            c1c9 <_sk_load_4444_dst_avx+0x25>
+  .byte  15,135,84,255,255,255               // ja            13805 <_sk_load_4444_dst_avx+0x25>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # c2e4 <_sk_load_4444_dst_avx+0x140>
+  .byte  76,141,21,100,0,0,0                 // lea           0x64(%rip),%r10        # 13920 <_sk_load_4444_dst_avx+0x140>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  67,15,183,4,88                      // movzwl        (%r8,%r11,2),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,50,255,255,255                  // jmpq          c1c9 <_sk_load_4444_dst_avx+0x25>
+  .byte  233,50,255,255,255                  // jmpq          13805 <_sk_load_4444_dst_avx+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,4,2           // vpinsrw       $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,121,110,44,88               // vmovd         (%r8,%r11,2),%xmm5
   .byte  196,227,89,14,229,3                 // vpblendw      $0x3,%xmm5,%xmm4,%xmm4
-  .byte  233,21,255,255,255                  // jmpq          c1c9 <_sk_load_4444_dst_avx+0x25>
+  .byte  233,21,255,255,255                  // jmpq          13805 <_sk_load_4444_dst_avx+0x25>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,129,89,196,100,88,12,6          // vpinsrw       $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,10,5          // vpinsrw       $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,89,196,100,88,8,4           // vpinsrw       $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
   .byte  196,129,122,126,44,88               // vmovq         (%r8,%r11,2),%xmm5
   .byte  196,227,81,14,228,240               // vpblendw      $0xf0,%xmm4,%xmm5,%xmm4
-  .byte  233,232,254,255,255                 // jmpq          c1c9 <_sk_load_4444_dst_avx+0x25>
+  .byte  233,232,254,255,255                 // jmpq          13805 <_sk_load_4444_dst_avx+0x25>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
   .byte  255                                 // (bad)
@@ -21461,25 +28587,25 @@
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,216,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm3
-  .byte  196,226,125,24,5,77,239,1,0         // vbroadcastss  0x1ef4d(%rip),%ymm0        # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+  .byte  196,226,125,24,5,145,239,1,0        // vbroadcastss  0x1ef91(%rip),%ymm0        # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
   .byte  197,228,84,192                      // vandps        %ymm0,%ymm3,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,226,125,24,13,64,239,1,0        // vbroadcastss  0x1ef40(%rip),%ymm1        # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+  .byte  196,226,125,24,13,132,239,1,0       // vbroadcastss  0x1ef84(%rip),%ymm1        # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
   .byte  197,252,89,193                      // vmulps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,55,239,1,0        // vbroadcastss  0x1ef37(%rip),%ymm1        # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+  .byte  196,226,125,24,13,123,239,1,0       // vbroadcastss  0x1ef7b(%rip),%ymm1        # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
   .byte  197,228,84,201                      // vandps        %ymm1,%ymm3,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,226,125,24,21,42,239,1,0        // vbroadcastss  0x1ef2a(%rip),%ymm2        # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+  .byte  196,226,125,24,21,110,239,1,0       // vbroadcastss  0x1ef6e(%rip),%ymm2        # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
   .byte  197,244,89,202                      // vmulps        %ymm2,%ymm1,%ymm1
-  .byte  196,226,125,24,21,33,239,1,0        // vbroadcastss  0x1ef21(%rip),%ymm2        # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+  .byte  196,226,125,24,21,101,239,1,0       // vbroadcastss  0x1ef65(%rip),%ymm2        # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
   .byte  197,228,84,210                      // vandps        %ymm2,%ymm3,%ymm2
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
-  .byte  196,98,125,24,5,20,239,1,0          // vbroadcastss  0x1ef14(%rip),%ymm8        # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+  .byte  196,98,125,24,5,88,239,1,0          // vbroadcastss  0x1ef58(%rip),%ymm8        # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
   .byte  196,193,108,89,208                  // vmulps        %ymm8,%ymm2,%ymm2
-  .byte  196,98,125,24,5,10,239,1,0          // vbroadcastss  0x1ef0a(%rip),%ymm8        # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+  .byte  196,98,125,24,5,78,239,1,0          // vbroadcastss  0x1ef4e(%rip),%ymm8        # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
   .byte  196,193,100,84,216                  // vandps        %ymm8,%ymm3,%ymm3
   .byte  197,252,91,219                      // vcvtdq2ps     %ymm3,%ymm3
-  .byte  196,98,125,24,5,252,238,1,0         // vbroadcastss  0x1eefc(%rip),%ymm8        # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+  .byte  196,98,125,24,5,64,239,1,0          // vbroadcastss  0x1ef40(%rip),%ymm8        # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
   .byte  196,193,100,89,216                  // vmulps        %ymm8,%ymm3,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
@@ -21500,7 +28626,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,208,238,1,0         // vbroadcastss  0x1eed0(%rip),%ymm8        # 2b39c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+  .byte  196,98,125,24,5,20,239,1,0          // vbroadcastss  0x1ef14(%rip),%ymm8        # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,193,41,114,241,12               // vpslld        $0xc,%xmm9,%xmm10
@@ -21527,7 +28653,7 @@
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,66,57,43,193                    // vpackusdw     %xmm9,%xmm8,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           c565 <_sk_store_4444_avx+0xb8>
+  .byte  117,10                              // jne           13ba1 <_sk_store_4444_avx+0xb8>
   .byte  196,1,122,127,4,88                  // vmovdqu       %xmm8,(%r8,%r11,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21535,22 +28661,22 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            c561 <_sk_store_4444_avx+0xb4>
+  .byte  119,236                             // ja            13b9d <_sk_store_4444_avx+0xb4>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,68,0,0,0                  // lea           0x44(%rip),%r10        # c5c4 <_sk_store_4444_avx+0x117>
+  .byte  76,141,21,68,0,0,0                  // lea           0x44(%rip),%r10        # 13c00 <_sk_store_4444_avx+0x117>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,3,121,21,4,88,0                 // vpextrw       $0x0,%xmm8,(%r8,%r11,2)
-  .byte  235,207                             // jmp           c561 <_sk_store_4444_avx+0xb4>
+  .byte  235,207                             // jmp           13b9d <_sk_store_4444_avx+0xb4>
   .byte  196,3,121,21,68,88,4,2              // vpextrw       $0x2,%xmm8,0x4(%r8,%r11,2)
   .byte  196,1,121,126,4,88                  // vmovd         %xmm8,(%r8,%r11,2)
-  .byte  235,191                             // jmp           c561 <_sk_store_4444_avx+0xb4>
+  .byte  235,191                             // jmp           13b9d <_sk_store_4444_avx+0xb4>
   .byte  196,3,121,21,68,88,12,6             // vpextrw       $0x6,%xmm8,0xc(%r8,%r11,2)
   .byte  196,3,121,21,68,88,10,5             // vpextrw       $0x5,%xmm8,0xa(%r8,%r11,2)
   .byte  196,3,121,21,68,88,8,4              // vpextrw       $0x4,%xmm8,0x8(%r8,%r11,2)
   .byte  196,1,121,214,4,88                  // vmovq         %xmm8,(%r8,%r11,2)
-  .byte  235,159                             // jmp           c561 <_sk_store_4444_avx+0xb4>
+  .byte  235,159                             // jmp           13b9d <_sk_store_4444_avx+0xb4>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  197,255,255                         // (bad)
   .byte  255,214                             // callq         *%rsi
@@ -21586,12 +28712,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,135,0,0,0                    // jne           c687 <_sk_load_8888_avx+0xa7>
+  .byte  15,133,135,0,0,0                    // jne           13cc3 <_sk_load_8888_avx+0xa7>
   .byte  196,1,125,16,12,152                 // vmovupd       (%r8,%r11,4),%ymm9
-  .byte  197,125,40,21,146,234,1,0           // vmovapd       0x1ea92(%rip),%ymm10        # 2b0a0 <_sk_srcover_rgba_8888_sse2_lowp+0x660>
+  .byte  197,125,40,21,214,234,1,0           // vmovapd       0x1ead6(%rip),%ymm10        # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
   .byte  196,193,53,84,194                   // vandpd        %ymm10,%ymm9,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,5,220,236,1,0         // vbroadcastss  0x1ecdc(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,32,237,1,0          // vbroadcastss  0x1ed20(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,192                  // vmulps        %ymm8,%ymm0,%ymm0
   .byte  196,193,113,114,209,8               // vpsrld        $0x8,%xmm9,%xmm1
   .byte  196,99,125,25,203,1                 // vextractf128  $0x1,%ymm9,%xmm3
@@ -21618,21 +28744,21 @@
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,102,255,255,255              // ja            c606 <_sk_load_8888_avx+0x26>
+  .byte  15,135,102,255,255,255              // ja            13c42 <_sk_load_8888_avx+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # c73c <_sk_load_8888_avx+0x15c>
+  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # 13d78 <_sk_load_8888_avx+0x15c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,122,16,12,152                 // vmovss        (%r8,%r11,4),%xmm9
-  .byte  233,71,255,255,255                  // jmpq          c606 <_sk_load_8888_avx+0x26>
+  .byte  233,71,255,255,255                  // jmpq          13c42 <_sk_load_8888_avx+0x26>
   .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  196,99,117,12,200,4                 // vblendps      $0x4,%ymm0,%ymm1,%ymm9
   .byte  196,129,123,16,4,152                // vmovsd        (%r8,%r11,4),%xmm0
   .byte  196,99,53,13,200,1                  // vblendpd      $0x1,%ymm0,%ymm9,%ymm9
-  .byte  233,32,255,255,255                  // jmpq          c606 <_sk_load_8888_avx+0x26>
+  .byte  233,32,255,255,255                  // jmpq          13c42 <_sk_load_8888_avx+0x26>
   .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
@@ -21646,9 +28772,9 @@
   .byte  196,99,53,24,200,1                  // vinsertf128   $0x1,%xmm0,%ymm9,%ymm9
   .byte  196,129,121,16,4,152                // vmovupd       (%r8,%r11,4),%xmm0
   .byte  196,67,125,13,201,12                // vblendpd      $0xc,%ymm9,%ymm0,%ymm9
-  .byte  233,203,254,255,255                 // jmpq          c606 <_sk_load_8888_avx+0x26>
+  .byte  233,203,254,255,255                 // jmpq          13c42 <_sk_load_8888_avx+0x26>
   .byte  144                                 // nop
-  .byte  120,255                             // js            c73d <_sk_load_8888_avx+0x15d>
+  .byte  120,255                             // js            13d79 <_sk_load_8888_avx+0x15d>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,131             // lcall         *-0x7c000001(%rcx)
   .byte  255                                 // (bad)
@@ -21681,12 +28807,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,135,0,0,0                    // jne           c7ff <_sk_load_8888_dst_avx+0xa7>
+  .byte  15,133,135,0,0,0                    // jne           13e3b <_sk_load_8888_dst_avx+0xa7>
   .byte  196,1,125,16,12,152                 // vmovupd       (%r8,%r11,4),%ymm9
-  .byte  197,125,40,21,58,233,1,0            // vmovapd       0x1e93a(%rip),%ymm10        # 2b0c0 <_sk_srcover_rgba_8888_sse2_lowp+0x680>
+  .byte  197,125,40,21,126,233,1,0           // vmovapd       0x1e97e(%rip),%ymm10        # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
   .byte  196,193,53,84,226                   // vandpd        %ymm10,%ymm9,%ymm4
   .byte  197,252,91,228                      // vcvtdq2ps     %ymm4,%ymm4
-  .byte  196,98,125,24,5,100,235,1,0         // vbroadcastss  0x1eb64(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,168,235,1,0         // vbroadcastss  0x1eba8(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,92,89,224                   // vmulps        %ymm8,%ymm4,%ymm4
   .byte  196,193,81,114,209,8                // vpsrld        $0x8,%xmm9,%xmm5
   .byte  196,99,125,25,207,1                 // vextractf128  $0x1,%ymm9,%xmm7
@@ -21713,21 +28839,21 @@
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,102,255,255,255              // ja            c77e <_sk_load_8888_dst_avx+0x26>
+  .byte  15,135,102,255,255,255              // ja            13dba <_sk_load_8888_dst_avx+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # c8b4 <_sk_load_8888_dst_avx+0x15c>
+  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # 13ef0 <_sk_load_8888_dst_avx+0x15c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,122,16,12,152                 // vmovss        (%r8,%r11,4),%xmm9
-  .byte  233,71,255,255,255                  // jmpq          c77e <_sk_load_8888_dst_avx+0x26>
+  .byte  233,71,255,255,255                  // jmpq          13dba <_sk_load_8888_dst_avx+0x26>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
   .byte  196,99,85,12,204,4                  // vblendps      $0x4,%ymm4,%ymm5,%ymm9
   .byte  196,129,123,16,36,152               // vmovsd        (%r8,%r11,4),%xmm4
   .byte  196,99,53,13,204,1                  // vblendpd      $0x1,%ymm4,%ymm9,%ymm9
-  .byte  233,32,255,255,255                  // jmpq          c77e <_sk_load_8888_dst_avx+0x26>
+  .byte  233,32,255,255,255                  // jmpq          13dba <_sk_load_8888_dst_avx+0x26>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  196,227,125,24,228,1                // vinsertf128   $0x1,%xmm4,%ymm0,%ymm4
@@ -21741,9 +28867,9 @@
   .byte  196,99,53,24,204,1                  // vinsertf128   $0x1,%xmm4,%ymm9,%ymm9
   .byte  196,129,121,16,36,152               // vmovupd       (%r8,%r11,4),%xmm4
   .byte  196,67,93,13,201,12                 // vblendpd      $0xc,%ymm9,%ymm4,%ymm9
-  .byte  233,203,254,255,255                 // jmpq          c77e <_sk_load_8888_dst_avx+0x26>
+  .byte  233,203,254,255,255                 // jmpq          13dba <_sk_load_8888_dst_avx+0x26>
   .byte  144                                 // nop
-  .byte  120,255                             // js            c8b5 <_sk_load_8888_dst_avx+0x15d>
+  .byte  120,255                             // js            13ef1 <_sk_load_8888_dst_avx+0x15d>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,131             // lcall         *-0x7c000001(%rcx)
   .byte  255                                 // (bad)
@@ -21821,10 +28947,10 @@
   .byte  196,131,121,34,4,176,2              // vpinsrd       $0x2,(%r8,%r14,4),%xmm0,%xmm0
   .byte  196,195,121,34,28,152,3             // vpinsrd       $0x3,(%r8,%rbx,4),%xmm0,%xmm3
   .byte  196,227,61,24,195,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm0
-  .byte  197,124,40,21,12,231,1,0            // vmovaps       0x1e70c(%rip),%ymm10        # 2b0e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6a0>
+  .byte  197,124,40,21,80,231,1,0            // vmovaps       0x1e750(%rip),%ymm10        # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
   .byte  196,193,124,84,194                  // vandps        %ymm10,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,13,22,233,1,0         // vbroadcastss  0x1e916(%rip),%ymm9        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,13,90,233,1,0         // vbroadcastss  0x1e95a(%rip),%ymm9        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  196,193,113,114,208,8               // vpsrld        $0x8,%xmm8,%xmm1
   .byte  197,233,114,211,8                   // vpsrld        $0x8,%xmm3,%xmm2
@@ -21861,7 +28987,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,70,232,1,0          // vbroadcastss  0x1e846(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,138,232,1,0         // vbroadcastss  0x1e88a(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
@@ -21886,7 +29012,7 @@
   .byte  196,65,45,86,192                    // vorpd         %ymm8,%ymm10,%ymm8
   .byte  196,65,53,86,192                    // vorpd         %ymm8,%ymm9,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           cafc <_sk_store_8888_avx+0xae>
+  .byte  117,10                              // jne           14138 <_sk_store_8888_avx+0xae>
   .byte  196,1,124,17,4,152                  // vmovups       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -21894,17 +29020,17 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            caf8 <_sk_store_8888_avx+0xaa>
+  .byte  119,236                             // ja            14134 <_sk_store_8888_avx+0xaa>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,85,0,0,0                  // lea           0x55(%rip),%r10        # cb6c <_sk_store_8888_avx+0x11e>
+  .byte  76,141,21,85,0,0,0                  // lea           0x55(%rip),%r10        # 141a8 <_sk_store_8888_avx+0x11e>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,208                             // jmp           caf8 <_sk_store_8888_avx+0xaa>
+  .byte  235,208                             // jmp           14134 <_sk_store_8888_avx+0xaa>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  235,192                             // jmp           caf8 <_sk_store_8888_avx+0xaa>
+  .byte  235,192                             // jmp           14134 <_sk_store_8888_avx+0xaa>
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
@@ -21912,7 +29038,7 @@
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,1,122,17,76,152,16              // vmovss        %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,121,17,4,152                  // vmovupd       %xmm8,(%r8,%r11,4)
-  .byte  235,143                             // jmp           caf8 <_sk_store_8888_avx+0xaa>
+  .byte  235,143                             // jmp           14134 <_sk_store_8888_avx+0xaa>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  180,255                             // mov           $0xff,%ah
   .byte  255                                 // (bad)
@@ -21924,7 +29050,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,218                 // callq         ffffffffdb00cb80 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2140>
+  .byte  232,255,255,255,218                 // callq         ffffffffdb0141bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2140>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,204                             // dec           %esp
@@ -21944,12 +29070,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,135,0,0,0                    // jne           cc2f <_sk_load_bgra_avx+0xa7>
+  .byte  15,133,135,0,0,0                    // jne           1426b <_sk_load_bgra_avx+0xa7>
   .byte  196,1,125,16,12,152                 // vmovupd       (%r8,%r11,4),%ymm9
-  .byte  197,125,40,21,74,229,1,0            // vmovapd       0x1e54a(%rip),%ymm10        # 2b100 <_sk_srcover_rgba_8888_sse2_lowp+0x6c0>
+  .byte  197,125,40,21,142,229,1,0           // vmovapd       0x1e58e(%rip),%ymm10        # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
   .byte  196,193,53,84,202                   // vandpd        %ymm10,%ymm9,%ymm1
   .byte  197,252,91,201                      // vcvtdq2ps     %ymm1,%ymm1
-  .byte  196,98,125,24,5,52,231,1,0          // vbroadcastss  0x1e734(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,120,231,1,0         // vbroadcastss  0x1e778(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,116,89,208                  // vmulps        %ymm8,%ymm1,%ymm2
   .byte  196,193,113,114,209,8               // vpsrld        $0x8,%xmm9,%xmm1
   .byte  196,99,125,25,203,1                 // vextractf128  $0x1,%ymm9,%xmm3
@@ -21976,21 +29102,21 @@
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,102,255,255,255              // ja            cbae <_sk_load_bgra_avx+0x26>
+  .byte  15,135,102,255,255,255              // ja            141ea <_sk_load_bgra_avx+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # cce4 <_sk_load_bgra_avx+0x15c>
+  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # 14320 <_sk_load_bgra_avx+0x15c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,122,16,12,152                 // vmovss        (%r8,%r11,4),%xmm9
-  .byte  233,71,255,255,255                  // jmpq          cbae <_sk_load_bgra_avx+0x26>
+  .byte  233,71,255,255,255                  // jmpq          141ea <_sk_load_bgra_avx+0x26>
   .byte  196,129,121,110,68,152,8            // vmovd         0x8(%r8,%r11,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  196,99,117,12,200,4                 // vblendps      $0x4,%ymm0,%ymm1,%ymm9
   .byte  196,129,123,16,4,152                // vmovsd        (%r8,%r11,4),%xmm0
   .byte  196,99,53,13,200,1                  // vblendpd      $0x1,%ymm0,%ymm9,%ymm9
-  .byte  233,32,255,255,255                  // jmpq          cbae <_sk_load_bgra_avx+0x26>
+  .byte  233,32,255,255,255                  // jmpq          141ea <_sk_load_bgra_avx+0x26>
   .byte  196,129,121,110,68,152,24           // vmovd         0x18(%r8,%r11,4),%xmm0
   .byte  197,249,112,192,68                  // vpshufd       $0x44,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
@@ -22004,9 +29130,9 @@
   .byte  196,99,53,24,200,1                  // vinsertf128   $0x1,%xmm0,%ymm9,%ymm9
   .byte  196,129,121,16,4,152                // vmovupd       (%r8,%r11,4),%xmm0
   .byte  196,67,125,13,201,12                // vblendpd      $0xc,%ymm9,%ymm0,%ymm9
-  .byte  233,203,254,255,255                 // jmpq          cbae <_sk_load_bgra_avx+0x26>
+  .byte  233,203,254,255,255                 // jmpq          141ea <_sk_load_bgra_avx+0x26>
   .byte  144                                 // nop
-  .byte  120,255                             // js            cce5 <_sk_load_bgra_avx+0x15d>
+  .byte  120,255                             // js            14321 <_sk_load_bgra_avx+0x15d>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,131             // lcall         *-0x7c000001(%rcx)
   .byte  255                                 // (bad)
@@ -22039,12 +29165,12 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,135,0,0,0                    // jne           cda7 <_sk_load_bgra_dst_avx+0xa7>
+  .byte  15,133,135,0,0,0                    // jne           143e3 <_sk_load_bgra_dst_avx+0xa7>
   .byte  196,1,125,16,12,152                 // vmovupd       (%r8,%r11,4),%ymm9
-  .byte  197,125,40,21,242,227,1,0           // vmovapd       0x1e3f2(%rip),%ymm10        # 2b120 <_sk_srcover_rgba_8888_sse2_lowp+0x6e0>
+  .byte  197,125,40,21,54,228,1,0            // vmovapd       0x1e436(%rip),%ymm10        # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
   .byte  196,193,53,84,234                   // vandpd        %ymm10,%ymm9,%ymm5
   .byte  197,252,91,237                      // vcvtdq2ps     %ymm5,%ymm5
-  .byte  196,98,125,24,5,188,229,1,0         // vbroadcastss  0x1e5bc(%rip),%ymm8        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,5,0,230,1,0           // vbroadcastss  0x1e600(%rip),%ymm8        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,84,89,240                   // vmulps        %ymm8,%ymm5,%ymm6
   .byte  196,193,81,114,209,8                // vpsrld        $0x8,%xmm9,%xmm5
   .byte  196,99,125,25,207,1                 // vextractf128  $0x1,%ymm9,%xmm7
@@ -22071,21 +29197,21 @@
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  15,135,102,255,255,255              // ja            cd26 <_sk_load_bgra_dst_avx+0x26>
+  .byte  15,135,102,255,255,255              // ja            14362 <_sk_load_bgra_dst_avx+0x26>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # ce5c <_sk_load_bgra_dst_avx+0x15c>
+  .byte  76,141,21,145,0,0,0                 // lea           0x91(%rip),%r10        # 14498 <_sk_load_bgra_dst_avx+0x15c>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,122,16,12,152                 // vmovss        (%r8,%r11,4),%xmm9
-  .byte  233,71,255,255,255                  // jmpq          cd26 <_sk_load_bgra_dst_avx+0x26>
+  .byte  233,71,255,255,255                  // jmpq          14362 <_sk_load_bgra_dst_avx+0x26>
   .byte  196,129,121,110,100,152,8           // vmovd         0x8(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  197,212,87,237                      // vxorps        %ymm5,%ymm5,%ymm5
   .byte  196,99,85,12,204,4                  // vblendps      $0x4,%ymm4,%ymm5,%ymm9
   .byte  196,129,123,16,36,152               // vmovsd        (%r8,%r11,4),%xmm4
   .byte  196,99,53,13,204,1                  // vblendpd      $0x1,%ymm4,%ymm9,%ymm9
-  .byte  233,32,255,255,255                  // jmpq          cd26 <_sk_load_bgra_dst_avx+0x26>
+  .byte  233,32,255,255,255                  // jmpq          14362 <_sk_load_bgra_dst_avx+0x26>
   .byte  196,129,121,110,100,152,24          // vmovd         0x18(%r8,%r11,4),%xmm4
   .byte  197,249,112,228,68                  // vpshufd       $0x44,%xmm4,%xmm4
   .byte  196,227,125,24,228,1                // vinsertf128   $0x1,%xmm4,%ymm0,%ymm4
@@ -22099,9 +29225,9 @@
   .byte  196,99,53,24,204,1                  // vinsertf128   $0x1,%xmm4,%ymm9,%ymm9
   .byte  196,129,121,16,36,152               // vmovupd       (%r8,%r11,4),%xmm4
   .byte  196,67,93,13,201,12                 // vblendpd      $0xc,%ymm9,%ymm4,%ymm9
-  .byte  233,203,254,255,255                 // jmpq          cd26 <_sk_load_bgra_dst_avx+0x26>
+  .byte  233,203,254,255,255                 // jmpq          14362 <_sk_load_bgra_dst_avx+0x26>
   .byte  144                                 // nop
-  .byte  120,255                             // js            ce5d <_sk_load_bgra_dst_avx+0x15d>
+  .byte  120,255                             // js            14499 <_sk_load_bgra_dst_avx+0x15d>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,131             // lcall         *-0x7c000001(%rcx)
   .byte  255                                 // (bad)
@@ -22179,10 +29305,10 @@
   .byte  196,131,121,34,4,176,2              // vpinsrd       $0x2,(%r8,%r14,4),%xmm0,%xmm0
   .byte  196,195,121,34,28,152,3             // vpinsrd       $0x3,(%r8,%rbx,4),%xmm0,%xmm3
   .byte  196,227,61,24,195,1                 // vinsertf128   $0x1,%xmm3,%ymm8,%ymm0
-  .byte  197,124,40,13,196,225,1,0           // vmovaps       0x1e1c4(%rip),%ymm9        # 2b140 <_sk_srcover_rgba_8888_sse2_lowp+0x700>
+  .byte  197,124,40,13,8,226,1,0             // vmovaps       0x1e208(%rip),%ymm9        # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
   .byte  196,193,124,84,193                  // vandps        %ymm9,%ymm0,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,21,110,227,1,0        // vbroadcastss  0x1e36e(%rip),%ymm10        # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+  .byte  196,98,125,24,21,178,227,1,0        // vbroadcastss  0x1e3b2(%rip),%ymm10        # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
   .byte  196,193,124,89,210                  // vmulps        %ymm10,%ymm0,%ymm2
   .byte  196,193,121,114,208,8               // vpsrld        $0x8,%xmm8,%xmm0
   .byte  197,241,114,211,8                   // vpsrld        $0x8,%xmm3,%xmm1
@@ -22219,7 +29345,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,218                           // movslq        %edx,%r11
-  .byte  196,98,125,24,5,158,226,1,0         // vbroadcastss  0x1e29e(%rip),%ymm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  196,98,125,24,5,226,226,1,0         // vbroadcastss  0x1e2e2(%rip),%ymm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  196,65,108,89,200                   // vmulps        %ymm8,%ymm2,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,65,116,89,208                   // vmulps        %ymm8,%ymm1,%ymm10
@@ -22244,7 +29370,7 @@
   .byte  196,65,45,86,192                    // vorpd         %ymm8,%ymm10,%ymm8
   .byte  196,65,53,86,192                    // vorpd         %ymm8,%ymm9,%ymm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           d0a4 <_sk_store_bgra_avx+0xae>
+  .byte  117,10                              // jne           146e0 <_sk_store_bgra_avx+0xae>
   .byte  196,1,124,17,4,152                  // vmovups       %ymm8,(%r8,%r11,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -22252,17 +29378,17 @@
   .byte  65,128,225,7                        // and           $0x7,%r9b
   .byte  65,254,201                          // dec           %r9b
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,236                             // ja            d0a0 <_sk_store_bgra_avx+0xaa>
+  .byte  119,236                             // ja            146dc <_sk_store_bgra_avx+0xaa>
   .byte  69,15,182,201                       // movzbl        %r9b,%r9d
-  .byte  76,141,21,85,0,0,0                  // lea           0x55(%rip),%r10        # d114 <_sk_store_bgra_avx+0x11e>
+  .byte  76,141,21,85,0,0,0                  // lea           0x55(%rip),%r10        # 14750 <_sk_store_bgra_avx+0x11e>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,1,121,126,4,152                 // vmovd         %xmm8,(%r8,%r11,4)
-  .byte  235,208                             // jmp           d0a0 <_sk_store_bgra_avx+0xaa>
+  .byte  235,208                             // jmp           146dc <_sk_store_bgra_avx+0xaa>
   .byte  196,3,121,22,68,152,8,2             // vpextrd       $0x2,%xmm8,0x8(%r8,%r11,4)
   .byte  196,1,121,214,4,152                 // vmovq         %xmm8,(%r8,%r11,4)
-  .byte  235,192                             // jmp           d0a0 <_sk_store_bgra_avx+0xaa>
+  .byte  235,192                             // jmp           146dc <_sk_store_bgra_avx+0xaa>
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,3,121,22,76,152,24,2            // vpextrd       $0x2,%xmm9,0x18(%r8,%r11,4)
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
@@ -22270,7 +29396,7 @@
   .byte  196,67,125,25,193,1                 // vextractf128  $0x1,%ymm8,%xmm9
   .byte  196,1,122,17,76,152,16              // vmovss        %xmm9,0x10(%r8,%r11,4)
   .byte  196,1,121,17,4,152                  // vmovupd       %xmm8,(%r8,%r11,4)
-  .byte  235,143                             // jmp           d0a0 <_sk_store_bgra_avx+0xaa>
+  .byte  235,143                             // jmp           146dc <_sk_store_bgra_avx+0xaa>
   .byte  15,31,0                             // nopl          (%rax)
   .byte  180,255                             // mov           $0xff,%ah
   .byte  255                                 // (bad)
@@ -22282,7 +29408,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,255,255,255,218                 // callq         ffffffffdb00d128 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe26e8>
+  .byte  232,255,255,255,218                 // callq         ffffffffdb014764 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe26e8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,204                             // dec           %esp
@@ -22307,7 +29433,7 @@
   .byte  197,252,17,116,36,192               // vmovups       %ymm6,-0x40(%rsp)
   .byte  197,252,17,108,36,160               // vmovups       %ymm5,-0x60(%rsp)
   .byte  197,252,17,100,36,128               // vmovups       %ymm4,-0x80(%rsp)
-  .byte  15,133,31,2,0,0                     // jne           d38b <_sk_load_f16_avx+0x25b>
+  .byte  15,133,31,2,0,0                     // jne           149c7 <_sk_load_f16_avx+0x25b>
   .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
   .byte  196,193,121,16,84,192,16            // vmovupd       0x10(%r8,%rax,8),%xmm2
   .byte  196,193,121,16,92,192,32            // vmovupd       0x20(%r8,%rax,8),%xmm3
@@ -22324,14 +29450,14 @@
   .byte  196,226,121,51,200                  // vpmovzxwd     %xmm0,%xmm1
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
-  .byte  197,123,18,21,179,234,1,0           // vmovddup      0x1eab3(%rip),%xmm10        # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+  .byte  197,123,18,21,247,234,1,0           // vmovddup      0x1eaf7(%rip),%xmm10        # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
   .byte  196,193,121,219,218                 // vpand         %xmm10,%xmm0,%xmm3
-  .byte  196,98,121,24,29,49,226,1,0         // vbroadcastss  0x1e231(%rip),%xmm11        # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+  .byte  196,98,121,24,29,125,226,1,0        // vbroadcastss  0x1e27d(%rip),%xmm11        # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
   .byte  197,33,102,227                      // vpcmpgtd      %xmm3,%xmm11,%xmm12
   .byte  196,193,113,219,210                 // vpand         %xmm10,%xmm1,%xmm2
   .byte  197,33,102,234                      // vpcmpgtd      %xmm2,%xmm11,%xmm13
   .byte  196,195,21,24,252,1                 // vinsertf128   $0x1,%xmm12,%ymm13,%ymm7
-  .byte  197,123,18,37,146,234,1,0           // vmovddup      0x1ea92(%rip),%xmm12        # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+  .byte  197,123,18,37,214,234,1,0           // vmovddup      0x1ead6(%rip),%xmm12        # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
   .byte  196,193,113,219,204                 // vpand         %xmm12,%xmm1,%xmm1
   .byte  197,241,114,241,16                  // vpslld        $0x10,%xmm1,%xmm1
   .byte  196,193,121,219,196                 // vpand         %xmm12,%xmm0,%xmm0
@@ -22340,7 +29466,7 @@
   .byte  197,241,235,202                     // vpor          %xmm2,%xmm1,%xmm1
   .byte  197,233,114,243,13                  // vpslld        $0xd,%xmm3,%xmm2
   .byte  197,249,235,194                     // vpor          %xmm2,%xmm0,%xmm0
-  .byte  196,226,121,24,29,235,225,1,0       // vbroadcastss  0x1e1eb(%rip),%xmm3        # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+  .byte  196,226,121,24,29,55,226,1,0        // vbroadcastss  0x1e237(%rip),%xmm3        # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
   .byte  197,249,254,195                     // vpaddd        %xmm3,%xmm0,%xmm0
   .byte  197,241,254,203                     // vpaddd        %xmm3,%xmm1,%xmm1
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
@@ -22419,29 +29545,29 @@
   .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            d3f1 <_sk_load_f16_avx+0x2c1>
+  .byte  116,85                              // je            14a2d <_sk_load_f16_avx+0x2c1>
   .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            d3f1 <_sk_load_f16_avx+0x2c1>
+  .byte  114,72                              // jb            14a2d <_sk_load_f16_avx+0x2c1>
   .byte  196,193,123,16,84,192,16            // vmovsd        0x10(%r8,%rax,8),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            d3fe <_sk_load_f16_avx+0x2ce>
+  .byte  116,72                              // je            14a3a <_sk_load_f16_avx+0x2ce>
   .byte  196,193,105,22,84,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            d3fe <_sk_load_f16_avx+0x2ce>
+  .byte  114,59                              // jb            14a3a <_sk_load_f16_avx+0x2ce>
   .byte  196,193,123,16,92,192,32            // vmovsd        0x20(%r8,%rax,8),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,179,253,255,255              // je            d187 <_sk_load_f16_avx+0x57>
+  .byte  15,132,179,253,255,255              // je            147c3 <_sk_load_f16_avx+0x57>
   .byte  196,193,97,22,92,192,40             // vmovhpd       0x28(%r8,%rax,8),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,162,253,255,255              // jb            d187 <_sk_load_f16_avx+0x57>
+  .byte  15,130,162,253,255,255              // jb            147c3 <_sk_load_f16_avx+0x57>
   .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
-  .byte  233,150,253,255,255                 // jmpq          d187 <_sk_load_f16_avx+0x57>
+  .byte  233,150,253,255,255                 // jmpq          147c3 <_sk_load_f16_avx+0x57>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,137,253,255,255                 // jmpq          d187 <_sk_load_f16_avx+0x57>
+  .byte  233,137,253,255,255                 // jmpq          147c3 <_sk_load_f16_avx+0x57>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,128,253,255,255                 // jmpq          d187 <_sk_load_f16_avx+0x57>
+  .byte  233,128,253,255,255                 // jmpq          147c3 <_sk_load_f16_avx+0x57>
 
 HIDDEN _sk_load_f16_dst_avx
 .globl _sk_load_f16_dst_avx
@@ -22460,7 +29586,7 @@
   .byte  197,252,17,84,36,192                // vmovups       %ymm2,-0x40(%rsp)
   .byte  197,252,17,76,36,160                // vmovups       %ymm1,-0x60(%rsp)
   .byte  197,252,17,68,36,128                // vmovups       %ymm0,-0x80(%rsp)
-  .byte  15,133,31,2,0,0                     // jne           d662 <_sk_load_f16_dst_avx+0x25b>
+  .byte  15,133,31,2,0,0                     // jne           14c9e <_sk_load_f16_dst_avx+0x25b>
   .byte  196,65,121,16,4,192                 // vmovupd       (%r8,%rax,8),%xmm8
   .byte  196,193,121,16,116,192,16           // vmovupd       0x10(%r8,%rax,8),%xmm6
   .byte  196,193,121,16,124,192,32           // vmovupd       0x20(%r8,%rax,8),%xmm7
@@ -22477,14 +29603,14 @@
   .byte  196,226,121,51,236                  // vpmovzxwd     %xmm4,%xmm5
   .byte  197,249,112,228,78                  // vpshufd       $0x4e,%xmm4,%xmm4
   .byte  196,226,121,51,228                  // vpmovzxwd     %xmm4,%xmm4
-  .byte  197,123,18,21,220,231,1,0           // vmovddup      0x1e7dc(%rip),%xmm10        # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+  .byte  197,123,18,21,32,232,1,0            // vmovddup      0x1e820(%rip),%xmm10        # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
   .byte  196,193,89,219,250                  // vpand         %xmm10,%xmm4,%xmm7
-  .byte  196,98,121,24,29,90,223,1,0         // vbroadcastss  0x1df5a(%rip),%xmm11        # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+  .byte  196,98,121,24,29,166,223,1,0        // vbroadcastss  0x1dfa6(%rip),%xmm11        # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
   .byte  197,33,102,231                      // vpcmpgtd      %xmm7,%xmm11,%xmm12
   .byte  196,193,81,219,242                  // vpand         %xmm10,%xmm5,%xmm6
   .byte  197,33,102,238                      // vpcmpgtd      %xmm6,%xmm11,%xmm13
   .byte  196,195,21,24,220,1                 // vinsertf128   $0x1,%xmm12,%ymm13,%ymm3
-  .byte  197,123,18,37,187,231,1,0           // vmovddup      0x1e7bb(%rip),%xmm12        # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+  .byte  197,123,18,37,255,231,1,0           // vmovddup      0x1e7ff(%rip),%xmm12        # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
   .byte  196,193,81,219,236                  // vpand         %xmm12,%xmm5,%xmm5
   .byte  197,209,114,245,16                  // vpslld        $0x10,%xmm5,%xmm5
   .byte  196,193,89,219,228                  // vpand         %xmm12,%xmm4,%xmm4
@@ -22493,7 +29619,7 @@
   .byte  197,209,235,238                     // vpor          %xmm6,%xmm5,%xmm5
   .byte  197,201,114,247,13                  // vpslld        $0xd,%xmm7,%xmm6
   .byte  197,217,235,230                     // vpor          %xmm6,%xmm4,%xmm4
-  .byte  196,226,121,24,61,20,223,1,0        // vbroadcastss  0x1df14(%rip),%xmm7        # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+  .byte  196,226,121,24,61,96,223,1,0        // vbroadcastss  0x1df60(%rip),%xmm7        # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
   .byte  197,217,254,231                     // vpaddd        %xmm7,%xmm4,%xmm4
   .byte  197,209,254,239                     // vpaddd        %xmm7,%xmm5,%xmm5
   .byte  196,227,85,24,228,1                 // vinsertf128   $0x1,%xmm4,%ymm5,%ymm4
@@ -22572,29 +29698,29 @@
   .byte  196,65,123,16,4,192                 // vmovsd        (%r8,%rax,8),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            d6c8 <_sk_load_f16_dst_avx+0x2c1>
+  .byte  116,85                              // je            14d04 <_sk_load_f16_dst_avx+0x2c1>
   .byte  196,65,57,22,68,192,8               // vmovhpd       0x8(%r8,%rax,8),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            d6c8 <_sk_load_f16_dst_avx+0x2c1>
+  .byte  114,72                              // jb            14d04 <_sk_load_f16_dst_avx+0x2c1>
   .byte  196,193,123,16,116,192,16           // vmovsd        0x10(%r8,%rax,8),%xmm6
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            d6d5 <_sk_load_f16_dst_avx+0x2ce>
+  .byte  116,72                              // je            14d11 <_sk_load_f16_dst_avx+0x2ce>
   .byte  196,193,73,22,116,192,24            // vmovhpd       0x18(%r8,%rax,8),%xmm6,%xmm6
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            d6d5 <_sk_load_f16_dst_avx+0x2ce>
+  .byte  114,59                              // jb            14d11 <_sk_load_f16_dst_avx+0x2ce>
   .byte  196,193,123,16,124,192,32           // vmovsd        0x20(%r8,%rax,8),%xmm7
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,179,253,255,255              // je            d45e <_sk_load_f16_dst_avx+0x57>
+  .byte  15,132,179,253,255,255              // je            14a9a <_sk_load_f16_dst_avx+0x57>
   .byte  196,193,65,22,124,192,40            // vmovhpd       0x28(%r8,%rax,8),%xmm7,%xmm7
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,162,253,255,255              // jb            d45e <_sk_load_f16_dst_avx+0x57>
+  .byte  15,130,162,253,255,255              // jb            14a9a <_sk_load_f16_dst_avx+0x57>
   .byte  196,65,122,126,76,192,48            // vmovq         0x30(%r8,%rax,8),%xmm9
-  .byte  233,150,253,255,255                 // jmpq          d45e <_sk_load_f16_dst_avx+0x57>
+  .byte  233,150,253,255,255                 // jmpq          14a9a <_sk_load_f16_dst_avx+0x57>
   .byte  197,193,87,255                      // vxorpd        %xmm7,%xmm7,%xmm7
   .byte  197,201,87,246                      // vxorpd        %xmm6,%xmm6,%xmm6
-  .byte  233,137,253,255,255                 // jmpq          d45e <_sk_load_f16_dst_avx+0x57>
+  .byte  233,137,253,255,255                 // jmpq          14a9a <_sk_load_f16_dst_avx+0x57>
   .byte  197,193,87,255                      // vxorpd        %xmm7,%xmm7,%xmm7
-  .byte  233,128,253,255,255                 // jmpq          d45e <_sk_load_f16_dst_avx+0x57>
+  .byte  233,128,253,255,255                 // jmpq          14a9a <_sk_load_f16_dst_avx+0x57>
 
 HIDDEN _sk_gather_f16_avx
 .globl _sk_gather_f16_avx
@@ -22673,14 +29799,14 @@
   .byte  196,226,121,51,208                  // vpmovzxwd     %xmm0,%xmm2
   .byte  197,249,112,192,78                  // vpshufd       $0x4e,%xmm0,%xmm0
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
-  .byte  197,123,18,29,66,228,1,0            // vmovddup      0x1e442(%rip),%xmm11        # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+  .byte  197,123,18,29,134,228,1,0           // vmovddup      0x1e486(%rip),%xmm11        # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
   .byte  196,193,121,219,219                 // vpand         %xmm11,%xmm0,%xmm3
-  .byte  196,98,121,24,37,192,219,1,0        // vbroadcastss  0x1dbc0(%rip),%xmm12        # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+  .byte  196,98,121,24,37,12,220,1,0         // vbroadcastss  0x1dc0c(%rip),%xmm12        # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
   .byte  197,25,102,235                      // vpcmpgtd      %xmm3,%xmm12,%xmm13
   .byte  196,193,105,219,203                 // vpand         %xmm11,%xmm2,%xmm1
   .byte  197,25,102,193                      // vpcmpgtd      %xmm1,%xmm12,%xmm8
   .byte  196,67,61,24,197,1                  // vinsertf128   $0x1,%xmm13,%ymm8,%ymm8
-  .byte  197,123,18,45,33,228,1,0            // vmovddup      0x1e421(%rip),%xmm13        # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+  .byte  197,123,18,45,101,228,1,0           // vmovddup      0x1e465(%rip),%xmm13        # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
   .byte  196,193,105,219,213                 // vpand         %xmm13,%xmm2,%xmm2
   .byte  197,233,114,242,16                  // vpslld        $0x10,%xmm2,%xmm2
   .byte  197,241,114,241,13                  // vpslld        $0xd,%xmm1,%xmm1
@@ -22689,7 +29815,7 @@
   .byte  197,249,114,240,16                  // vpslld        $0x10,%xmm0,%xmm0
   .byte  197,233,114,243,13                  // vpslld        $0xd,%xmm3,%xmm2
   .byte  197,249,235,194                     // vpor          %xmm2,%xmm0,%xmm0
-  .byte  196,226,121,24,29,122,219,1,0       // vbroadcastss  0x1db7a(%rip),%xmm3        # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+  .byte  196,226,121,24,29,198,219,1,0       // vbroadcastss  0x1dbc6(%rip),%xmm3        # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
   .byte  197,249,254,195                     // vpaddd        %xmm3,%xmm0,%xmm0
   .byte  197,241,254,203                     // vpaddd        %xmm3,%xmm1,%xmm1
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
@@ -22779,12 +29905,12 @@
   .byte  197,252,17,108,36,192               // vmovups       %ymm5,-0x40(%rsp)
   .byte  197,252,17,100,36,160               // vmovups       %ymm4,-0x60(%rsp)
   .byte  197,252,40,225                      // vmovaps       %ymm1,%ymm4
-  .byte  196,98,125,24,5,184,217,1,0         // vbroadcastss  0x1d9b8(%rip),%ymm8        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,5,252,217,1,0         // vbroadcastss  0x1d9fc(%rip),%ymm8        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,65,124,84,216                   // vandps        %ymm8,%ymm0,%ymm11
-  .byte  196,98,125,24,21,214,217,1,0        // vbroadcastss  0x1d9d6(%rip),%ymm10        # 2b40c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+  .byte  196,98,125,24,21,34,218,1,0         // vbroadcastss  0x1da22(%rip),%ymm10        # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
   .byte  196,65,124,84,226                   // vandps        %ymm10,%ymm0,%ymm12
   .byte  196,67,125,25,229,1                 // vextractf128  $0x1,%ymm12,%xmm13
-  .byte  196,98,121,24,13,198,217,1,0        // vbroadcastss  0x1d9c6(%rip),%xmm9        # 2b410 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+  .byte  196,98,121,24,13,18,218,1,0         // vbroadcastss  0x1da12(%rip),%xmm9        # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
   .byte  196,65,49,102,245                   // vpcmpgtd      %xmm13,%xmm9,%xmm14
   .byte  196,65,49,102,252                   // vpcmpgtd      %xmm12,%xmm9,%xmm15
   .byte  196,67,5,24,246,1                   // vinsertf128   $0x1,%xmm14,%ymm15,%ymm14
@@ -22795,7 +29921,7 @@
   .byte  196,65,17,254,239                   // vpaddd        %xmm15,%xmm13,%xmm13
   .byte  196,193,25,114,212,13               // vpsrld        $0xd,%xmm12,%xmm12
   .byte  196,65,25,254,227                   // vpaddd        %xmm11,%xmm12,%xmm12
-  .byte  196,98,121,24,29,137,217,1,0        // vbroadcastss  0x1d989(%rip),%xmm11        # 2b414 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+  .byte  196,98,121,24,29,213,217,1,0        // vbroadcastss  0x1d9d5(%rip),%xmm11        # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
   .byte  196,65,17,254,235                   // vpaddd        %xmm11,%xmm13,%xmm13
   .byte  196,65,25,254,227                   // vpaddd        %xmm11,%xmm12,%xmm12
   .byte  196,67,29,24,237,1                  // vinsertf128   $0x1,%xmm13,%ymm12,%ymm13
@@ -22878,7 +30004,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,68                              // jne           dc62 <_sk_store_f16_avx+0x262>
+  .byte  117,68                              // jne           1529e <_sk_store_f16_avx+0x262>
   .byte  196,65,122,127,28,192               // vmovdqu       %xmm11,(%r8,%rax,8)
   .byte  196,65,122,127,84,192,16            // vmovdqu       %xmm10,0x10(%r8,%rax,8)
   .byte  196,65,122,127,76,192,32            // vmovdqu       %xmm9,0x20(%r8,%rax,8)
@@ -22894,22 +30020,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,214,28,192               // vmovq         %xmm11,(%r8,%rax,8)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,203                             // je            dc39 <_sk_store_f16_avx+0x239>
+  .byte  116,203                             // je            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,23,92,192,8              // vmovhpd       %xmm11,0x8(%r8,%rax,8)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,190                             // jb            dc39 <_sk_store_f16_avx+0x239>
+  .byte  114,190                             // jb            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,214,84,192,16            // vmovq         %xmm10,0x10(%r8,%rax,8)
-  .byte  116,181                             // je            dc39 <_sk_store_f16_avx+0x239>
+  .byte  116,181                             // je            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,23,84,192,24             // vmovhpd       %xmm10,0x18(%r8,%rax,8)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,168                             // jb            dc39 <_sk_store_f16_avx+0x239>
+  .byte  114,168                             // jb            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,214,76,192,32            // vmovq         %xmm9,0x20(%r8,%rax,8)
-  .byte  116,159                             // je            dc39 <_sk_store_f16_avx+0x239>
+  .byte  116,159                             // je            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,23,76,192,40             // vmovhpd       %xmm9,0x28(%r8,%rax,8)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,146                             // jb            dc39 <_sk_store_f16_avx+0x239>
+  .byte  114,146                             // jb            15275 <_sk_store_f16_avx+0x239>
   .byte  196,65,121,214,68,192,48            // vmovq         %xmm8,0x30(%r8,%rax,8)
-  .byte  235,137                             // jmp           dc39 <_sk_store_f16_avx+0x239>
+  .byte  235,137                             // jmp           15275 <_sk_store_f16_avx+0x239>
 
 HIDDEN _sk_load_u16_be_avx
 .globl _sk_load_u16_be_avx
@@ -22924,7 +30050,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,12,1,0,0                     // jne           dde3 <_sk_load_u16_be_avx+0x133>
+  .byte  15,133,12,1,0,0                     // jne           1541f <_sk_load_u16_be_avx+0x133>
   .byte  196,65,121,16,4,64                  // vmovupd       (%r8,%rax,2),%xmm8
   .byte  196,193,121,16,84,64,16             // vmovupd       0x10(%r8,%rax,2),%xmm2
   .byte  196,193,121,16,92,64,32             // vmovupd       0x20(%r8,%rax,2),%xmm3
@@ -22946,7 +30072,7 @@
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,13,208,213,1,0        // vbroadcastss  0x1d5d0(%rip),%ymm9        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,98,125,24,13,20,214,1,0         // vbroadcastss  0x1d614(%rip),%ymm9        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,169,109,202                     // vpunpckhqdq   %xmm2,%xmm10,%xmm1
   .byte  197,233,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm2
@@ -22983,29 +30109,29 @@
   .byte  196,65,123,16,4,64                  // vmovsd        (%r8,%rax,2),%xmm8
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,85                              // je            de49 <_sk_load_u16_be_avx+0x199>
+  .byte  116,85                              // je            15485 <_sk_load_u16_be_avx+0x199>
   .byte  196,65,57,22,68,64,8                // vmovhpd       0x8(%r8,%rax,2),%xmm8,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,72                              // jb            de49 <_sk_load_u16_be_avx+0x199>
+  .byte  114,72                              // jb            15485 <_sk_load_u16_be_avx+0x199>
   .byte  196,193,123,16,84,64,16             // vmovsd        0x10(%r8,%rax,2),%xmm2
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  116,72                              // je            de56 <_sk_load_u16_be_avx+0x1a6>
+  .byte  116,72                              // je            15492 <_sk_load_u16_be_avx+0x1a6>
   .byte  196,193,105,22,84,64,24             // vmovhpd       0x18(%r8,%rax,2),%xmm2,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,59                              // jb            de56 <_sk_load_u16_be_avx+0x1a6>
+  .byte  114,59                              // jb            15492 <_sk_load_u16_be_avx+0x1a6>
   .byte  196,193,123,16,92,64,32             // vmovsd        0x20(%r8,%rax,2),%xmm3
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  15,132,198,254,255,255              // je            dcf2 <_sk_load_u16_be_avx+0x42>
+  .byte  15,132,198,254,255,255              // je            1532e <_sk_load_u16_be_avx+0x42>
   .byte  196,193,97,22,92,64,40              // vmovhpd       0x28(%r8,%rax,2),%xmm3,%xmm3
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,130,181,254,255,255              // jb            dcf2 <_sk_load_u16_be_avx+0x42>
+  .byte  15,130,181,254,255,255              // jb            1532e <_sk_load_u16_be_avx+0x42>
   .byte  196,65,122,126,76,64,48             // vmovq         0x30(%r8,%rax,2),%xmm9
-  .byte  233,169,254,255,255                 // jmpq          dcf2 <_sk_load_u16_be_avx+0x42>
+  .byte  233,169,254,255,255                 // jmpq          1532e <_sk_load_u16_be_avx+0x42>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
   .byte  197,233,87,210                      // vxorpd        %xmm2,%xmm2,%xmm2
-  .byte  233,156,254,255,255                 // jmpq          dcf2 <_sk_load_u16_be_avx+0x42>
+  .byte  233,156,254,255,255                 // jmpq          1532e <_sk_load_u16_be_avx+0x42>
   .byte  197,225,87,219                      // vxorpd        %xmm3,%xmm3,%xmm3
-  .byte  233,147,254,255,255                 // jmpq          dcf2 <_sk_load_u16_be_avx+0x42>
+  .byte  233,147,254,255,255                 // jmpq          1532e <_sk_load_u16_be_avx+0x42>
 
 HIDDEN _sk_load_rgb_u16_be_avx
 .globl _sk_load_rgb_u16_be_avx
@@ -23022,7 +30148,7 @@
   .byte  72,141,4,64                         // lea           (%rax,%rax,2),%rax
   .byte  72,193,248,32                       // sar           $0x20,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,253,0,0,0                    // jne           df87 <_sk_load_rgb_u16_be_avx+0x128>
+  .byte  15,133,253,0,0,0                    // jne           155c3 <_sk_load_rgb_u16_be_avx+0x128>
   .byte  196,65,122,111,28,64                // vmovdqu       (%r8,%rax,2),%xmm11
   .byte  196,193,122,111,92,64,12            // vmovdqu       0xc(%r8,%rax,2),%xmm3
   .byte  196,193,122,111,84,64,24            // vmovdqu       0x18(%r8,%rax,2),%xmm2
@@ -23050,7 +30176,7 @@
   .byte  196,226,121,51,192                  // vpmovzxwd     %xmm0,%xmm0
   .byte  196,227,117,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  197,252,91,192                      // vcvtdq2ps     %ymm0,%ymm0
-  .byte  196,98,125,24,13,255,211,1,0        // vbroadcastss  0x1d3ff(%rip),%ymm9        # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+  .byte  196,98,125,24,13,67,212,1,0         // vbroadcastss  0x1d443(%rip),%ymm9        # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
   .byte  196,193,124,89,193                  // vmulps        %ymm9,%ymm0,%ymm0
   .byte  197,185,109,203                     // vpunpckhqdq   %xmm3,%xmm8,%xmm1
   .byte  197,225,113,241,8                   // vpsllw        $0x8,%xmm1,%xmm3
@@ -23072,69 +30198,69 @@
   .byte  197,252,91,210                      // vcvtdq2ps     %ymm2,%ymm2
   .byte  196,193,108,89,209                  // vmulps        %ymm9,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,3,211,1,0         // vbroadcastss  0x1d303(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,71,211,1,0        // vbroadcastss  0x1d347(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,4,64                // vmovd         (%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,92,64,4,2            // vpinsrw       $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,31                              // jne           dfbf <_sk_load_rgb_u16_be_avx+0x160>
+  .byte  117,31                              // jne           155fb <_sk_load_rgb_u16_be_avx+0x160>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
-  .byte  233,0,255,255,255                   // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,0,255,255,255                   // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  196,193,121,110,68,64,6             // vmovd         0x6(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,68,64,10,2           // vpinsrw       $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,48                              // jb            e009 <_sk_load_rgb_u16_be_avx+0x1aa>
+  .byte  114,48                              // jb            15645 <_sk_load_rgb_u16_be_avx+0x1aa>
   .byte  196,193,121,110,68,64,12            // vmovd         0xc(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,92,64,16,2          // vpinsrw       $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  117,48                              // jne           e023 <_sk_load_rgb_u16_be_avx+0x1c4>
+  .byte  117,48                              // jne           1565f <_sk_load_rgb_u16_be_avx+0x1c4>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
-  .byte  233,182,254,255,255                 // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,182,254,255,255                 // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
   .byte  196,65,41,239,210                   // vpxor         %xmm10,%xmm10,%xmm10
   .byte  197,225,239,219                     // vpxor         %xmm3,%xmm3,%xmm3
-  .byte  233,156,254,255,255                 // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,156,254,255,255                 // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  196,193,121,110,68,64,18            // vmovd         0x12(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,65,121,196,84,64,22,2           // vpinsrw       $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,39                              // jb            e064 <_sk_load_rgb_u16_be_avx+0x205>
+  .byte  114,39                              // jb            156a0 <_sk_load_rgb_u16_be_avx+0x205>
   .byte  196,193,121,110,68,64,24            // vmovd         0x18(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,84,64,28,2          // vpinsrw       $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  117,30                              // jne           e075 <_sk_load_rgb_u16_be_avx+0x216>
+  .byte  117,30                              // jne           156b1 <_sk_load_rgb_u16_be_avx+0x216>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
-  .byte  233,91,254,255,255                  // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,91,254,255,255                  // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  197,241,239,201                     // vpxor         %xmm1,%xmm1,%xmm1
   .byte  197,233,239,210                     // vpxor         %xmm2,%xmm2,%xmm2
-  .byte  233,74,254,255,255                  // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,74,254,255,255                  // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  196,193,121,110,68,64,30            // vmovd         0x1e(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,76,64,34,2          // vpinsrw       $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,25                              // jb            e0a8 <_sk_load_rgb_u16_be_avx+0x249>
+  .byte  114,25                              // jb            156e4 <_sk_load_rgb_u16_be_avx+0x249>
   .byte  196,193,121,110,68,64,36            // vmovd         0x24(%r8,%rax,2),%xmm0
   .byte  196,65,49,239,201                   // vpxor         %xmm9,%xmm9,%xmm9
   .byte  196,193,121,196,68,64,40,2          // vpinsrw       $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
-  .byte  233,23,254,255,255                  // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,23,254,255,255                  // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
-  .byte  233,14,254,255,255                  // jmpq          debf <_sk_load_rgb_u16_be_avx+0x60>
+  .byte  233,14,254,255,255                  // jmpq          154fb <_sk_load_rgb_u16_be_avx+0x60>
 
 HIDDEN _sk_store_u16_be_avx
 .globl _sk_store_u16_be_avx
@@ -23148,7 +30274,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
-  .byte  196,98,125,24,5,200,210,1,0         // vbroadcastss  0x1d2c8(%rip),%ymm8        # 2b3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+  .byte  196,98,125,24,5,12,211,1,0          // vbroadcastss  0x1d30c(%rip),%ymm8        # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
   .byte  196,65,124,89,200                   // vmulps        %ymm8,%ymm0,%ymm9
   .byte  196,65,125,91,201                   // vcvtps2dq     %ymm9,%ymm9
   .byte  196,67,125,25,202,1                 // vextractf128  $0x1,%ymm9,%xmm10
@@ -23186,7 +30312,7 @@
   .byte  196,65,17,98,200                    // vpunpckldq    %xmm8,%xmm13,%xmm9
   .byte  196,65,17,106,192                   // vpunpckhdq    %xmm8,%xmm13,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,31                              // jne           e1bc <_sk_store_u16_be_avx+0x10b>
+  .byte  117,31                              // jne           157f8 <_sk_store_u16_be_avx+0x10b>
   .byte  196,65,122,127,28,64                // vmovdqu       %xmm11,(%r8,%rax,2)
   .byte  196,65,122,127,84,64,16             // vmovdqu       %xmm10,0x10(%r8,%rax,2)
   .byte  196,65,122,127,76,64,32             // vmovdqu       %xmm9,0x20(%r8,%rax,2)
@@ -23195,22 +30321,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,214,28,64                // vmovq         %xmm11,(%r8,%rax,2)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  116,240                             // je            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,23,92,64,8               // vmovhpd       %xmm11,0x8(%r8,%rax,2)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  114,227                             // jb            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,214,84,64,16             // vmovq         %xmm10,0x10(%r8,%rax,2)
-  .byte  116,218                             // je            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  116,218                             // je            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,23,84,64,24              // vmovhpd       %xmm10,0x18(%r8,%rax,2)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,205                             // jb            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  114,205                             // jb            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,214,76,64,32             // vmovq         %xmm9,0x20(%r8,%rax,2)
-  .byte  116,196                             // je            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  116,196                             // je            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,23,76,64,40              // vmovhpd       %xmm9,0x28(%r8,%rax,2)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,183                             // jb            e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  114,183                             // jb            157f4 <_sk_store_u16_be_avx+0x107>
   .byte  196,65,121,214,68,64,48             // vmovq         %xmm8,0x30(%r8,%rax,2)
-  .byte  235,174                             // jmp           e1b8 <_sk_store_u16_be_avx+0x107>
+  .byte  235,174                             // jmp           157f4 <_sk_store_u16_be_avx+0x107>
 
 HIDDEN _sk_load_f32_avx
 .globl _sk_load_f32_avx
@@ -23219,7 +30345,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,253,87,192                      // vxorpd        %ymm0,%ymm0,%ymm0
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,135,97,1,0,0                     // ja            e37b <_sk_load_f32_avx+0x171>
+  .byte  15,135,97,1,0,0                     // ja            159b7 <_sk_load_f32_avx+0x171>
   .byte  72,131,236,24                       // sub           $0x18,%rsp
   .byte  197,253,17,100,36,128               // vmovupd       %ymm4,-0x80(%rsp)
   .byte  197,253,17,108,36,160               // vmovupd       %ymm5,-0x60(%rsp)
@@ -23232,7 +30358,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  77,99,201                           // movslq        %r9d,%r9
-  .byte  76,141,21,50,1,0,0                  // lea           0x132(%rip),%r10        # e38c <_sk_load_f32_avx+0x182>
+  .byte  76,141,21,50,1,0,0                  // lea           0x132(%rip),%r10        # 159c8 <_sk_load_f32_avx+0x182>
   .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  197,221,87,228                      // vxorpd        %ymm4,%ymm4,%ymm4
@@ -23295,7 +30421,7 @@
   .byte  197,229,87,219                      // vxorpd        %ymm3,%ymm3,%ymm3
   .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
   .byte  197,245,87,201                      // vxorpd        %ymm1,%ymm1,%ymm1
-  .byte  235,203                             // jmp           e355 <_sk_load_f32_avx+0x14b>
+  .byte  235,203                             // jmp           15991 <_sk_load_f32_avx+0x14b>
   .byte  102,144                             // xchg          %ax,%ax
   .byte  27,255                              // sbb           %edi,%edi
   .byte  255                                 // (bad)
@@ -23307,7 +30433,7 @@
   .byte  255,92,255,255                      // lcall         *-0x1(%rdi,%rdi,8)
   .byte  255,70,255                          // incl          -0x1(%rsi)
   .byte  255                                 // (bad)
-  .byte  255,53,255,255,255,40               // pushq         0x28ffffff(%rip)        # 2900e3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3968>
+  .byte  255,53,255,255,255,40               // pushq         0x28ffffff(%rip)        # 290159e4 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3968>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // .byte         0xff
@@ -23319,7 +30445,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,221,87,228                      // vxorpd        %ymm4,%ymm4,%ymm4
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  15,135,97,1,0,0                     // ja            e51d <_sk_load_f32_dst_avx+0x171>
+  .byte  15,135,97,1,0,0                     // ja            15b59 <_sk_load_f32_dst_avx+0x171>
   .byte  72,131,236,24                       // sub           $0x18,%rsp
   .byte  197,253,17,68,36,128                // vmovupd       %ymm0,-0x80(%rsp)
   .byte  197,253,17,76,36,160                // vmovupd       %ymm1,-0x60(%rsp)
@@ -23332,7 +30458,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  77,99,201                           // movslq        %r9d,%r9
-  .byte  76,141,21,48,1,0,0                  // lea           0x130(%rip),%r10        # e52c <_sk_load_f32_dst_avx+0x180>
+  .byte  76,141,21,48,1,0,0                  // lea           0x130(%rip),%r10        # 15b68 <_sk_load_f32_dst_avx+0x180>
   .byte  73,99,4,186                         // movslq        (%r10,%rdi,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  197,253,87,192                      // vxorpd        %ymm0,%ymm0,%ymm0
@@ -23395,7 +30521,7 @@
   .byte  197,197,87,255                      // vxorpd        %ymm7,%ymm7,%ymm7
   .byte  196,65,45,87,210                    // vxorpd        %ymm10,%ymm10,%ymm10
   .byte  197,213,87,237                      // vxorpd        %ymm5,%ymm5,%ymm5
-  .byte  235,203                             // jmp           e4f7 <_sk_load_f32_dst_avx+0x14b>
+  .byte  235,203                             // jmp           15b33 <_sk_load_f32_dst_avx+0x14b>
   .byte  29,255,255,255,163                  // sbb           $0xa3ffffff,%eax
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
@@ -23435,7 +30561,7 @@
   .byte  196,65,37,20,196                    // vunpcklpd     %ymm12,%ymm11,%ymm8
   .byte  196,65,37,21,220                    // vunpckhpd     %ymm12,%ymm11,%ymm11
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,55                              // jne           e5cb <_sk_store_f32_avx+0x7f>
+  .byte  117,55                              // jne           15c07 <_sk_store_f32_avx+0x7f>
   .byte  196,67,45,24,225,1                  // vinsertf128   $0x1,%xmm9,%ymm10,%ymm12
   .byte  196,67,61,24,235,1                  // vinsertf128   $0x1,%xmm11,%ymm8,%ymm13
   .byte  196,67,45,6,201,49                  // vperm2f128    $0x31,%ymm9,%ymm10,%ymm9
@@ -23448,22 +30574,22 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,17,20,128                // vmovupd       %xmm10,(%r8,%rax,4)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  116,240                             // je            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,65,121,17,76,128,16             // vmovupd       %xmm9,0x10(%r8,%rax,4)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  114,227                             // jb            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,65,121,17,68,128,32             // vmovupd       %xmm8,0x20(%r8,%rax,4)
-  .byte  116,218                             // je            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  116,218                             // je            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,65,121,17,92,128,48             // vmovupd       %xmm11,0x30(%r8,%rax,4)
   .byte  72,131,255,5                        // cmp           $0x5,%rdi
-  .byte  114,205                             // jb            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  114,205                             // jb            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,67,125,25,84,128,64,1           // vextractf128  $0x1,%ymm10,0x40(%r8,%rax,4)
-  .byte  116,195                             // je            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  116,195                             // je            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,67,125,25,76,128,80,1           // vextractf128  $0x1,%ymm9,0x50(%r8,%rax,4)
   .byte  72,131,255,7                        // cmp           $0x7,%rdi
-  .byte  114,181                             // jb            e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  114,181                             // jb            15c03 <_sk_store_f32_avx+0x7b>
   .byte  196,67,125,25,68,128,96,1           // vextractf128  $0x1,%ymm8,0x60(%r8,%rax,4)
-  .byte  235,171                             // jmp           e5c7 <_sk_store_f32_avx+0x7b>
+  .byte  235,171                             // jmp           15c03 <_sk_store_f32_avx+0x7b>
 
 HIDDEN _sk_repeat_x_avx
 .globl _sk_repeat_x_avx
@@ -23506,7 +30632,7 @@
   .byte  196,193,58,88,192                   // vaddss        %xmm8,%xmm8,%xmm0
   .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
   .byte  196,99,125,24,192,1                 // vinsertf128   $0x1,%xmm0,%ymm0,%ymm8
-  .byte  197,178,89,5,233,203,1,0            // vmulss        0x1cbe9(%rip),%xmm9,%xmm0        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,178,89,5,45,204,1,0             // vmulss        0x1cc2d(%rip),%xmm9,%xmm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,164,89,192                      // vmulps        %ymm0,%ymm11,%ymm0
@@ -23533,7 +30659,7 @@
   .byte  196,193,58,88,200                   // vaddss        %xmm8,%xmm8,%xmm1
   .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
   .byte  196,99,117,24,193,1                 // vinsertf128   $0x1,%xmm1,%ymm1,%ymm8
-  .byte  197,178,89,13,127,203,1,0           // vmulss        0x1cb7f(%rip),%xmm9,%xmm1        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,178,89,13,195,203,1,0           // vmulss        0x1cbc3(%rip),%xmm9,%xmm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,227,121,4,201,0                 // vpermilps     $0x0,%xmm1,%xmm1
   .byte  196,227,117,24,201,1                // vinsertf128   $0x1,%xmm1,%ymm1,%ymm1
   .byte  197,164,89,201                      // vmulps        %ymm1,%ymm11,%ymm1
@@ -23553,7 +30679,7 @@
 _sk_clamp_x_1_avx:
   .byte  196,65,60,87,192                    // vxorps        %ymm8,%ymm8,%ymm8
   .byte  197,188,95,192                      // vmaxps        %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,24,5,60,203,1,0          // vbroadcastss  0x1cb3c(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,128,203,1,0         // vbroadcastss  0x1cb80(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  196,193,124,93,192                  // vminps        %ymm8,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -23571,9 +30697,9 @@
 .globl _sk_mirror_x_1_avx
 FUNCTION(_sk_mirror_x_1_avx)
 _sk_mirror_x_1_avx:
-  .byte  196,98,125,24,5,51,203,1,0          // vbroadcastss  0x1cb33(%rip),%ymm8        # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+  .byte  196,98,125,24,5,119,203,1,0         // vbroadcastss  0x1cb77(%rip),%ymm8        # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
   .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,13,9,203,1,0          // vbroadcastss  0x1cb09(%rip),%ymm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,13,77,203,1,0         // vbroadcastss  0x1cb4d(%rip),%ymm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,124,89,201                   // vmulps        %ymm9,%ymm0,%ymm9
   .byte  196,67,125,8,201,1                  // vroundps      $0x1,%ymm9,%ymm9
   .byte  196,65,52,88,201                    // vaddps        %ymm9,%ymm9,%ymm9
@@ -23589,12 +30715,12 @@
 .globl _sk_luminance_to_alpha_avx
 FUNCTION(_sk_luminance_to_alpha_avx)
 _sk_luminance_to_alpha_avx:
-  .byte  196,226,125,24,29,245,203,1,0       // vbroadcastss  0x1cbf5(%rip),%ymm3        # 2b3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+  .byte  196,226,125,24,29,61,204,1,0        // vbroadcastss  0x1cc3d(%rip),%ymm3        # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
-  .byte  196,226,125,24,29,236,203,1,0       // vbroadcastss  0x1cbec(%rip),%ymm3        # 2b3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+  .byte  196,226,125,24,29,44,204,1,0        // vbroadcastss  0x1cc2c(%rip),%ymm3        # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
   .byte  197,244,89,203                      // vmulps        %ymm3,%ymm1,%ymm1
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
-  .byte  196,226,125,24,13,223,203,1,0       // vbroadcastss  0x1cbdf(%rip),%ymm1        # 2b3ac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+  .byte  196,226,125,24,13,35,204,1,0        // vbroadcastss  0x1cc23(%rip),%ymm1        # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
   .byte  197,236,89,201                      // vmulps        %ymm1,%ymm2,%ymm1
   .byte  197,252,88,217                      // vaddps        %ymm1,%ymm0,%ymm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -23842,9 +30968,9 @@
   .byte  72,139,24                           // mov           (%rax),%rbx
   .byte  72,139,104,8                        // mov           0x8(%rax),%rbp
   .byte  72,255,203                          // dec           %rbx
-  .byte  120,7                               // js            eb71 <_sk_evenly_spaced_gradient_avx+0x25>
+  .byte  120,7                               // js            161ad <_sk_evenly_spaced_gradient_avx+0x25>
   .byte  196,225,242,42,203                  // vcvtsi2ss     %rbx,%xmm1,%xmm1
-  .byte  235,21                              // jmp           eb86 <_sk_evenly_spaced_gradient_avx+0x3a>
+  .byte  235,21                              // jmp           161c2 <_sk_evenly_spaced_gradient_avx+0x3a>
   .byte  73,137,216                          // mov           %rbx,%r8
   .byte  73,209,232                          // shr           %r8
   .byte  131,227,1                           // and           $0x1,%ebx
@@ -24002,18 +31128,18 @@
 .globl _sk_gauss_a_to_rgba_avx
 FUNCTION(_sk_gauss_a_to_rgba_avx)
 _sk_gauss_a_to_rgba_avx:
-  .byte  196,226,125,24,5,250,196,1,0        // vbroadcastss  0x1c4fa(%rip),%ymm0        # 2b3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+  .byte  196,226,125,24,5,58,197,1,0         // vbroadcastss  0x1c53a(%rip),%ymm0        # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
   .byte  197,228,89,192                      // vmulps        %ymm0,%ymm3,%ymm0
-  .byte  196,226,125,24,13,233,196,1,0       // vbroadcastss  0x1c4e9(%rip),%ymm1        # 2b3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+  .byte  196,226,125,24,13,49,197,1,0        // vbroadcastss  0x1c531(%rip),%ymm1        # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
-  .byte  196,226,125,24,13,224,196,1,0       // vbroadcastss  0x1c4e0(%rip),%ymm1        # 2b3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+  .byte  196,226,125,24,13,36,197,1,0        // vbroadcastss  0x1c524(%rip),%ymm1        # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
-  .byte  196,226,125,24,13,211,196,1,0       // vbroadcastss  0x1c4d3(%rip),%ymm1        # 2b3bc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+  .byte  196,226,125,24,13,23,197,1,0        // vbroadcastss  0x1c517(%rip),%ymm1        # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  197,252,89,195                      // vmulps        %ymm3,%ymm0,%ymm0
-  .byte  196,226,125,24,13,198,196,1,0       // vbroadcastss  0x1c4c6(%rip),%ymm1        # 2b3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+  .byte  196,226,125,24,13,10,197,1,0        // vbroadcastss  0x1c50a(%rip),%ymm1        # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
   .byte  197,252,88,193                      // vaddps        %ymm1,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,252,40,200                      // vmovaps       %ymm0,%ymm1
@@ -24035,12 +31161,12 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  73,131,248,2                        // cmp           $0x2,%r8
-  .byte  114,81                              // jb            ef7d <_sk_gradient_avx+0x6f>
+  .byte  114,81                              // jb            165b9 <_sk_gradient_avx+0x6f>
   .byte  72,139,88,72                        // mov           0x48(%rax),%rbx
   .byte  73,255,200                          // dec           %r8
   .byte  72,131,195,4                        // add           $0x4,%rbx
   .byte  196,65,52,87,201                    // vxorps        %ymm9,%ymm9,%ymm9
-  .byte  196,98,125,24,21,71,195,1,0         // vbroadcastss  0x1c347(%rip),%ymm10        # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+  .byte  196,98,125,24,21,139,195,1,0        // vbroadcastss  0x1c38b(%rip),%ymm10        # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  196,98,125,24,3                     // vbroadcastss  (%rbx),%ymm8
   .byte  197,60,194,192,2                    // vcmpleps      %ymm0,%ymm8,%ymm8
@@ -24052,7 +31178,7 @@
   .byte  196,227,117,24,202,1                // vinsertf128   $0x1,%xmm2,%ymm1,%ymm1
   .byte  72,131,195,4                        // add           $0x4,%rbx
   .byte  73,255,200                          // dec           %r8
-  .byte  117,204                             // jne           ef49 <_sk_gradient_avx+0x3b>
+  .byte  117,204                             // jne           16585 <_sk_gradient_avx+0x3b>
   .byte  196,195,249,22,200,1                // vpextrq       $0x1,%xmm1,%r8
   .byte  69,137,193                          // mov           %r8d,%r9d
   .byte  73,193,232,32                       // shr           $0x20,%r8
@@ -24234,27 +31360,27 @@
   .byte  196,65,52,95,226                    // vmaxps        %ymm10,%ymm9,%ymm12
   .byte  196,65,36,94,220                    // vdivps        %ymm12,%ymm11,%ymm11
   .byte  196,65,36,89,227                    // vmulps        %ymm11,%ymm11,%ymm12
-  .byte  196,98,125,24,45,113,192,1,0        // vbroadcastss  0x1c071(%rip),%ymm13        # 2b3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+  .byte  196,98,125,24,45,181,192,1,0        // vbroadcastss  0x1c0b5(%rip),%ymm13        # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
   .byte  196,65,28,89,237                    // vmulps        %ymm13,%ymm12,%ymm13
-  .byte  196,98,125,24,53,103,192,1,0        // vbroadcastss  0x1c067(%rip),%ymm14        # 2b3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+  .byte  196,98,125,24,53,171,192,1,0        // vbroadcastss  0x1c0ab(%rip),%ymm14        # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
   .byte  196,65,20,88,238                    // vaddps        %ymm14,%ymm13,%ymm13
   .byte  196,65,28,89,237                    // vmulps        %ymm13,%ymm12,%ymm13
-  .byte  196,98,125,24,53,88,192,1,0         // vbroadcastss  0x1c058(%rip),%ymm14        # 2b3cc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+  .byte  196,98,125,24,53,156,192,1,0        // vbroadcastss  0x1c09c(%rip),%ymm14        # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
   .byte  196,65,20,88,238                    // vaddps        %ymm14,%ymm13,%ymm13
   .byte  196,65,28,89,229                    // vmulps        %ymm13,%ymm12,%ymm12
-  .byte  196,98,125,24,45,73,192,1,0         // vbroadcastss  0x1c049(%rip),%ymm13        # 2b3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+  .byte  196,98,125,24,45,141,192,1,0        // vbroadcastss  0x1c08d(%rip),%ymm13        # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
   .byte  196,65,28,88,229                    // vaddps        %ymm13,%ymm12,%ymm12
   .byte  196,65,36,89,220                    // vmulps        %ymm12,%ymm11,%ymm11
   .byte  196,65,52,194,202,1                 // vcmpltps      %ymm10,%ymm9,%ymm9
-  .byte  196,98,125,24,21,52,192,1,0         // vbroadcastss  0x1c034(%rip),%ymm10        # 2b3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+  .byte  196,98,125,24,21,120,192,1,0        // vbroadcastss  0x1c078(%rip),%ymm10        # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
   .byte  196,65,44,92,211                    // vsubps        %ymm11,%ymm10,%ymm10
   .byte  196,67,37,74,202,144                // vblendvps     %ymm9,%ymm10,%ymm11,%ymm9
   .byte  196,193,124,194,192,1               // vcmpltps      %ymm8,%ymm0,%ymm0
-  .byte  196,98,125,24,21,202,190,1,0        // vbroadcastss  0x1beca(%rip),%ymm10        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,21,14,191,1,0         // vbroadcastss  0x1bf0e(%rip),%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,44,92,209                    // vsubps        %ymm9,%ymm10,%ymm10
   .byte  196,195,53,74,194,0                 // vblendvps     %ymm0,%ymm10,%ymm9,%ymm0
   .byte  196,65,116,194,200,1                // vcmpltps      %ymm8,%ymm1,%ymm9
-  .byte  196,98,125,24,21,180,190,1,0        // vbroadcastss  0x1beb4(%rip),%ymm10        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,21,248,190,1,0        // vbroadcastss  0x1bef8(%rip),%ymm10        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,44,92,208                       // vsubps        %ymm0,%ymm10,%ymm10
   .byte  196,195,125,74,194,144              // vblendvps     %ymm9,%ymm10,%ymm0,%ymm0
   .byte  196,65,124,194,200,3                // vcmpunordps   %ymm8,%ymm0,%ymm9
@@ -24284,7 +31410,7 @@
   .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
   .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
   .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
-  .byte  196,98,125,24,29,170,191,1,0        // vbroadcastss  0x1bfaa(%rip),%ymm11        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,29,238,191,1,0        // vbroadcastss  0x1bfee(%rip),%ymm11        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
   .byte  197,252,89,192                      // vmulps        %ymm0,%ymm0,%ymm0
   .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
@@ -24293,17 +31419,17 @@
   .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,13,126,191,1,0        // vbroadcastss  0x1bf7e(%rip),%ymm9        # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  196,98,125,24,13,194,191,1,0        // vbroadcastss  0x1bfc2(%rip),%ymm9        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,65,44,89,194                    // vmulps        %ymm10,%ymm10,%ymm8
   .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
   .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
   .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
-  .byte  196,98,125,24,13,92,191,1,0         // vbroadcastss  0x1bf5c(%rip),%ymm9        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,13,160,191,1,0        // vbroadcastss  0x1bfa0(%rip),%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,65,44,87,201                    // vxorps        %ymm9,%ymm10,%ymm9
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,237,189,1,0        // vbroadcastss  0x1bded(%rip),%ymm11        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,29,49,190,1,0         // vbroadcastss  0x1be31(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  196,65,60,89,210                    // vmulps        %ymm10,%ymm8,%ymm10
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
@@ -24323,7 +31449,7 @@
   .byte  196,67,121,4,210,0                  // vpermilps     $0x0,%xmm10,%xmm10
   .byte  196,67,45,24,210,1                  // vinsertf128   $0x1,%xmm10,%ymm10,%ymm10
   .byte  197,44,88,208                       // vaddps        %ymm0,%ymm10,%ymm10
-  .byte  196,98,125,24,29,252,190,1,0        // vbroadcastss  0x1befc(%rip),%ymm11        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,29,64,191,1,0         // vbroadcastss  0x1bf40(%rip),%ymm11        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,44,89,211                    // vmulps        %ymm11,%ymm10,%ymm10
   .byte  197,252,89,192                      // vmulps        %ymm0,%ymm0,%ymm0
   .byte  197,116,89,217                      // vmulps        %ymm1,%ymm1,%ymm11
@@ -24332,17 +31458,17 @@
   .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,164,92,192                      // vsubps        %ymm0,%ymm11,%ymm0
-  .byte  196,98,125,24,13,208,190,1,0        // vbroadcastss  0x1bed0(%rip),%ymm9        # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+  .byte  196,98,125,24,13,20,191,1,0         // vbroadcastss  0x1bf14(%rip),%ymm9        # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
   .byte  197,188,89,192                      // vmulps        %ymm0,%ymm8,%ymm0
   .byte  196,65,44,89,194                    // vmulps        %ymm10,%ymm10,%ymm8
   .byte  196,193,124,88,192                  // vaddps        %ymm8,%ymm0,%ymm0
   .byte  197,252,81,192                      // vsqrtps       %ymm0,%ymm0
   .byte  196,98,125,24,64,36                 // vbroadcastss  0x24(%rax),%ymm8
-  .byte  196,98,125,24,13,174,190,1,0        // vbroadcastss  0x1beae(%rip),%ymm9        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,13,242,190,1,0        // vbroadcastss  0x1bef2(%rip),%ymm9        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,65,44,87,201                    // vxorps        %ymm9,%ymm10,%ymm9
   .byte  196,65,124,92,210                   // vsubps        %ymm10,%ymm0,%ymm10
-  .byte  196,98,125,24,29,63,189,1,0         // vbroadcastss  0x1bd3f(%rip),%ymm11        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,29,131,189,1,0        // vbroadcastss  0x1bd83(%rip),%ymm11        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,60,89,195                    // vmulps        %ymm11,%ymm8,%ymm8
   .byte  196,65,60,89,210                    // vmulps        %ymm10,%ymm8,%ymm10
   .byte  197,180,92,192                      // vsubps        %ymm0,%ymm9,%ymm0
@@ -24361,7 +31487,7 @@
   .byte  196,67,121,4,201,0                  // vpermilps     $0x0,%xmm9,%xmm9
   .byte  196,67,53,24,201,1                  // vinsertf128   $0x1,%xmm9,%ymm9,%ymm9
   .byte  197,52,88,200                       // vaddps        %ymm0,%ymm9,%ymm9
-  .byte  196,98,125,24,21,84,190,1,0         // vbroadcastss  0x1be54(%rip),%ymm10        # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+  .byte  196,98,125,24,21,152,190,1,0        // vbroadcastss  0x1be98(%rip),%ymm10        # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
   .byte  196,65,52,89,202                    // vmulps        %ymm10,%ymm9,%ymm9
   .byte  197,252,89,192                      // vmulps        %ymm0,%ymm0,%ymm0
   .byte  197,116,89,209                      // vmulps        %ymm1,%ymm1,%ymm10
@@ -24370,7 +31496,7 @@
   .byte  196,227,121,4,192,0                 // vpermilps     $0x0,%xmm0,%xmm0
   .byte  196,227,125,24,192,1                // vinsertf128   $0x1,%xmm0,%ymm0,%ymm0
   .byte  197,172,92,192                      // vsubps        %ymm0,%ymm10,%ymm0
-  .byte  196,98,125,24,5,44,190,1,0          // vbroadcastss  0x1be2c(%rip),%ymm8        # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+  .byte  196,98,125,24,5,112,190,1,0         // vbroadcastss  0x1be70(%rip),%ymm8        # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
   .byte  196,193,124,87,192                  // vxorps        %ymm8,%ymm0,%ymm0
   .byte  196,193,124,94,193                  // vdivps        %ymm9,%ymm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24414,7 +31540,7 @@
 FUNCTION(_sk_save_xy_avx)
 _sk_save_xy_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,86,188,1,0          // vbroadcastss  0x1bc56(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,154,188,1,0         // vbroadcastss  0x1bc9a(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,124,88,200                   // vaddps        %ymm8,%ymm0,%ymm9
   .byte  196,67,125,8,209,1                  // vroundps      $0x1,%ymm9,%ymm10
   .byte  196,65,52,92,202                    // vsubps        %ymm10,%ymm9,%ymm9
@@ -24451,9 +31577,9 @@
 FUNCTION(_sk_bilinear_nx_avx)
 _sk_bilinear_nx_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,62,189,1,0         // vbroadcastss  0x1bd3e(%rip),%ymm0        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,5,130,189,1,0        // vbroadcastss  0x1bd82(%rip),%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,213,187,1,0         // vbroadcastss  0x1bbd5(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,25,188,1,0          // vbroadcastss  0x1bc19(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24464,7 +31590,7 @@
 FUNCTION(_sk_bilinear_px_avx)
 _sk_bilinear_px_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,181,187,1,0        // vbroadcastss  0x1bbb5(%rip),%ymm0        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,5,249,187,1,0        // vbroadcastss  0x1bbf9(%rip),%ymm0        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -24476,9 +31602,9 @@
 FUNCTION(_sk_bilinear_ny_avx)
 _sk_bilinear_ny_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,245,188,1,0       // vbroadcastss  0x1bcf5(%rip),%ymm1        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,13,57,189,1,0        // vbroadcastss  0x1bd39(%rip),%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,139,187,1,0         // vbroadcastss  0x1bb8b(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,207,187,1,0         // vbroadcastss  0x1bbcf(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24489,7 +31615,7 @@
 FUNCTION(_sk_bilinear_py_avx)
 _sk_bilinear_py_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,107,187,1,0       // vbroadcastss  0x1bb6b(%rip),%ymm1        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,226,125,24,13,175,187,1,0       // vbroadcastss  0x1bbaf(%rip),%ymm1        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -24501,14 +31627,14 @@
 FUNCTION(_sk_bicubic_n3x_avx)
 _sk_bicubic_n3x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,174,188,1,0        // vbroadcastss  0x1bcae(%rip),%ymm0        # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+  .byte  196,226,125,24,5,242,188,1,0        // vbroadcastss  0x1bcf2(%rip),%ymm0        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,65,187,1,0          // vbroadcastss  0x1bb41(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,133,187,1,0         // vbroadcastss  0x1bb85(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,146,188,1,0        // vbroadcastss  0x1bc92(%rip),%ymm10        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,214,188,1,0        // vbroadcastss  0x1bcd6(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,98,125,24,21,144,187,1,0        // vbroadcastss  0x1bb90(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,212,187,1,0        // vbroadcastss  0x1bbd4(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -24520,19 +31646,19 @@
 FUNCTION(_sk_bicubic_n1x_avx)
 _sk_bicubic_n1x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,91,188,1,0         // vbroadcastss  0x1bc5b(%rip),%ymm0        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,5,159,188,1,0        // vbroadcastss  0x1bc9f(%rip),%ymm0        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
-  .byte  196,98,125,24,5,242,186,1,0         // vbroadcastss  0x1baf2(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,54,187,1,0          // vbroadcastss  0x1bb36(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,64                     // vsubps        0x40(%rax),%ymm8,%ymm8
-  .byte  196,98,125,24,13,80,188,1,0         // vbroadcastss  0x1bc50(%rip),%ymm9        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,13,144,188,1,0        // vbroadcastss  0x1bc90(%rip),%ymm9        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,98,125,24,21,62,188,1,0         // vbroadcastss  0x1bc3e(%rip),%ymm10        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,98,125,24,21,134,188,1,0        // vbroadcastss  0x1bc86(%rip),%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,98,125,24,21,191,186,1,0        // vbroadcastss  0x1babf(%rip),%ymm10        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,21,3,187,1,0          // vbroadcastss  0x1bb03(%rip),%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
-  .byte  196,98,125,24,13,32,188,1,0         // vbroadcastss  0x1bc20(%rip),%ymm9        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,13,100,188,1,0        // vbroadcastss  0x1bc64(%rip),%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24543,17 +31669,17 @@
 FUNCTION(_sk_bicubic_p1x_avx)
 _sk_bicubic_p1x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,144,186,1,0         // vbroadcastss  0x1ba90(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,212,186,1,0         // vbroadcastss  0x1bad4(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,188,88,0                        // vaddps        (%rax),%ymm8,%ymm0
   .byte  197,124,16,72,64                    // vmovups       0x40(%rax),%ymm9
-  .byte  196,98,125,24,21,238,187,1,0        // vbroadcastss  0x1bbee(%rip),%ymm10        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,21,46,188,1,0         // vbroadcastss  0x1bc2e(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
-  .byte  196,98,125,24,29,220,187,1,0        // vbroadcastss  0x1bbdc(%rip),%ymm11        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,98,125,24,29,36,188,1,0         // vbroadcastss  0x1bc24(%rip),%ymm11        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
   .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
-  .byte  196,98,125,24,13,199,187,1,0        // vbroadcastss  0x1bbc7(%rip),%ymm9        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,13,11,188,1,0         // vbroadcastss  0x1bc0b(%rip),%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24564,13 +31690,13 @@
 FUNCTION(_sk_bicubic_p3x_avx)
 _sk_bicubic_p3x_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,5,163,187,1,0        // vbroadcastss  0x1bba3(%rip),%ymm0        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,226,125,24,5,235,187,1,0        // vbroadcastss  0x1bbeb(%rip),%ymm0        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  197,252,88,0                        // vaddps        (%rax),%ymm0,%ymm0
   .byte  197,124,16,64,64                    // vmovups       0x40(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,136,187,1,0        // vbroadcastss  0x1bb88(%rip),%ymm10        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,204,187,1,0        // vbroadcastss  0x1bbcc(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,98,125,24,21,134,186,1,0        // vbroadcastss  0x1ba86(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,202,186,1,0        // vbroadcastss  0x1baca(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,128,0,0,0            // vmovups       %ymm8,0x80(%rax)
@@ -24582,14 +31708,14 @@
 FUNCTION(_sk_bicubic_n3y_avx)
 _sk_bicubic_n3y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,85,187,1,0        // vbroadcastss  0x1bb55(%rip),%ymm1        # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+  .byte  196,226,125,24,13,153,187,1,0       // vbroadcastss  0x1bb99(%rip),%ymm1        # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,231,185,1,0         // vbroadcastss  0x1b9e7(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,43,186,1,0          // vbroadcastss  0x1ba2b(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,56,187,1,0         // vbroadcastss  0x1bb38(%rip),%ymm10        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,124,187,1,0        // vbroadcastss  0x1bb7c(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,98,125,24,21,54,186,1,0         // vbroadcastss  0x1ba36(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,122,186,1,0        // vbroadcastss  0x1ba7a(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -24601,19 +31727,19 @@
 FUNCTION(_sk_bicubic_n1y_avx)
 _sk_bicubic_n1y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,1,187,1,0         // vbroadcastss  0x1bb01(%rip),%ymm1        # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+  .byte  196,226,125,24,13,69,187,1,0        // vbroadcastss  0x1bb45(%rip),%ymm1        # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
-  .byte  196,98,125,24,5,151,185,1,0         // vbroadcastss  0x1b997(%rip),%ymm8        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,98,125,24,5,219,185,1,0         // vbroadcastss  0x1b9db(%rip),%ymm8        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,60,92,64,96                     // vsubps        0x60(%rax),%ymm8,%ymm8
-  .byte  196,98,125,24,13,245,186,1,0        // vbroadcastss  0x1baf5(%rip),%ymm9        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,13,53,187,1,0         // vbroadcastss  0x1bb35(%rip),%ymm9        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,98,125,24,21,227,186,1,0        // vbroadcastss  0x1bae3(%rip),%ymm10        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,98,125,24,21,43,187,1,0         // vbroadcastss  0x1bb2b(%rip),%ymm10        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,201                    // vmulps        %ymm9,%ymm8,%ymm9
-  .byte  196,98,125,24,21,100,185,1,0        // vbroadcastss  0x1b964(%rip),%ymm10        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,21,168,185,1,0        // vbroadcastss  0x1b9a8(%rip),%ymm10        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,65,52,88,202                    // vaddps        %ymm10,%ymm9,%ymm9
   .byte  196,65,60,89,193                    // vmulps        %ymm9,%ymm8,%ymm8
-  .byte  196,98,125,24,13,197,186,1,0        // vbroadcastss  0x1bac5(%rip),%ymm9        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,13,9,187,1,0          // vbroadcastss  0x1bb09(%rip),%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24624,17 +31750,17 @@
 FUNCTION(_sk_bicubic_p1y_avx)
 _sk_bicubic_p1y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,98,125,24,5,53,185,1,0          // vbroadcastss  0x1b935(%rip),%ymm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  196,98,125,24,5,121,185,1,0         // vbroadcastss  0x1b979(%rip),%ymm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  197,188,88,72,32                    // vaddps        0x20(%rax),%ymm8,%ymm1
   .byte  197,124,16,72,96                    // vmovups       0x60(%rax),%ymm9
-  .byte  196,98,125,24,21,146,186,1,0        // vbroadcastss  0x1ba92(%rip),%ymm10        # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+  .byte  196,98,125,24,21,210,186,1,0        // vbroadcastss  0x1bad2(%rip),%ymm10        # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
-  .byte  196,98,125,24,29,128,186,1,0        // vbroadcastss  0x1ba80(%rip),%ymm11        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,98,125,24,29,200,186,1,0        // vbroadcastss  0x1bac8(%rip),%ymm11        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  196,65,44,88,211                    // vaddps        %ymm11,%ymm10,%ymm10
   .byte  196,65,52,89,210                    // vmulps        %ymm10,%ymm9,%ymm10
   .byte  196,65,44,88,192                    // vaddps        %ymm8,%ymm10,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
-  .byte  196,98,125,24,13,107,186,1,0        // vbroadcastss  0x1ba6b(%rip),%ymm9        # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+  .byte  196,98,125,24,13,175,186,1,0        // vbroadcastss  0x1baaf(%rip),%ymm9        # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
   .byte  196,65,60,88,193                    // vaddps        %ymm9,%ymm8,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -24645,13 +31771,13 @@
 FUNCTION(_sk_bicubic_p3y_avx)
 _sk_bicubic_p3y_avx:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,13,71,186,1,0        // vbroadcastss  0x1ba47(%rip),%ymm1        # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+  .byte  196,226,125,24,13,143,186,1,0       // vbroadcastss  0x1ba8f(%rip),%ymm1        # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
   .byte  197,244,88,72,32                    // vaddps        0x20(%rax),%ymm1,%ymm1
   .byte  197,124,16,64,96                    // vmovups       0x60(%rax),%ymm8
   .byte  196,65,60,89,200                    // vmulps        %ymm8,%ymm8,%ymm9
-  .byte  196,98,125,24,21,43,186,1,0         // vbroadcastss  0x1ba2b(%rip),%ymm10        # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+  .byte  196,98,125,24,21,111,186,1,0        // vbroadcastss  0x1ba6f(%rip),%ymm10        # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
   .byte  196,65,60,89,194                    // vmulps        %ymm10,%ymm8,%ymm8
-  .byte  196,98,125,24,21,41,185,1,0         // vbroadcastss  0x1b929(%rip),%ymm10        # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,125,24,21,109,185,1,0        // vbroadcastss  0x1b96d(%rip),%ymm10        # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
   .byte  196,65,60,88,194                    // vaddps        %ymm10,%ymm8,%ymm8
   .byte  196,65,52,89,192                    // vmulps        %ymm8,%ymm9,%ymm8
   .byte  197,124,17,128,160,0,0,0            // vmovups       %ymm8,0xa0(%rax)
@@ -24799,7 +31925,7 @@
   .byte  72,139,0                            // mov           (%rax),%rax
   .byte  197,217,254,207                     // vpaddd        %xmm7,%xmm4,%xmm1
   .byte  197,249,254,193                     // vpaddd        %xmm1,%xmm0,%xmm0
-  .byte  196,226,121,24,37,195,183,1,0       // vbroadcastss  0x1b7c3(%rip),%xmm4        # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+  .byte  196,226,121,24,37,7,184,1,0         // vbroadcastss  0x1b807(%rip),%xmm4        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
   .byte  196,98,121,64,228                   // vpmulld       %xmm4,%xmm0,%xmm12
   .byte  196,226,49,64,198                   // vpmulld       %xmm6,%xmm9,%xmm0
   .byte  197,249,127,132,36,128,0,0,0        // vmovdqa       %xmm0,0x80(%rsp)
@@ -24853,7 +31979,7 @@
   .byte  196,161,122,16,60,128               // vmovss        (%rax,%r8,4),%xmm7
   .byte  196,227,73,33,247,48                // vinsertps     $0x30,%xmm7,%xmm6,%xmm6
   .byte  196,227,77,24,237,1                 // vinsertf128   $0x1,%xmm5,%ymm6,%ymm5
-  .byte  196,98,121,24,21,44,181,1,0         // vbroadcastss  0x1b52c(%rip),%xmm10        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,98,121,24,21,112,181,1,0        // vbroadcastss  0x1b570(%rip),%xmm10        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  196,193,105,254,210                 // vpaddd        %xmm10,%xmm2,%xmm2
   .byte  196,195,249,22,208,1                // vpextrq       $0x1,%xmm2,%r8
   .byte  196,193,249,126,209                 // vmovq         %xmm2,%r9
@@ -24881,7 +32007,7 @@
   .byte  196,161,122,16,60,128               // vmovss        (%rax,%r8,4),%xmm7
   .byte  196,227,73,33,247,48                // vinsertps     $0x30,%xmm7,%xmm6,%xmm6
   .byte  196,227,77,24,210,1                 // vinsertf128   $0x1,%xmm2,%ymm6,%ymm2
-  .byte  196,226,125,24,61,0,182,1,0         // vbroadcastss  0x1b600(%rip),%ymm7        # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+  .byte  196,226,125,24,61,68,182,1,0        // vbroadcastss  0x1b644(%rip),%ymm7        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
   .byte  197,148,88,247                      // vaddps        %ymm7,%ymm13,%ymm6
   .byte  197,124,40,231                      // vmovaps       %ymm7,%ymm12
   .byte  197,124,17,36,36                    // vmovups       %ymm12,(%rsp)
@@ -25624,7 +32750,7 @@
   .byte  197,249,127,68,36,32                // vmovdqa       %xmm0,0x20(%rsp)
   .byte  197,225,254,216                     // vpaddd        %xmm0,%xmm3,%xmm3
   .byte  197,233,254,195                     // vpaddd        %xmm3,%xmm2,%xmm0
-  .byte  196,98,121,24,13,196,166,1,0        // vbroadcastss  0x1a6c4(%rip),%xmm9        # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+  .byte  196,98,121,24,13,8,167,1,0          // vbroadcastss  0x1a708(%rip),%xmm9        # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
   .byte  196,194,121,64,209                  // vpmulld       %xmm9,%xmm0,%xmm2
   .byte  196,226,81,64,199                   // vpmulld       %xmm7,%xmm5,%xmm0
   .byte  197,249,127,132,36,96,1,0,0         // vmovdqa       %xmm0,0x160(%rsp)
@@ -25681,7 +32807,7 @@
   .byte  196,161,122,16,60,128               // vmovss        (%rax,%r8,4),%xmm7
   .byte  196,227,73,33,247,48                // vinsertps     $0x30,%xmm7,%xmm6,%xmm6
   .byte  196,227,77,24,237,1                 // vinsertf128   $0x1,%xmm5,%ymm6,%ymm5
-  .byte  196,98,121,24,21,29,164,1,0         // vbroadcastss  0x1a41d(%rip),%xmm10        # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+  .byte  196,98,121,24,21,97,164,1,0         // vbroadcastss  0x1a461(%rip),%xmm10        # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
   .byte  196,193,121,254,194                 // vpaddd        %xmm10,%xmm0,%xmm0
   .byte  196,195,249,22,192,1                // vpextrq       $0x1,%xmm0,%r8
   .byte  196,193,249,126,193                 // vmovq         %xmm0,%r9
@@ -25709,7 +32835,7 @@
   .byte  196,161,122,16,52,128               // vmovss        (%rax,%r8,4),%xmm6
   .byte  196,227,105,33,214,48               // vinsertps     $0x30,%xmm6,%xmm2,%xmm2
   .byte  196,227,109,24,208,1                // vinsertf128   $0x1,%xmm0,%ymm2,%ymm2
-  .byte  196,98,125,24,37,241,164,1,0        // vbroadcastss  0x1a4f1(%rip),%ymm12        # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+  .byte  196,98,125,24,37,53,165,1,0         // vbroadcastss  0x1a535(%rip),%ymm12        # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
   .byte  196,193,4,88,196                    // vaddps        %ymm12,%ymm15,%ymm0
   .byte  197,124,17,36,36                    // vmovups       %ymm12,(%rsp)
   .byte  197,254,91,192                      // vcvttps2dq    %ymm0,%ymm0
@@ -27107,7 +34233,7 @@
   .byte  197,228,89,210                      // vmulps        %ymm2,%ymm3,%ymm2
   .byte  197,220,88,210                      // vaddps        %ymm2,%ymm4,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,24,29,62,134,1,0        // vbroadcastss  0x1863e(%rip),%ymm3        # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+  .byte  196,226,125,24,29,130,134,1,0       // vbroadcastss  0x18682(%rip),%ymm3        # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
   .byte  197,252,16,164,36,64,2,0,0          // vmovups       0x240(%rsp),%ymm4
   .byte  197,252,16,172,36,96,2,0,0          // vmovups       0x260(%rsp),%ymm5
   .byte  197,252,16,180,36,128,2,0,0         // vmovups       0x280(%rsp),%ymm6
@@ -27140,13 +34266,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,131,0,0,0                    // jae           12d34 <_sk_start_pipeline_sse41+0xb6>
+  .byte  15,131,131,0,0,0                    // jae           1a370 <_sk_start_pipeline_sse41+0xb6>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,4                         // lea           0x4(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
-  .byte  119,59                              // ja            12d02 <_sk_start_pipeline_sse41+0x84>
+  .byte  119,59                              // ja            1a33e <_sk_start_pipeline_sse41+0x84>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -27165,10 +34291,10 @@
   .byte  73,131,196,8                        // add           $0x8,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,201                             // jbe           12ccb <_sk_start_pipeline_sse41+0x4d>
+  .byte  118,201                             // jbe           1a307 <_sk_start_pipeline_sse41+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,33                              // je            12d2b <_sk_start_pipeline_sse41+0xad>
+  .byte  116,33                              // je            1a367 <_sk_start_pipeline_sse41+0xad>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -27182,7 +34308,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  117,137                             // jne           12cbd <_sk_start_pipeline_sse41+0x3f>
+  .byte  117,137                             // jne           1a2f9 <_sk_start_pipeline_sse41+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -27205,13 +34331,13 @@
   .byte  102,15,110,194                      // movd          %edx,%xmm0
   .byte  102,15,112,192,0                    // pshufd        $0x0,%xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,88,5,25,135,1,0                  // addps         0x18719(%rip),%xmm0        # 2b470 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+  .byte  15,88,5,93,135,1,0                  // addps         0x1875d(%rip),%xmm0        # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
   .byte  102,15,110,201                      // movd          %ecx,%xmm1
   .byte  102,15,112,201,0                    // pshufd        $0x0,%xmm1,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,88,13,22,135,1,0                 // addps         0x18716(%rip),%xmm1        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,13,90,135,1,0                 // addps         0x1875a(%rip),%xmm1        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,21,29,135,1,0                 // movaps        0x1871d(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,97,135,1,0                 // movaps        0x18761(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  15,87,237                           // xorps         %xmm5,%xmm5
@@ -27226,18 +34352,18 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  102,68,15,110,194                   // movd          %edx,%xmm8
   .byte  102,69,15,112,192,0                 // pshufd        $0x0,%xmm8,%xmm8
-  .byte  102,68,15,254,5,182,134,1,0         // paddd         0x186b6(%rip),%xmm8        # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+  .byte  102,68,15,254,5,250,134,1,0         // paddd         0x186fa(%rip),%xmm8        # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
   .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
   .byte  102,69,15,112,201,0                 // pshufd        $0x0,%xmm9,%xmm9
   .byte  102,69,15,239,200                   // pxor          %xmm8,%xmm9
-  .byte  102,68,15,111,21,237,134,1,0        // movdqa        0x186ed(%rip),%xmm10        # 2b4a0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
+  .byte  102,68,15,111,21,49,135,1,0         // movdqa        0x18731(%rip),%xmm10        # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
   .byte  102,69,15,111,217                   // movdqa        %xmm9,%xmm11
   .byte  102,69,15,219,218                   // pand          %xmm10,%xmm11
   .byte  102,65,15,114,243,5                 // pslld         $0x5,%xmm11
   .byte  102,69,15,219,208                   // pand          %xmm8,%xmm10
   .byte  102,65,15,114,242,4                 // pslld         $0x4,%xmm10
-  .byte  102,68,15,111,37,217,134,1,0        // movdqa        0x186d9(%rip),%xmm12        # 2b4b0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
-  .byte  102,68,15,111,45,224,134,1,0        // movdqa        0x186e0(%rip),%xmm13        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,37,29,135,1,0         // movdqa        0x1871d(%rip),%xmm12        # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+  .byte  102,68,15,111,45,36,135,1,0         // movdqa        0x18724(%rip),%xmm13        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,69,15,111,241                   // movdqa        %xmm9,%xmm14
   .byte  102,69,15,219,245                   // pand          %xmm13,%xmm14
   .byte  102,65,15,114,246,2                 // pslld         $0x2,%xmm14
@@ -27253,8 +34379,8 @@
   .byte  102,69,15,235,198                   // por           %xmm14,%xmm8
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,155,134,1,0              // mulps         0x1869b(%rip),%xmm8        # 2b4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
-  .byte  68,15,88,5,163,134,1,0              // addps         0x186a3(%rip),%xmm8        # 2b4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+  .byte  68,15,89,5,223,134,1,0              // mulps         0x186df(%rip),%xmm8        # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+  .byte  68,15,88,5,231,134,1,0              // addps         0x186e7(%rip),%xmm8        # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
   .byte  243,68,15,16,16                     // movss         (%rax),%xmm10
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
@@ -27296,7 +34422,7 @@
 FUNCTION(_sk_black_color_sse41)
 _sk_black_color_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,217,133,1,0                // movaps        0x185d9(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,29,134,1,0                 // movaps        0x1861d(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -27307,7 +34433,7 @@
 FUNCTION(_sk_white_color_sse41)
 _sk_white_color_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,5,197,133,1,0                 // movaps        0x185c5(%rip),%xmm0        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,5,9,134,1,0                   // movaps        0x18609(%rip),%xmm0        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,40,216                           // movaps        %xmm0,%xmm3
@@ -27353,7 +34479,7 @@
 FUNCTION(_sk_srcatop_sse41)
 _sk_srcatop_sse41:
   .byte  15,89,199                           // mulps         %xmm7,%xmm0
-  .byte  68,15,40,5,117,133,1,0              // movaps        0x18575(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,185,133,1,0              // movaps        0x185b9(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -27378,7 +34504,7 @@
 _sk_dstatop_sse41:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  68,15,40,13,40,133,1,0              // movaps        0x18528(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,108,133,1,0             // movaps        0x1856c(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
@@ -27425,7 +34551,7 @@
 .globl _sk_srcout_sse41
 FUNCTION(_sk_srcout_sse41)
 _sk_srcout_sse41:
-  .byte  68,15,40,5,188,132,1,0              // movaps        0x184bc(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,0,133,1,0                // movaps        0x18500(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
@@ -27438,7 +34564,7 @@
 .globl _sk_dstout_sse41
 FUNCTION(_sk_dstout_sse41)
 _sk_dstout_sse41:
-  .byte  68,15,40,5,156,132,1,0              // movaps        0x1849c(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,224,132,1,0              // movaps        0x184e0(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,89,196                           // mulps         %xmm4,%xmm0
@@ -27455,7 +34581,7 @@
 .globl _sk_srcover_sse41
 FUNCTION(_sk_srcover_sse41)
 _sk_srcover_sse41:
-  .byte  68,15,40,5,111,132,1,0              // movaps        0x1846f(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,179,132,1,0              // movaps        0x184b3(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -27475,7 +34601,7 @@
 .globl _sk_dstover_sse41
 FUNCTION(_sk_dstover_sse41)
 _sk_dstover_sse41:
-  .byte  68,15,40,5,51,132,1,0               // movaps        0x18433(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,119,132,1,0              // movaps        0x18477(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -27503,7 +34629,7 @@
 .globl _sk_multiply_sse41
 FUNCTION(_sk_multiply_sse41)
 _sk_multiply_sse41:
-  .byte  68,15,40,5,247,131,1,0              // movaps        0x183f7(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,59,132,1,0               // movaps        0x1843b(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
@@ -27541,7 +34667,7 @@
 FUNCTION(_sk_plus__sse41)
 _sk_plus__sse41:
   .byte  15,88,196                           // addps         %xmm4,%xmm0
-  .byte  68,15,40,5,120,131,1,0              // movaps        0x18378(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,188,131,1,0              // movaps        0x183bc(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
@@ -27583,7 +34709,7 @@
 FUNCTION(_sk_xor__sse41)
 _sk_xor__sse41:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
-  .byte  15,40,29,4,131,1,0                  // movaps        0x18304(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,72,131,1,0                 // movaps        0x18348(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
@@ -27631,7 +34757,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,95,209                        // maxps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,95,130,1,0                 // movaps        0x1825f(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,163,130,1,0                // movaps        0x182a3(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -27665,7 +34791,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,244,129,1,0                // movaps        0x181f4(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,56,130,1,0                 // movaps        0x18238(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -27702,7 +34828,7 @@
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,126,129,1,0                // movaps        0x1817e(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,194,129,1,0                // movaps        0x181c2(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -27730,7 +34856,7 @@
   .byte  15,89,214                           // mulps         %xmm6,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,46,129,1,0                 // movaps        0x1812e(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,114,129,1,0                // movaps        0x18172(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -27742,7 +34868,7 @@
 .globl _sk_colorburn_sse41
 FUNCTION(_sk_colorburn_sse41)
 _sk_colorburn_sse41:
-  .byte  68,15,40,29,21,129,1,0              // movaps        0x18115(%rip),%xmm11        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,29,89,129,1,0              // movaps        0x18159(%rip),%xmm11        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
   .byte  68,15,92,231                        // subps         %xmm7,%xmm12
   .byte  69,15,40,204                        // movaps        %xmm12,%xmm9
@@ -27826,7 +34952,7 @@
 FUNCTION(_sk_colordodge_sse41)
 _sk_colordodge_sse41:
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  68,15,40,21,223,127,1,0             // movaps        0x17fdf(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,35,128,1,0              // movaps        0x18023(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
@@ -27908,7 +35034,7 @@
   .byte  15,40,244                           // movaps        %xmm4,%xmm6
   .byte  15,40,227                           // movaps        %xmm3,%xmm4
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
-  .byte  68,15,40,21,170,126,1,0             // movaps        0x17eaa(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,238,126,1,0             // movaps        0x17eee(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,40,234                        // movaps        %xmm10,%xmm5
   .byte  15,92,239                           // subps         %xmm7,%xmm5
   .byte  15,40,197                           // movaps        %xmm5,%xmm0
@@ -27991,7 +35117,7 @@
 _sk_overlay_sse41:
   .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
-  .byte  68,15,40,21,127,125,1,0             // movaps        0x17d7f(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,195,125,1,0             // movaps        0x17dc3(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
@@ -28076,7 +35202,7 @@
   .byte  15,40,198                           // movaps        %xmm6,%xmm0
   .byte  15,94,199                           // divps         %xmm7,%xmm0
   .byte  65,15,84,193                        // andps         %xmm9,%xmm0
-  .byte  15,40,13,70,124,1,0                 // movaps        0x17c46(%rip),%xmm1        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,13,138,124,1,0                // movaps        0x17c8a(%rip),%xmm1        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
   .byte  68,15,92,208                        // subps         %xmm0,%xmm10
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
@@ -28089,10 +35215,10 @@
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,89,210                           // mulps         %xmm2,%xmm2
   .byte  15,88,208                           // addps         %xmm0,%xmm2
-  .byte  68,15,40,45,116,124,1,0             // movaps        0x17c74(%rip),%xmm13        # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+  .byte  68,15,40,45,184,124,1,0             // movaps        0x17cb8(%rip),%xmm13        # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
   .byte  69,15,88,245                        // addps         %xmm13,%xmm14
   .byte  68,15,89,242                        // mulps         %xmm2,%xmm14
-  .byte  68,15,40,37,116,124,1,0             // movaps        0x17c74(%rip),%xmm12        # 2b500 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+  .byte  68,15,40,37,184,124,1,0             // movaps        0x17cb8(%rip),%xmm12        # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
   .byte  69,15,89,252                        // mulps         %xmm12,%xmm15
   .byte  69,15,88,254                        // addps         %xmm14,%xmm15
   .byte  15,40,198                           // movaps        %xmm6,%xmm0
@@ -28278,12 +35404,12 @@
   .byte  68,15,84,208                        // andps         %xmm0,%xmm10
   .byte  15,84,200                           // andps         %xmm0,%xmm1
   .byte  68,15,84,232                        // andps         %xmm0,%xmm13
-  .byte  15,40,5,223,121,1,0                 // movaps        0x179df(%rip),%xmm0        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  15,40,5,35,122,1,0                  // movaps        0x17a23(%rip),%xmm0        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,89,224                        // mulps         %xmm0,%xmm12
-  .byte  15,40,21,228,121,1,0                // movaps        0x179e4(%rip),%xmm2        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  15,40,21,40,122,1,0                 // movaps        0x17a28(%rip),%xmm2        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  15,89,250                           // mulps         %xmm2,%xmm7
   .byte  65,15,88,252                        // addps         %xmm12,%xmm7
-  .byte  68,15,40,53,229,121,1,0             // movaps        0x179e5(%rip),%xmm14        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,53,41,122,1,0              // movaps        0x17a29(%rip),%xmm14        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  68,15,40,252                        // movaps        %xmm4,%xmm15
   .byte  69,15,89,254                        // mulps         %xmm14,%xmm15
   .byte  68,15,88,255                        // addps         %xmm7,%xmm15
@@ -28366,7 +35492,7 @@
   .byte  65,15,88,214                        // addps         %xmm14,%xmm2
   .byte  15,40,196                           // movaps        %xmm4,%xmm0
   .byte  102,15,56,20,202                    // blendvps      %xmm0,%xmm2,%xmm1
-  .byte  68,15,40,13,249,119,1,0             // movaps        0x177f9(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,61,120,1,0              // movaps        0x1783d(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,40,225                        // movaps        %xmm9,%xmm4
   .byte  15,92,229                           // subps         %xmm5,%xmm4
   .byte  15,40,68,36,200                     // movaps        -0x38(%rsp),%xmm0
@@ -28460,14 +35586,14 @@
   .byte  68,15,84,215                        // andps         %xmm7,%xmm10
   .byte  68,15,84,223                        // andps         %xmm7,%xmm11
   .byte  68,15,84,199                        // andps         %xmm7,%xmm8
-  .byte  15,40,21,35,119,1,0                 // movaps        0x17723(%rip),%xmm2        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  15,40,21,103,119,1,0                // movaps        0x17767(%rip),%xmm2        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  15,40,221                           // movaps        %xmm5,%xmm3
   .byte  15,89,218                           // mulps         %xmm2,%xmm3
-  .byte  15,40,13,38,119,1,0                 // movaps        0x17726(%rip),%xmm1        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  15,40,13,106,119,1,0                // movaps        0x1776a(%rip),%xmm1        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  15,40,254                           // movaps        %xmm6,%xmm7
   .byte  15,89,249                           // mulps         %xmm1,%xmm7
   .byte  15,88,251                           // addps         %xmm3,%xmm7
-  .byte  68,15,40,45,37,119,1,0              // movaps        0x17725(%rip),%xmm13        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,45,105,119,1,0             // movaps        0x17769(%rip),%xmm13        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  69,15,89,245                        // mulps         %xmm13,%xmm14
   .byte  68,15,88,247                        // addps         %xmm7,%xmm14
   .byte  65,15,40,218                        // movaps        %xmm10,%xmm3
@@ -28548,7 +35674,7 @@
   .byte  65,15,88,253                        // addps         %xmm13,%xmm7
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  102,68,15,56,20,223                 // blendvps      %xmm0,%xmm7,%xmm11
-  .byte  68,15,40,13,59,117,1,0              // movaps        0x1753b(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,127,117,1,0             // movaps        0x1757f(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  68,15,92,204                        // subps         %xmm4,%xmm9
   .byte  15,40,124,36,168                    // movaps        -0x58(%rsp),%xmm7
@@ -28603,14 +35729,14 @@
   .byte  15,40,231                           // movaps        %xmm7,%xmm4
   .byte  68,15,89,244                        // mulps         %xmm4,%xmm14
   .byte  15,89,204                           // mulps         %xmm4,%xmm1
-  .byte  68,15,40,13,246,116,1,0             // movaps        0x174f6(%rip),%xmm9        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,13,58,117,1,0              // movaps        0x1753a(%rip),%xmm9        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  65,15,40,250                        // movaps        %xmm10,%xmm7
   .byte  65,15,89,249                        // mulps         %xmm9,%xmm7
-  .byte  68,15,40,21,246,116,1,0             // movaps        0x174f6(%rip),%xmm10        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  68,15,40,21,58,117,1,0              // movaps        0x1753a(%rip),%xmm10        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  65,15,40,219                        // movaps        %xmm11,%xmm3
   .byte  65,15,89,218                        // mulps         %xmm10,%xmm3
   .byte  15,88,223                           // addps         %xmm7,%xmm3
-  .byte  68,15,40,29,243,116,1,0             // movaps        0x174f3(%rip),%xmm11        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,29,55,117,1,0              // movaps        0x17537(%rip),%xmm11        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  69,15,40,236                        // movaps        %xmm12,%xmm13
   .byte  69,15,89,235                        // mulps         %xmm11,%xmm13
   .byte  68,15,88,235                        // addps         %xmm3,%xmm13
@@ -28695,7 +35821,7 @@
   .byte  65,15,88,251                        // addps         %xmm11,%xmm7
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  102,15,56,20,207                    // blendvps      %xmm0,%xmm7,%xmm1
-  .byte  68,15,40,13,255,114,1,0             // movaps        0x172ff(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,67,115,1,0              // movaps        0x17343(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,92,196                           // subps         %xmm4,%xmm0
   .byte  68,15,89,192                        // mulps         %xmm0,%xmm8
@@ -28747,13 +35873,13 @@
   .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
   .byte  68,15,89,205                        // mulps         %xmm5,%xmm9
-  .byte  68,15,40,5,199,114,1,0              // movaps        0x172c7(%rip),%xmm8        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,5,11,115,1,0               // movaps        0x1730b(%rip),%xmm8        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
-  .byte  68,15,40,21,203,114,1,0             // movaps        0x172cb(%rip),%xmm10        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  68,15,40,21,15,115,1,0              // movaps        0x1730f(%rip),%xmm10        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  15,40,233                           // movaps        %xmm1,%xmm5
   .byte  65,15,89,234                        // mulps         %xmm10,%xmm5
   .byte  15,88,232                           // addps         %xmm0,%xmm5
-  .byte  68,15,40,37,201,114,1,0             // movaps        0x172c9(%rip),%xmm12        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,37,13,115,1,0              // movaps        0x1730d(%rip),%xmm12        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  68,15,40,242                        // movaps        %xmm2,%xmm14
   .byte  69,15,89,244                        // mulps         %xmm12,%xmm14
   .byte  68,15,88,245                        // addps         %xmm5,%xmm14
@@ -28838,7 +35964,7 @@
   .byte  65,15,88,244                        // addps         %xmm12,%xmm6
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
   .byte  102,68,15,56,20,206                 // blendvps      %xmm0,%xmm6,%xmm9
-  .byte  15,40,5,207,112,1,0                 // movaps        0x170cf(%rip),%xmm0        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,5,19,113,1,0                  // movaps        0x17113(%rip),%xmm0        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,92,215                           // subps         %xmm7,%xmm2
   .byte  15,89,226                           // mulps         %xmm2,%xmm4
@@ -28883,23 +36009,23 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,219,0,0,0                    // jne           14529 <_sk_srcover_rgba_8888_sse41+0xfb>
+  .byte  15,133,219,0,0,0                    // jne           1bb65 <_sk_srcover_rgba_8888_sse41+0xfb>
   .byte  243,65,15,111,60,128                // movdqu        (%r8,%rax,4),%xmm7
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  102,15,111,37,225,112,1,0           // movdqa        0x170e1(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,37,37,113,1,0            // movdqa        0x17125(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,231                      // pand          %xmm7,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
   .byte  102,15,111,239                      // movdqa        %xmm7,%xmm5
-  .byte  102,15,56,0,45,221,112,1,0          // pshufb        0x170dd(%rip),%xmm5        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,45,33,113,1,0           // pshufb        0x17121(%rip),%xmm5        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
   .byte  102,15,111,247                      // movdqa        %xmm7,%xmm6
-  .byte  102,15,56,0,53,221,112,1,0          // pshufb        0x170dd(%rip),%xmm6        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,53,33,113,1,0           // pshufb        0x17121(%rip),%xmm6        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
   .byte  102,15,114,215,24                   // psrld         $0x18,%xmm7
   .byte  15,91,255                           // cvtdq2ps      %xmm7,%xmm7
-  .byte  68,15,40,5,250,111,1,0              // movaps        0x16ffa(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,62,112,1,0               // movaps        0x1703e(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
-  .byte  68,15,40,37,206,112,1,0             // movaps        0x170ce(%rip),%xmm12        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,37,18,113,1,0              // movaps        0x17112(%rip),%xmm12        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,196                        // mulps         %xmm12,%xmm0
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -28925,7 +36051,7 @@
   .byte  102,15,114,240,24                   // pslld         $0x18,%xmm0
   .byte  102,15,235,194                      // por           %xmm2,%xmm0
   .byte  102,15,235,193                      // por           %xmm1,%xmm0
-  .byte  117,88                              // jne           14567 <_sk_srcover_rgba_8888_sse41+0x139>
+  .byte  117,88                              // jne           1bba3 <_sk_srcover_rgba_8888_sse41+0x139>
   .byte  243,65,15,127,4,128                 // movdqu        %xmm0,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
@@ -28936,32 +36062,32 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,91                              // je            14591 <_sk_srcover_rgba_8888_sse41+0x163>
+  .byte  116,91                              // je            1bbcd <_sk_srcover_rgba_8888_sse41+0x163>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,22                              // je            14556 <_sk_srcover_rgba_8888_sse41+0x128>
+  .byte  116,22                              // je            1bb92 <_sk_srcover_rgba_8888_sse41+0x128>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,10,255,255,255               // jne           14454 <_sk_srcover_rgba_8888_sse41+0x26>
+  .byte  15,133,10,255,255,255               // jne           1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,15,112,252,69                   // pshufd        $0x45,%xmm4,%xmm7
   .byte  243,65,15,126,36,128                // movq          (%r8,%rax,4),%xmm4
   .byte  102,15,58,14,252,15                 // pblendw       $0xf,%xmm4,%xmm7
-  .byte  233,237,254,255,255                 // jmpq          14454 <_sk_srcover_rgba_8888_sse41+0x26>
+  .byte  233,237,254,255,255                 // jmpq          1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,40                              // je            1459c <_sk_srcover_rgba_8888_sse41+0x16e>
+  .byte  116,40                              // je            1bbd8 <_sk_srcover_rgba_8888_sse41+0x16e>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            14589 <_sk_srcover_rgba_8888_sse41+0x15b>
+  .byte  116,15                              // je            1bbc5 <_sk_srcover_rgba_8888_sse41+0x15b>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,149                             // jne           14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+  .byte  117,149                             // jne           1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
   .byte  102,65,15,58,22,68,128,8,2          // pextrd        $0x2,%xmm0,0x8(%r8,%rax,4)
   .byte  102,65,15,214,4,128                 // movq          %xmm0,(%r8,%rax,4)
-  .byte  235,132                             // jmp           14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+  .byte  235,132                             // jmp           1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
   .byte  102,65,15,110,60,128                // movd          (%r8,%rax,4),%xmm7
-  .byte  233,184,254,255,255                 // jmpq          14454 <_sk_srcover_rgba_8888_sse41+0x26>
+  .byte  233,184,254,255,255                 // jmpq          1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
   .byte  102,65,15,126,4,128                 // movd          %xmm0,(%r8,%rax,4)
-  .byte  233,110,255,255,255                 // jmpq          14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+  .byte  233,110,255,255,255                 // jmpq          1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
 
 HIDDEN _sk_clamp_0_sse41
 .globl _sk_clamp_0_sse41
@@ -28979,7 +36105,7 @@
 .globl _sk_clamp_1_sse41
 FUNCTION(_sk_clamp_1_sse41)
 _sk_clamp_1_sse41:
-  .byte  68,15,40,5,201,110,1,0              // movaps        0x16ec9(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,13,111,1,0               // movaps        0x16f0d(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
   .byte  65,15,93,208                        // minps         %xmm8,%xmm2
@@ -28991,7 +36117,7 @@
 .globl _sk_clamp_a_sse41
 FUNCTION(_sk_clamp_a_sse41)
 _sk_clamp_a_sse41:
-  .byte  15,93,29,174,110,1,0                // minps         0x16eae(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,29,242,110,1,0                // minps         0x16ef2(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,93,195                           // minps         %xmm3,%xmm0
   .byte  15,93,203                           // minps         %xmm3,%xmm1
   .byte  15,93,211                           // minps         %xmm3,%xmm2
@@ -29002,7 +36128,7 @@
 .globl _sk_clamp_a_dst_sse41
 FUNCTION(_sk_clamp_a_dst_sse41)
 _sk_clamp_a_dst_sse41:
-  .byte  15,93,61,154,110,1,0                // minps         0x16e9a(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,61,222,110,1,0                // minps         0x16ede(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,93,231                           // minps         %xmm7,%xmm4
   .byte  15,93,239                           // minps         %xmm7,%xmm5
   .byte  15,93,247                           // minps         %xmm7,%xmm6
@@ -29037,7 +36163,7 @@
 .globl _sk_invert_sse41
 FUNCTION(_sk_invert_sse41)
 _sk_invert_sse41:
-  .byte  68,15,40,5,86,110,1,0               // movaps        0x16e56(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,154,110,1,0              // movaps        0x16e9a(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,200                        // subps         %xmm0,%xmm9
   .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
@@ -29099,7 +36225,7 @@
 FUNCTION(_sk_unpremul_sse41)
 _sk_unpremul_sse41:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
-  .byte  68,15,40,13,224,109,1,0             // movaps        0x16de0(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,36,110,1,0              // movaps        0x16e24(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,94,203                        // divps         %xmm3,%xmm9
   .byte  68,15,194,195,4                     // cmpneqps      %xmm3,%xmm8
   .byte  69,15,84,193                        // andps         %xmm9,%xmm8
@@ -29113,20 +36239,20 @@
 .globl _sk_from_srgb_sse41
 FUNCTION(_sk_from_srgb_sse41)
 _sk_from_srgb_sse41:
-  .byte  68,15,40,29,171,110,1,0             // movaps        0x16eab(%rip),%xmm11        # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+  .byte  68,15,40,29,239,110,1,0             // movaps        0x16eef(%rip),%xmm11        # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
   .byte  68,15,40,208                        // movaps        %xmm0,%xmm10
   .byte  69,15,89,210                        // mulps         %xmm10,%xmm10
-  .byte  68,15,40,37,35,110,1,0              // movaps        0x16e23(%rip),%xmm12        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,37,103,110,1,0             // movaps        0x16e67(%rip),%xmm12        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  69,15,89,196                        // mulps         %xmm12,%xmm8
-  .byte  68,15,40,45,147,110,1,0             // movaps        0x16e93(%rip),%xmm13        # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+  .byte  68,15,40,45,215,110,1,0             // movaps        0x16ed7(%rip),%xmm13        # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
   .byte  69,15,88,197                        // addps         %xmm13,%xmm8
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
-  .byte  68,15,40,53,147,110,1,0             // movaps        0x16e93(%rip),%xmm14        # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+  .byte  68,15,40,53,215,110,1,0             // movaps        0x16ed7(%rip),%xmm14        # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
   .byte  69,15,88,198                        // addps         %xmm14,%xmm8
-  .byte  68,15,40,61,151,110,1,0             // movaps        0x16e97(%rip),%xmm15        # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+  .byte  68,15,40,61,219,110,1,0             // movaps        0x16edb(%rip),%xmm15        # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
   .byte  65,15,194,199,1                     // cmpltps       %xmm15,%xmm0
   .byte  102,69,15,56,20,193                 // blendvps      %xmm0,%xmm9,%xmm8
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
@@ -29163,19 +36289,19 @@
 _sk_from_srgb_dst_sse41:
   .byte  68,15,40,204                        // movaps        %xmm4,%xmm9
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  68,15,40,29,226,109,1,0             // movaps        0x16de2(%rip),%xmm11        # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+  .byte  68,15,40,29,38,110,1,0              // movaps        0x16e26(%rip),%xmm11        # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
   .byte  69,15,89,211                        // mulps         %xmm11,%xmm10
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
-  .byte  68,15,40,37,91,109,1,0              // movaps        0x16d5b(%rip),%xmm12        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,37,159,109,1,0             // movaps        0x16d9f(%rip),%xmm12        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  65,15,89,228                        // mulps         %xmm12,%xmm4
-  .byte  68,15,40,45,207,109,1,0             // movaps        0x16dcf(%rip),%xmm13        # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+  .byte  68,15,40,45,19,110,1,0              // movaps        0x16e13(%rip),%xmm13        # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
   .byte  65,15,88,229                        // addps         %xmm13,%xmm4
   .byte  15,89,224                           // mulps         %xmm0,%xmm4
-  .byte  68,15,40,53,208,109,1,0             // movaps        0x16dd0(%rip),%xmm14        # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+  .byte  68,15,40,53,20,110,1,0              // movaps        0x16e14(%rip),%xmm14        # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
   .byte  65,15,88,230                        // addps         %xmm14,%xmm4
-  .byte  68,15,40,61,212,109,1,0             // movaps        0x16dd4(%rip),%xmm15        # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+  .byte  68,15,40,61,24,110,1,0              // movaps        0x16e18(%rip),%xmm15        # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
   .byte  69,15,194,207,1                     // cmpltps       %xmm15,%xmm9
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  102,65,15,56,20,226                 // blendvps      %xmm0,%xmm10,%xmm4
@@ -29219,22 +36345,22 @@
   .byte  15,40,218                           // movaps        %xmm2,%xmm3
   .byte  15,40,209                           // movaps        %xmm1,%xmm2
   .byte  68,15,82,192                        // rsqrtps       %xmm0,%xmm8
-  .byte  68,15,40,29,72,109,1,0              // movaps        0x16d48(%rip),%xmm11        # 2b5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+  .byte  68,15,40,29,140,109,1,0             // movaps        0x16d8c(%rip),%xmm11        # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
-  .byte  68,15,40,37,72,109,1,0              // movaps        0x16d48(%rip),%xmm12        # 2b5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+  .byte  68,15,40,37,140,109,1,0             // movaps        0x16d8c(%rip),%xmm12        # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
   .byte  69,15,40,248                        // movaps        %xmm8,%xmm15
   .byte  69,15,89,252                        // mulps         %xmm12,%xmm15
-  .byte  68,15,40,21,72,109,1,0              // movaps        0x16d48(%rip),%xmm10        # 2b5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+  .byte  68,15,40,21,140,109,1,0             // movaps        0x16d8c(%rip),%xmm10        # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
   .byte  69,15,88,250                        // addps         %xmm10,%xmm15
   .byte  69,15,89,248                        // mulps         %xmm8,%xmm15
-  .byte  68,15,40,45,72,109,1,0              // movaps        0x16d48(%rip),%xmm13        # 2b5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+  .byte  68,15,40,45,140,109,1,0             // movaps        0x16d8c(%rip),%xmm13        # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
   .byte  69,15,88,253                        // addps         %xmm13,%xmm15
-  .byte  68,15,40,53,76,109,1,0              // movaps        0x16d4c(%rip),%xmm14        # 2b600 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+  .byte  68,15,40,53,144,109,1,0             // movaps        0x16d90(%rip),%xmm14        # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
   .byte  69,15,88,198                        // addps         %xmm14,%xmm8
   .byte  69,15,83,192                        // rcpps         %xmm8,%xmm8
   .byte  69,15,89,199                        // mulps         %xmm15,%xmm8
-  .byte  68,15,40,61,72,109,1,0              // movaps        0x16d48(%rip),%xmm15        # 2b610 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+  .byte  68,15,40,61,140,109,1,0             // movaps        0x16d8c(%rip),%xmm15        # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
   .byte  65,15,194,199,1                     // cmpltps       %xmm15,%xmm0
   .byte  102,69,15,56,20,193                 // blendvps      %xmm0,%xmm9,%xmm8
   .byte  68,15,82,202                        // rsqrtps       %xmm2,%xmm9
@@ -29289,7 +36415,7 @@
   .byte  68,15,93,224                        // minps         %xmm0,%xmm12
   .byte  65,15,40,203                        // movaps        %xmm11,%xmm1
   .byte  65,15,92,204                        // subps         %xmm12,%xmm1
-  .byte  68,15,40,53,255,106,1,0             // movaps        0x16aff(%rip),%xmm14        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,53,67,107,1,0              // movaps        0x16b43(%rip),%xmm14        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,94,241                        // divps         %xmm1,%xmm14
   .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
   .byte  69,15,194,208,0                     // cmpeqps       %xmm8,%xmm10
@@ -29298,27 +36424,27 @@
   .byte  65,15,89,198                        // mulps         %xmm14,%xmm0
   .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
   .byte  68,15,194,250,1                     // cmpltps       %xmm2,%xmm15
-  .byte  68,15,84,61,102,108,1,0             // andps         0x16c66(%rip),%xmm15        # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+  .byte  68,15,84,61,170,108,1,0             // andps         0x16caa(%rip),%xmm15        # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
   .byte  68,15,88,248                        // addps         %xmm0,%xmm15
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
   .byte  65,15,194,193,0                     // cmpeqps       %xmm9,%xmm0
   .byte  65,15,92,208                        // subps         %xmm8,%xmm2
   .byte  65,15,89,214                        // mulps         %xmm14,%xmm2
-  .byte  68,15,40,45,89,108,1,0              // movaps        0x16c59(%rip),%xmm13        # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+  .byte  68,15,40,45,157,108,1,0             // movaps        0x16c9d(%rip),%xmm13        # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
   .byte  65,15,88,213                        // addps         %xmm13,%xmm2
   .byte  69,15,92,193                        // subps         %xmm9,%xmm8
   .byte  69,15,89,198                        // mulps         %xmm14,%xmm8
-  .byte  68,15,88,5,85,108,1,0               // addps         0x16c55(%rip),%xmm8        # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+  .byte  68,15,88,5,153,108,1,0              // addps         0x16c99(%rip),%xmm8        # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
   .byte  102,68,15,56,20,194                 // blendvps      %xmm0,%xmm2,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  102,69,15,56,20,199                 // blendvps      %xmm0,%xmm15,%xmm8
-  .byte  68,15,89,5,77,108,1,0               // mulps         0x16c4d(%rip),%xmm8        # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+  .byte  68,15,89,5,145,108,1,0              // mulps         0x16c91(%rip),%xmm8        # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
   .byte  69,15,40,203                        // movaps        %xmm11,%xmm9
   .byte  69,15,194,204,4                     // cmpneqps      %xmm12,%xmm9
   .byte  69,15,84,193                        // andps         %xmm9,%xmm8
   .byte  69,15,92,235                        // subps         %xmm11,%xmm13
   .byte  69,15,88,220                        // addps         %xmm12,%xmm11
-  .byte  15,40,5,97,106,1,0                  // movaps        0x16a61(%rip),%xmm0        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,40,5,165,106,1,0                 // movaps        0x16aa5(%rip),%xmm0        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,40,211                        // movaps        %xmm11,%xmm2
   .byte  15,89,208                           // mulps         %xmm0,%xmm2
   .byte  15,194,194,1                        // cmpltps       %xmm2,%xmm0
@@ -29340,7 +36466,7 @@
   .byte  15,41,100,36,184                    // movaps        %xmm4,-0x48(%rsp)
   .byte  15,41,92,36,168                     // movaps        %xmm3,-0x58(%rsp)
   .byte  68,15,40,208                        // movaps        %xmm0,%xmm10
-  .byte  68,15,40,13,23,106,1,0              // movaps        0x16a17(%rip),%xmm9        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,13,91,106,1,0              // movaps        0x16a5b(%rip),%xmm9        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,194,194,2                        // cmpleps       %xmm2,%xmm0
   .byte  15,40,217                           // movaps        %xmm1,%xmm3
@@ -29353,19 +36479,19 @@
   .byte  15,41,84,36,152                     // movaps        %xmm2,-0x68(%rsp)
   .byte  69,15,88,192                        // addps         %xmm8,%xmm8
   .byte  68,15,92,197                        // subps         %xmm5,%xmm8
-  .byte  68,15,40,53,194,107,1,0             // movaps        0x16bc2(%rip),%xmm14        # 2b660 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+  .byte  68,15,40,53,6,108,1,0               // movaps        0x16c06(%rip),%xmm14        # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
   .byte  69,15,88,242                        // addps         %xmm10,%xmm14
   .byte  102,65,15,58,8,198,1                // roundps       $0x1,%xmm14,%xmm0
   .byte  68,15,92,240                        // subps         %xmm0,%xmm14
-  .byte  68,15,40,29,187,107,1,0             // movaps        0x16bbb(%rip),%xmm11        # 2b670 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+  .byte  68,15,40,29,255,107,1,0             // movaps        0x16bff(%rip),%xmm11        # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
   .byte  65,15,194,198,2                     // cmpleps       %xmm14,%xmm0
   .byte  15,40,245                           // movaps        %xmm5,%xmm6
   .byte  65,15,92,240                        // subps         %xmm8,%xmm6
-  .byte  15,40,61,84,107,1,0                 // movaps        0x16b54(%rip),%xmm7        # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+  .byte  15,40,61,152,107,1,0                // movaps        0x16b98(%rip),%xmm7        # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
   .byte  69,15,40,238                        // movaps        %xmm14,%xmm13
   .byte  68,15,89,239                        // mulps         %xmm7,%xmm13
-  .byte  15,40,29,101,107,1,0                // movaps        0x16b65(%rip),%xmm3        # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+  .byte  15,40,29,169,107,1,0                // movaps        0x16ba9(%rip),%xmm3        # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
   .byte  68,15,40,227                        // movaps        %xmm3,%xmm12
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
   .byte  68,15,89,230                        // mulps         %xmm6,%xmm12
@@ -29375,7 +36501,7 @@
   .byte  65,15,194,198,2                     // cmpleps       %xmm14,%xmm0
   .byte  68,15,40,253                        // movaps        %xmm5,%xmm15
   .byte  102,69,15,56,20,252                 // blendvps      %xmm0,%xmm12,%xmm15
-  .byte  68,15,40,37,68,107,1,0              // movaps        0x16b44(%rip),%xmm12        # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+  .byte  68,15,40,37,136,107,1,0             // movaps        0x16b88(%rip),%xmm12        # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
   .byte  65,15,40,196                        // movaps        %xmm12,%xmm0
   .byte  65,15,194,198,2                     // cmpleps       %xmm14,%xmm0
   .byte  68,15,89,238                        // mulps         %xmm6,%xmm13
@@ -29409,7 +36535,7 @@
   .byte  65,15,40,198                        // movaps        %xmm14,%xmm0
   .byte  15,40,84,36,152                     // movaps        -0x68(%rsp),%xmm2
   .byte  102,15,56,20,202                    // blendvps      %xmm0,%xmm2,%xmm1
-  .byte  68,15,88,21,220,106,1,0             // addps         0x16adc(%rip),%xmm10        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,88,21,32,107,1,0              // addps         0x16b20(%rip),%xmm10        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  102,65,15,58,8,194,1                // roundps       $0x1,%xmm10,%xmm0
   .byte  68,15,92,208                        // subps         %xmm0,%xmm10
   .byte  69,15,194,218,2                     // cmpleps       %xmm10,%xmm11
@@ -29464,11 +36590,11 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,52                              // jne           14c8b <_sk_scale_u8_sse41+0x4c>
+  .byte  117,52                              // jne           1c2c7 <_sk_scale_u8_sse41+0x4c>
   .byte  102,71,15,56,49,4,16                // pmovzxbd      (%r8,%r10,1),%xmm8
-  .byte  102,68,15,219,5,217,104,1,0         // pand          0x168d9(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,219,5,29,105,1,0          // pand          0x1691d(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,29,106,1,0               // mulps         0x16a1d(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,89,5,97,106,1,0               // mulps         0x16a61(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
@@ -29479,12 +36605,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,59                              // je            14cd3 <_sk_scale_u8_sse41+0x94>
+  .byte  116,59                              // je            1c30f <_sk_scale_u8_sse41+0x94>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            14cba <_sk_scale_u8_sse41+0x7b>
+  .byte  116,23                              // je            1c2f6 <_sk_scale_u8_sse41+0x7b>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,181                             // jne           14c5e <_sk_scale_u8_sse41+0x1f>
+  .byte  117,181                             // jne           1c29a <_sk_scale_u8_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,192,69                // pshufd        $0x45,%xmm8,%xmm8
@@ -29492,10 +36618,10 @@
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
   .byte  102,69,15,56,49,201                 // pmovzxbd      %xmm9,%xmm9
   .byte  102,69,15,58,14,193,15              // pblendw       $0xf,%xmm9,%xmm8
-  .byte  235,139                             // jmp           14c5e <_sk_scale_u8_sse41+0x1f>
+  .byte  235,139                             // jmp           1c29a <_sk_scale_u8_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  233,124,255,255,255                 // jmpq          14c5e <_sk_scale_u8_sse41+0x1f>
+  .byte  233,124,255,255,255                 // jmpq          1c29a <_sk_scale_u8_sse41+0x1f>
 
 HIDDEN _sk_scale_565_sse41
 .globl _sk_scale_565_sse41
@@ -29510,19 +36636,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,159,0,0,0                    // jne           14da5 <_sk_scale_565_sse41+0xc3>
+  .byte  15,133,159,0,0,0                    // jne           1c3e1 <_sk_scale_565_sse41+0xc3>
   .byte  102,71,15,56,51,28,80               // pmovzxwd      (%r8,%r10,2),%xmm11
-  .byte  102,15,111,5,139,105,1,0            // movdqa        0x1698b(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,207,105,1,0            // movdqa        0x169cf(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,65,15,219,195                   // pand          %xmm11,%xmm0
   .byte  68,15,91,200                        // cvtdq2ps      %xmm0,%xmm9
-  .byte  68,15,89,13,138,105,1,0             // mulps         0x1698a(%rip),%xmm9        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,5,146,105,1,0            // movdqa        0x16992(%rip),%xmm0        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  68,15,89,13,206,105,1,0             // mulps         0x169ce(%rip),%xmm9        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,5,214,105,1,0            // movdqa        0x169d6(%rip),%xmm0        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,65,15,219,195                   // pand          %xmm11,%xmm0
   .byte  68,15,91,208                        // cvtdq2ps      %xmm0,%xmm10
-  .byte  68,15,89,21,145,105,1,0             // mulps         0x16991(%rip),%xmm10        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,68,15,219,29,152,105,1,0        // pand          0x16998(%rip),%xmm11        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  68,15,89,21,213,105,1,0             // mulps         0x169d5(%rip),%xmm10        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,68,15,219,29,220,105,1,0        // pand          0x169dc(%rip),%xmm11        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  69,15,91,219                        // cvtdq2ps      %xmm11,%xmm11
-  .byte  68,15,89,29,156,105,1,0             // mulps         0x1699c(%rip),%xmm11        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  68,15,89,29,224,105,1,0             // mulps         0x169e0(%rip),%xmm11        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  15,40,195                           // movaps        %xmm3,%xmm0
   .byte  15,194,199,1                        // cmpltps       %xmm7,%xmm0
   .byte  69,15,40,226                        // movaps        %xmm10,%xmm12
@@ -29547,22 +36673,22 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,60                              // je            14dee <_sk_scale_565_sse41+0x10c>
+  .byte  116,60                              // je            1c42a <_sk_scale_565_sse41+0x10c>
   .byte  102,69,15,239,219                   // pxor          %xmm11,%xmm11
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,26                              // je            14dd7 <_sk_scale_565_sse41+0xf5>
+  .byte  116,26                              // je            1c413 <_sk_scale_565_sse41+0xf5>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,70,255,255,255               // jne           14d0d <_sk_scale_565_sse41+0x2b>
+  .byte  15,133,70,255,255,255               // jne           1c349 <_sk_scale_565_sse41+0x2b>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,68,15,112,216,69                // pshufd        $0x45,%xmm0,%xmm11
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
   .byte  102,68,15,58,14,216,15              // pblendw       $0xf,%xmm0,%xmm11
-  .byte  233,31,255,255,255                  // jmpq          14d0d <_sk_scale_565_sse41+0x2b>
+  .byte  233,31,255,255,255                  // jmpq          1c349 <_sk_scale_565_sse41+0x2b>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,68,15,110,216                   // movd          %eax,%xmm11
-  .byte  233,16,255,255,255                  // jmpq          14d0d <_sk_scale_565_sse41+0x2b>
+  .byte  233,16,255,255,255                  // jmpq          1c349 <_sk_scale_565_sse41+0x2b>
 
 HIDDEN _sk_lerp_1_float_sse41
 .globl _sk_lerp_1_float_sse41
@@ -29597,11 +36723,11 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,72                              // jne           14e95 <_sk_lerp_u8_sse41+0x60>
+  .byte  117,72                              // jne           1c4d1 <_sk_lerp_u8_sse41+0x60>
   .byte  102,71,15,56,49,4,16                // pmovzxbd      (%r8,%r10,1),%xmm8
-  .byte  102,68,15,219,5,227,102,1,0         // pand          0x166e3(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,219,5,39,103,1,0          // pand          0x16727(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,39,104,1,0               // mulps         0x16827(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,89,5,107,104,1,0              // mulps         0x1686b(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -29619,12 +36745,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,62                              // je            14ee0 <_sk_lerp_u8_sse41+0xab>
+  .byte  116,62                              // je            1c51c <_sk_lerp_u8_sse41+0xab>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            14ec4 <_sk_lerp_u8_sse41+0x8f>
+  .byte  116,23                              // je            1c500 <_sk_lerp_u8_sse41+0x8f>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,161                             // jne           14e54 <_sk_lerp_u8_sse41+0x1f>
+  .byte  117,161                             // jne           1c490 <_sk_lerp_u8_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,192,69                // pshufd        $0x45,%xmm8,%xmm8
@@ -29632,10 +36758,10 @@
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
   .byte  102,69,15,56,49,201                 // pmovzxbd      %xmm9,%xmm9
   .byte  102,69,15,58,14,193,15              // pblendw       $0xf,%xmm9,%xmm8
-  .byte  233,116,255,255,255                 // jmpq          14e54 <_sk_lerp_u8_sse41+0x1f>
+  .byte  233,116,255,255,255                 // jmpq          1c490 <_sk_lerp_u8_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  233,101,255,255,255                 // jmpq          14e54 <_sk_lerp_u8_sse41+0x1f>
+  .byte  233,101,255,255,255                 // jmpq          1c490 <_sk_lerp_u8_sse41+0x1f>
 
 HIDDEN _sk_lerp_565_sse41
 .globl _sk_lerp_565_sse41
@@ -29650,19 +36776,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,165,0,0,0                    // jne           14fb8 <_sk_lerp_565_sse41+0xc9>
+  .byte  15,133,165,0,0,0                    // jne           1c5f4 <_sk_lerp_565_sse41+0xc9>
   .byte  102,71,15,56,51,20,80               // pmovzxwd      (%r8,%r10,2),%xmm10
-  .byte  102,15,111,5,126,103,1,0            // movdqa        0x1677e(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,194,103,1,0            // movdqa        0x167c2(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,65,15,219,194                   // pand          %xmm10,%xmm0
   .byte  68,15,91,200                        // cvtdq2ps      %xmm0,%xmm9
-  .byte  68,15,89,13,125,103,1,0             // mulps         0x1677d(%rip),%xmm9        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,5,133,103,1,0            // movdqa        0x16785(%rip),%xmm0        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  68,15,89,13,193,103,1,0             // mulps         0x167c1(%rip),%xmm9        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,5,201,103,1,0            // movdqa        0x167c9(%rip),%xmm0        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,65,15,219,194                   // pand          %xmm10,%xmm0
   .byte  68,15,91,216                        // cvtdq2ps      %xmm0,%xmm11
-  .byte  68,15,89,29,132,103,1,0             // mulps         0x16784(%rip),%xmm11        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,68,15,219,21,139,103,1,0        // pand          0x1678b(%rip),%xmm10        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  68,15,89,29,200,103,1,0             // mulps         0x167c8(%rip),%xmm11        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,68,15,219,21,207,103,1,0        // pand          0x167cf(%rip),%xmm10        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
-  .byte  68,15,89,21,143,103,1,0             // mulps         0x1678f(%rip),%xmm10        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  68,15,89,21,211,103,1,0             // mulps         0x167d3(%rip),%xmm10        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  15,40,195                           // movaps        %xmm3,%xmm0
   .byte  15,194,199,1                        // cmpltps       %xmm7,%xmm0
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
@@ -29690,22 +36816,22 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,60                              // je            15001 <_sk_lerp_565_sse41+0x112>
+  .byte  116,60                              // je            1c63d <_sk_lerp_565_sse41+0x112>
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,26                              // je            14fea <_sk_lerp_565_sse41+0xfb>
+  .byte  116,26                              // je            1c626 <_sk_lerp_565_sse41+0xfb>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,64,255,255,255               // jne           14f1a <_sk_lerp_565_sse41+0x2b>
+  .byte  15,133,64,255,255,255               // jne           1c556 <_sk_lerp_565_sse41+0x2b>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,68,15,112,208,69                // pshufd        $0x45,%xmm0,%xmm10
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
   .byte  102,68,15,58,14,208,15              // pblendw       $0xf,%xmm0,%xmm10
-  .byte  233,25,255,255,255                  // jmpq          14f1a <_sk_lerp_565_sse41+0x2b>
+  .byte  233,25,255,255,255                  // jmpq          1c556 <_sk_lerp_565_sse41+0x2b>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  233,10,255,255,255                  // jmpq          14f1a <_sk_lerp_565_sse41+0x2b>
+  .byte  233,10,255,255,255                  // jmpq          1c556 <_sk_lerp_565_sse41+0x2b>
 
 HIDDEN _sk_load_tables_sse41
 .globl _sk_load_tables_sse41
@@ -29714,11 +36840,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,20,1,0,0                     // jne           15132 <_sk_load_tables_sse41+0x122>
+  .byte  15,133,20,1,0,0                     // jne           1c76e <_sk_load_tables_sse41+0x122>
   .byte  243,69,15,111,4,144                 // movdqu        (%r8,%rdx,4),%xmm8
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
-  .byte  102,15,111,5,17,101,1,0             // movdqa        0x16511(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,85,101,1,0             // movdqa        0x16555(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,73,15,58,22,192,1               // pextrq        $0x1,%xmm0,%r8
   .byte  102,73,15,126,193                   // movq          %xmm0,%r9
@@ -29733,7 +36859,7 @@
   .byte  102,66,15,58,33,4,155,32            // insertps      $0x20,(%rbx,%r11,4),%xmm0
   .byte  102,66,15,58,33,4,3,48              // insertps      $0x30,(%rbx,%r8,1),%xmm0
   .byte  102,65,15,111,200                   // movdqa        %xmm8,%xmm1
-  .byte  102,15,56,0,13,204,100,1,0          // pshufb        0x164cc(%rip),%xmm1        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,13,16,101,1,0           // pshufb        0x16510(%rip),%xmm1        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  102,73,15,58,22,200,1               // pextrq        $0x1,%xmm1,%r8
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
   .byte  68,15,182,203                       // movzbl        %bl,%r9d
@@ -29748,7 +36874,7 @@
   .byte  102,15,58,33,202,48                 // insertps      $0x30,%xmm2,%xmm1
   .byte  76,139,64,24                        // mov           0x18(%rax),%r8
   .byte  102,65,15,111,208                   // movdqa        %xmm8,%xmm2
-  .byte  102,15,56,0,21,136,100,1,0          // pshufb        0x16488(%rip),%xmm2        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,21,204,100,1,0          // pshufb        0x164cc(%rip),%xmm2        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  102,72,15,58,22,211,1               // pextrq        $0x1,%xmm2,%rbx
   .byte  102,72,15,126,208                   // movq          %xmm2,%rax
   .byte  68,15,182,200                       // movzbl        %al,%r9d
@@ -29763,7 +36889,7 @@
   .byte  102,15,58,33,211,48                 // insertps      $0x30,%xmm3,%xmm2
   .byte  102,65,15,114,208,24                // psrld         $0x18,%xmm8
   .byte  65,15,91,216                        // cvtdq2ps      %xmm8,%xmm3
-  .byte  15,89,29,101,101,1,0                // mulps         0x16565(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,169,101,1,0                // mulps         0x165a9(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
@@ -29771,19 +36897,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,52                              // je            15173 <_sk_load_tables_sse41+0x163>
+  .byte  116,52                              // je            1c7af <_sk_load_tables_sse41+0x163>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            15161 <_sk_load_tables_sse41+0x151>
+  .byte  116,23                              // je            1c79d <_sk_load_tables_sse41+0x151>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,208,254,255,255              // jne           15024 <_sk_load_tables_sse41+0x14>
+  .byte  15,133,208,254,255,255              // jne           1c660 <_sk_load_tables_sse41+0x14>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  243,65,15,126,4,144                 // movq          (%r8,%rdx,4),%xmm0
   .byte  102,68,15,58,14,192,15              // pblendw       $0xf,%xmm0,%xmm8
-  .byte  233,177,254,255,255                 // jmpq          15024 <_sk_load_tables_sse41+0x14>
+  .byte  233,177,254,255,255                 // jmpq          1c660 <_sk_load_tables_sse41+0x14>
   .byte  102,69,15,110,4,144                 // movd          (%r8,%rdx,4),%xmm8
-  .byte  233,166,254,255,255                 // jmpq          15024 <_sk_load_tables_sse41+0x14>
+  .byte  233,166,254,255,255                 // jmpq          1c660 <_sk_load_tables_sse41+0x14>
 
 HIDDEN _sk_load_tables_u16_be_sse41
 .globl _sk_load_tables_u16_be_sse41
@@ -29793,7 +36919,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,95,1,0,0                     // jne           152f3 <_sk_load_tables_u16_be_sse41+0x175>
+  .byte  15,133,95,1,0,0                     // jne           1c92f <_sk_load_tables_u16_be_sse41+0x175>
   .byte  102,67,15,16,4,72                   // movupd        (%r8,%r9,2),%xmm0
   .byte  243,67,15,111,76,72,16              // movdqu        0x10(%r8,%r9,2),%xmm1
   .byte  65,86                               // push          %r14
@@ -29804,7 +36930,7 @@
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
-  .byte  102,68,15,111,5,55,101,1,0          // movdqa        0x16537(%rip),%xmm8        # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+  .byte  102,68,15,111,5,123,101,1,0         // movdqa        0x1657b(%rip),%xmm8        # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
@@ -29822,7 +36948,7 @@
   .byte  102,15,58,33,194,32                 // insertps      $0x20,%xmm2,%xmm0
   .byte  243,66,15,16,20,3                   // movss         (%rbx,%r8,1),%xmm2
   .byte  102,15,58,33,194,48                 // insertps      $0x30,%xmm2,%xmm0
-  .byte  102,15,56,0,13,230,100,1,0          // pshufb        0x164e6(%rip),%xmm1        # 2b710 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+  .byte  102,15,56,0,13,42,101,1,0           // pshufb        0x1652a(%rip),%xmm1        # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
   .byte  102,15,56,51,201                    // pmovzxwd      %xmm1,%xmm1
   .byte  102,73,15,58,22,200,1               // pextrq        $0x1,%xmm1,%r8
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
@@ -29858,23 +36984,23 @@
   .byte  102,65,15,235,216                   // por           %xmm8,%xmm3
   .byte  102,15,56,51,219                    // pmovzxwd      %xmm3,%xmm3
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,52,100,1,0                 // mulps         0x16434(%rip),%xmm3        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  15,89,29,120,100,1,0                // mulps         0x16478(%rip),%xmm3        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
   .byte  255,224                             // jmpq          *%rax
   .byte  242,67,15,16,4,72                   // movsd         (%r8,%r9,2),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1530c <_sk_load_tables_u16_be_sse41+0x18e>
+  .byte  117,13                              // jne           1c948 <_sk_load_tables_u16_be_sse41+0x18e>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,149,254,255,255                 // jmpq          151a1 <_sk_load_tables_u16_be_sse41+0x23>
+  .byte  233,149,254,255,255                 // jmpq          1c7dd <_sk_load_tables_u16_be_sse41+0x23>
   .byte  102,67,15,22,68,72,8                // movhpd        0x8(%r8,%r9,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,128,254,255,255              // jb            151a1 <_sk_load_tables_u16_be_sse41+0x23>
+  .byte  15,130,128,254,255,255              // jb            1c7dd <_sk_load_tables_u16_be_sse41+0x23>
   .byte  243,67,15,126,76,72,16              // movq          0x10(%r8,%r9,2),%xmm1
-  .byte  233,116,254,255,255                 // jmpq          151a1 <_sk_load_tables_u16_be_sse41+0x23>
+  .byte  233,116,254,255,255                 // jmpq          1c7dd <_sk_load_tables_u16_be_sse41+0x23>
 
 HIDDEN _sk_load_tables_rgb_u16_be_sse41
 .globl _sk_load_tables_rgb_u16_be_sse41
@@ -29884,7 +37010,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,82                        // lea           (%rdx,%rdx,2),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,79,1,0,0                     // jne           1548e <_sk_load_tables_rgb_u16_be_sse41+0x161>
+  .byte  15,133,79,1,0,0                     // jne           1caca <_sk_load_tables_rgb_u16_be_sse41+0x161>
   .byte  243,67,15,111,20,72                 // movdqu        (%r8,%r9,2),%xmm2
   .byte  243,67,15,111,76,72,8               // movdqu        0x8(%r8,%r9,2),%xmm1
   .byte  102,15,115,217,4                    // psrldq        $0x4,%xmm1
@@ -29898,7 +37024,7 @@
   .byte  102,15,97,209                       // punpcklwd     %xmm1,%xmm2
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,97,201                    // punpcklwd     %xmm9,%xmm1
-  .byte  102,68,15,111,5,125,99,1,0          // movdqa        0x1637d(%rip),%xmm8        # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+  .byte  102,68,15,111,5,193,99,1,0          // movdqa        0x163c1(%rip),%xmm8        # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
@@ -29916,7 +37042,7 @@
   .byte  102,15,58,33,195,32                 // insertps      $0x20,%xmm3,%xmm0
   .byte  243,66,15,16,28,3                   // movss         (%rbx,%r8,1),%xmm3
   .byte  102,15,58,33,195,48                 // insertps      $0x30,%xmm3,%xmm0
-  .byte  102,15,56,0,13,44,99,1,0            // pshufb        0x1632c(%rip),%xmm1        # 2b710 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+  .byte  102,15,56,0,13,112,99,1,0           // pshufb        0x16370(%rip),%xmm1        # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
   .byte  102,15,56,51,201                    // pmovzxwd      %xmm1,%xmm1
   .byte  102,73,15,58,22,200,1               // pextrq        $0x1,%xmm1,%r8
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
@@ -29947,7 +37073,7 @@
   .byte  243,65,15,16,28,24                  // movss         (%r8,%rbx,1),%xmm3
   .byte  102,15,58,33,211,48                 // insertps      $0x30,%xmm3,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,7,96,1,0                   // movaps        0x16007(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,75,96,1,0                  // movaps        0x1604b(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
   .byte  255,224                             // jmpq          *%rax
@@ -29955,21 +37081,21 @@
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,67,15,196,84,72,4,2             // pinsrw        $0x2,0x4(%r8,%r9,2),%xmm2
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,14                              // jne           154b4 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+  .byte  117,14                              // jne           1caf0 <_sk_load_tables_rgb_u16_be_sse41+0x187>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
-  .byte  233,177,254,255,255                 // jmpq          15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+  .byte  233,177,254,255,255                 // jmpq          1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
   .byte  102,71,15,110,76,72,6               // movd          0x6(%r8,%r9,2),%xmm9
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,71,15,196,76,72,10,2            // pinsrw        $0x2,0xa(%r8,%r9,2),%xmm9
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,24                              // jb            154e5 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+  .byte  114,24                              // jb            1cb21 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
   .byte  102,67,15,110,76,72,12              // movd          0xc(%r8,%r9,2),%xmm1
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,67,15,196,76,72,16,2            // pinsrw        $0x2,0x10(%r8,%r9,2),%xmm1
-  .byte  233,128,254,255,255                 // jmpq          15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+  .byte  233,128,254,255,255                 // jmpq          1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,119,254,255,255                 // jmpq          15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+  .byte  233,119,254,255,255                 // jmpq          1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
 
 HIDDEN _sk_byte_tables_sse41
 .globl _sk_byte_tables_sse41
@@ -29979,7 +37105,7 @@
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,116,96,1,0               // movaps        0x16074(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,184,96,1,0               // movaps        0x160b8(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,91,192                       // cvtps2dq      %xmm0,%xmm0
   .byte  102,73,15,58,22,192,1               // pextrq        $0x1,%xmm0,%r8
@@ -30002,7 +37128,7 @@
   .byte  102,15,58,32,197,3                  // pinsrb        $0x3,%ebp,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,13,42,97,1,0               // movaps        0x1612a(%rip),%xmm9        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,13,110,97,1,0              // movaps        0x1616e(%rip),%xmm9        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -30104,7 +37230,7 @@
   .byte  102,15,58,32,197,3                  // pinsrb        $0x3,%ebp,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,13,134,95,1,0              // movaps        0x15f86(%rip),%xmm9        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,13,202,95,1,0              // movaps        0x15fca(%rip),%xmm9        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -30286,31 +37412,31 @@
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,194                        // cvtdq2ps      %xmm10,%xmm8
-  .byte  68,15,89,5,97,93,1,0                // mulps         0x15d61(%rip),%xmm8        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,21,105,93,1,0              // andps         0x15d69(%rip),%xmm10        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,21,161,90,1,0              // orps          0x15aa1(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,5,105,93,1,0               // addps         0x15d69(%rip),%xmm8        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  68,15,40,37,113,93,1,0              // movaps        0x15d71(%rip),%xmm12        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,5,165,93,1,0               // mulps         0x15da5(%rip),%xmm8        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,21,173,93,1,0              // andps         0x15dad(%rip),%xmm10        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,21,229,90,1,0              // orps          0x15ae5(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,5,173,93,1,0               // addps         0x15dad(%rip),%xmm8        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  68,15,40,37,181,93,1,0              // movaps        0x15db5(%rip),%xmm12        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,196                        // subps         %xmm12,%xmm8
-  .byte  68,15,88,21,113,93,1,0              // addps         0x15d71(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  68,15,40,37,121,93,1,0              // movaps        0x15d79(%rip),%xmm12        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,21,181,93,1,0              // addps         0x15db5(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  68,15,40,37,189,93,1,0              // movaps        0x15dbd(%rip),%xmm12        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,196                        // subps         %xmm12,%xmm8
   .byte  69,15,89,195                        // mulps         %xmm11,%xmm8
   .byte  102,69,15,58,8,208,1                // roundps       $0x1,%xmm8,%xmm10
   .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,5,102,93,1,0               // addps         0x15d66(%rip),%xmm8        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  68,15,40,21,110,93,1,0              // movaps        0x15d6e(%rip),%xmm10        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,5,170,93,1,0               // addps         0x15daa(%rip),%xmm8        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  68,15,40,21,178,93,1,0              // movaps        0x15db2(%rip),%xmm10        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  69,15,89,211                        // mulps         %xmm11,%xmm10
   .byte  69,15,92,194                        // subps         %xmm10,%xmm8
-  .byte  68,15,40,21,110,93,1,0              // movaps        0x15d6e(%rip),%xmm10        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,21,178,93,1,0              // movaps        0x15db2(%rip),%xmm10        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  68,15,40,29,114,93,1,0              // movaps        0x15d72(%rip),%xmm11        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,29,182,93,1,0              // movaps        0x15db6(%rip),%xmm11        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  69,15,94,218                        // divps         %xmm10,%xmm11
   .byte  69,15,88,216                        // addps         %xmm8,%xmm11
-  .byte  68,15,89,29,114,93,1,0              // mulps         0x15d72(%rip),%xmm11        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  68,15,89,29,182,93,1,0              // mulps         0x15db6(%rip),%xmm11        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,69,15,91,211                    // cvtps2dq      %xmm11,%xmm10
   .byte  243,68,15,16,64,20                  // movss         0x14(%rax),%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
@@ -30318,7 +37444,7 @@
   .byte  102,69,15,56,20,193                 // blendvps      %xmm0,%xmm9,%xmm8
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  68,15,95,192                        // maxps         %xmm0,%xmm8
-  .byte  68,15,93,5,9,90,1,0                 // minps         0x15a09(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,93,5,77,90,1,0                // minps         0x15a4d(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -30348,31 +37474,31 @@
   .byte  68,15,88,217                        // addps         %xmm1,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,58,92,1,0               // mulps         0x15c3a(%rip),%xmm12        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,29,66,92,1,0               // andps         0x15c42(%rip),%xmm11        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,29,122,89,1,0              // orps          0x1597a(%rip),%xmm11        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,37,66,92,1,0               // addps         0x15c42(%rip),%xmm12        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  15,40,13,75,92,1,0                  // movaps        0x15c4b(%rip),%xmm1        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,37,126,92,1,0              // mulps         0x15c7e(%rip),%xmm12        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,29,134,92,1,0              // andps         0x15c86(%rip),%xmm11        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,29,190,89,1,0              // orps          0x159be(%rip),%xmm11        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,37,134,92,1,0              // addps         0x15c86(%rip),%xmm12        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  15,40,13,143,92,1,0                 // movaps        0x15c8f(%rip),%xmm1        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
-  .byte  68,15,88,29,75,92,1,0               // addps         0x15c4b(%rip),%xmm11        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  15,40,13,84,92,1,0                  // movaps        0x15c54(%rip),%xmm1        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,29,143,92,1,0              // addps         0x15c8f(%rip),%xmm11        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  15,40,13,152,92,1,0                 // movaps        0x15c98(%rip),%xmm1        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  65,15,94,203                        // divps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,65,92,1,0               // addps         0x15c41(%rip),%xmm12        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  15,40,13,74,92,1,0                  // movaps        0x15c4a(%rip),%xmm1        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,37,133,92,1,0              // addps         0x15c85(%rip),%xmm12        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  15,40,13,142,92,1,0                 // movaps        0x15c8e(%rip),%xmm1        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  68,15,92,225                        // subps         %xmm1,%xmm12
-  .byte  68,15,40,21,74,92,1,0               // movaps        0x15c4a(%rip),%xmm10        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,21,142,92,1,0              // movaps        0x15c8e(%rip),%xmm10        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,13,79,92,1,0                  // movaps        0x15c4f(%rip),%xmm1        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  15,40,13,147,92,1,0                 // movaps        0x15c93(%rip),%xmm1        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  65,15,94,202                        // divps         %xmm10,%xmm1
   .byte  65,15,88,204                        // addps         %xmm12,%xmm1
-  .byte  15,89,13,80,92,1,0                  // mulps         0x15c50(%rip),%xmm1        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  15,89,13,148,92,1,0                 // mulps         0x15c94(%rip),%xmm1        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,68,15,91,209                    // cvtps2dq      %xmm1,%xmm10
   .byte  243,15,16,72,20                     // movss         0x14(%rax),%xmm1
   .byte  15,198,201,0                        // shufps        $0x0,%xmm1,%xmm1
@@ -30380,7 +37506,7 @@
   .byte  102,65,15,56,20,201                 // blendvps      %xmm0,%xmm9,%xmm1
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,200                           // maxps         %xmm0,%xmm1
-  .byte  15,93,13,235,88,1,0                 // minps         0x158eb(%rip),%xmm1        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,13,47,89,1,0                  // minps         0x1592f(%rip),%xmm1        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -30410,31 +37536,31 @@
   .byte  68,15,88,218                        // addps         %xmm2,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,28,91,1,0               // mulps         0x15b1c(%rip),%xmm12        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,29,36,91,1,0               // andps         0x15b24(%rip),%xmm11        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,29,92,88,1,0               // orps          0x1585c(%rip),%xmm11        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,37,36,91,1,0               // addps         0x15b24(%rip),%xmm12        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  15,40,21,45,91,1,0                  // movaps        0x15b2d(%rip),%xmm2        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,37,96,91,1,0               // mulps         0x15b60(%rip),%xmm12        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,29,104,91,1,0              // andps         0x15b68(%rip),%xmm11        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,29,160,88,1,0              // orps          0x158a0(%rip),%xmm11        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,37,104,91,1,0              // addps         0x15b68(%rip),%xmm12        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  15,40,21,113,91,1,0                 // movaps        0x15b71(%rip),%xmm2        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  65,15,89,211                        // mulps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
-  .byte  68,15,88,29,45,91,1,0               // addps         0x15b2d(%rip),%xmm11        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  15,40,21,54,91,1,0                  // movaps        0x15b36(%rip),%xmm2        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,29,113,91,1,0              // addps         0x15b71(%rip),%xmm11        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  15,40,21,122,91,1,0                 // movaps        0x15b7a(%rip),%xmm2        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  65,15,94,211                        // divps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,35,91,1,0               // addps         0x15b23(%rip),%xmm12        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  15,40,21,44,91,1,0                  // movaps        0x15b2c(%rip),%xmm2        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,37,103,91,1,0              // addps         0x15b67(%rip),%xmm12        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  15,40,21,112,91,1,0                 // movaps        0x15b70(%rip),%xmm2        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  65,15,89,211                        // mulps         %xmm11,%xmm2
   .byte  68,15,92,226                        // subps         %xmm2,%xmm12
-  .byte  68,15,40,21,44,91,1,0               // movaps        0x15b2c(%rip),%xmm10        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,21,112,91,1,0              // movaps        0x15b70(%rip),%xmm10        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,21,49,91,1,0                  // movaps        0x15b31(%rip),%xmm2        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  15,40,21,117,91,1,0                 // movaps        0x15b75(%rip),%xmm2        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  65,15,94,210                        // divps         %xmm10,%xmm2
   .byte  65,15,88,212                        // addps         %xmm12,%xmm2
-  .byte  15,89,21,50,91,1,0                  // mulps         0x15b32(%rip),%xmm2        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  15,89,21,118,91,1,0                 // mulps         0x15b76(%rip),%xmm2        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,68,15,91,210                    // cvtps2dq      %xmm2,%xmm10
   .byte  243,15,16,80,20                     // movss         0x14(%rax),%xmm2
   .byte  15,198,210,0                        // shufps        $0x0,%xmm2,%xmm2
@@ -30442,7 +37568,7 @@
   .byte  102,65,15,56,20,209                 // blendvps      %xmm0,%xmm9,%xmm2
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,208                           // maxps         %xmm0,%xmm2
-  .byte  15,93,21,205,87,1,0                 // minps         0x157cd(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,21,17,88,1,0                  // minps         0x15811(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -30472,31 +37598,31 @@
   .byte  68,15,88,219                        // addps         %xmm3,%xmm11
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,91,227                        // cvtdq2ps      %xmm11,%xmm12
-  .byte  68,15,89,37,254,89,1,0              // mulps         0x159fe(%rip),%xmm12        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,29,6,90,1,0                // andps         0x15a06(%rip),%xmm11        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,29,62,87,1,0               // orps          0x1573e(%rip),%xmm11        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,37,6,90,1,0                // addps         0x15a06(%rip),%xmm12        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  15,40,29,15,90,1,0                  // movaps        0x15a0f(%rip),%xmm3        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,37,66,90,1,0               // mulps         0x15a42(%rip),%xmm12        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,29,74,90,1,0               // andps         0x15a4a(%rip),%xmm11        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,29,130,87,1,0              // orps          0x15782(%rip),%xmm11        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,37,74,90,1,0               // addps         0x15a4a(%rip),%xmm12        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  15,40,29,83,90,1,0                  // movaps        0x15a53(%rip),%xmm3        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  65,15,89,219                        // mulps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
-  .byte  68,15,88,29,15,90,1,0               // addps         0x15a0f(%rip),%xmm11        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  15,40,29,24,90,1,0                  // movaps        0x15a18(%rip),%xmm3        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,29,83,90,1,0               // addps         0x15a53(%rip),%xmm11        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  15,40,29,92,90,1,0                  // movaps        0x15a5c(%rip),%xmm3        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  65,15,94,219                        // divps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  102,69,15,58,8,212,1                // roundps       $0x1,%xmm12,%xmm10
   .byte  69,15,40,220                        // movaps        %xmm12,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  68,15,88,37,5,90,1,0                // addps         0x15a05(%rip),%xmm12        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  15,40,29,14,90,1,0                  // movaps        0x15a0e(%rip),%xmm3        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,37,73,90,1,0               // addps         0x15a49(%rip),%xmm12        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  15,40,29,82,90,1,0                  // movaps        0x15a52(%rip),%xmm3        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  65,15,89,219                        // mulps         %xmm11,%xmm3
   .byte  68,15,92,227                        // subps         %xmm3,%xmm12
-  .byte  68,15,40,21,14,90,1,0               // movaps        0x15a0e(%rip),%xmm10        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,21,82,90,1,0               // movaps        0x15a52(%rip),%xmm10        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
-  .byte  15,40,29,19,90,1,0                  // movaps        0x15a13(%rip),%xmm3        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  15,40,29,87,90,1,0                  // movaps        0x15a57(%rip),%xmm3        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  65,15,94,218                        // divps         %xmm10,%xmm3
   .byte  65,15,88,220                        // addps         %xmm12,%xmm3
-  .byte  15,89,29,20,90,1,0                  // mulps         0x15a14(%rip),%xmm3        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  15,89,29,88,90,1,0                  // mulps         0x15a58(%rip),%xmm3        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,68,15,91,211                    // cvtps2dq      %xmm3,%xmm10
   .byte  243,15,16,88,20                     // movss         0x14(%rax),%xmm3
   .byte  15,198,219,0                        // shufps        $0x0,%xmm3,%xmm3
@@ -30504,7 +37630,7 @@
   .byte  102,65,15,56,20,217                 // blendvps      %xmm0,%xmm9,%xmm3
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,95,216                           // maxps         %xmm0,%xmm3
-  .byte  15,93,29,175,86,1,0                 // minps         0x156af(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,29,243,86,1,0                 // minps         0x156f3(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -30521,20 +37647,20 @@
   .byte  15,40,218                           // movaps        %xmm2,%xmm3
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,91,194                           // cvtdq2ps      %xmm2,%xmm0
-  .byte  15,89,5,30,89,1,0                   // mulps         0x1591e(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,40,53,38,89,1,0               // movaps        0x15926(%rip),%xmm14        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+  .byte  15,89,5,98,89,1,0                   // mulps         0x15962(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,40,53,106,89,1,0              // movaps        0x1596a(%rip),%xmm14        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
   .byte  65,15,84,214                        // andps         %xmm14,%xmm2
-  .byte  68,15,40,37,90,86,1,0               // movaps        0x1565a(%rip),%xmm12        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,37,158,86,1,0              // movaps        0x1569e(%rip),%xmm12        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,86,212                        // orps          %xmm12,%xmm2
-  .byte  68,15,40,21,30,89,1,0               // movaps        0x1591e(%rip),%xmm10        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+  .byte  68,15,40,21,98,89,1,0               // movaps        0x15962(%rip),%xmm10        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
   .byte  65,15,88,194                        // addps         %xmm10,%xmm0
-  .byte  68,15,40,29,34,89,1,0               // movaps        0x15922(%rip),%xmm11        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,40,29,102,89,1,0              // movaps        0x15966(%rip),%xmm11        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  15,40,226                           // movaps        %xmm2,%xmm4
   .byte  65,15,89,227                        // mulps         %xmm11,%xmm4
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  68,15,40,13,32,89,1,0               // movaps        0x15920(%rip),%xmm9        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+  .byte  68,15,40,13,100,89,1,0              // movaps        0x15964(%rip),%xmm9        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
   .byte  65,15,88,209                        // addps         %xmm9,%xmm2
-  .byte  68,15,40,45,36,89,1,0               // movaps        0x15924(%rip),%xmm13        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,40,45,104,89,1,0              // movaps        0x15968(%rip),%xmm13        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  65,15,40,229                        // movaps        %xmm13,%xmm4
   .byte  15,94,226                           // divps         %xmm2,%xmm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -30545,21 +37671,21 @@
   .byte  102,15,58,8,208,1                   // roundps       $0x1,%xmm0,%xmm2
   .byte  15,40,224                           // movaps        %xmm0,%xmm4
   .byte  15,92,226                           // subps         %xmm2,%xmm4
-  .byte  15,40,53,7,89,1,0                   // movaps        0x15907(%rip),%xmm6        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+  .byte  15,40,53,75,89,1,0                  // movaps        0x1594b(%rip),%xmm6        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
   .byte  15,88,198                           // addps         %xmm6,%xmm0
-  .byte  15,40,61,29,89,1,0                  // movaps        0x1591d(%rip),%xmm7        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  15,40,61,97,89,1,0                  // movaps        0x15961(%rip),%xmm7        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  15,40,239                           // movaps        %xmm7,%xmm5
   .byte  15,92,236                           // subps         %xmm4,%xmm5
   .byte  15,40,212                           // movaps        %xmm4,%xmm2
-  .byte  15,40,37,253,88,1,0                 // movaps        0x158fd(%rip),%xmm4        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  15,40,37,65,89,1,0                  // movaps        0x15941(%rip),%xmm4        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  15,89,212                           // mulps         %xmm4,%xmm2
   .byte  15,92,194                           // subps         %xmm2,%xmm0
-  .byte  68,15,40,61,15,89,1,0               // movaps        0x1590f(%rip),%xmm15        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,61,83,89,1,0               // movaps        0x15953(%rip),%xmm15        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  65,15,40,215                        // movaps        %xmm15,%xmm2
   .byte  15,94,213                           // divps         %xmm5,%xmm2
   .byte  15,88,208                           // addps         %xmm0,%xmm2
   .byte  15,91,193                           // cvtdq2ps      %xmm1,%xmm0
-  .byte  15,89,5,107,88,1,0                  // mulps         0x1586b(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+  .byte  15,89,5,175,88,1,0                  // mulps         0x158af(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
   .byte  65,15,84,206                        // andps         %xmm14,%xmm1
   .byte  65,15,86,204                        // orps          %xmm12,%xmm1
   .byte  65,15,88,194                        // addps         %xmm10,%xmm0
@@ -30585,8 +37711,8 @@
   .byte  15,94,206                           // divps         %xmm6,%xmm1
   .byte  15,88,200                           // addps         %xmm0,%xmm1
   .byte  15,91,195                           // cvtdq2ps      %xmm3,%xmm0
-  .byte  15,89,5,12,88,1,0                   // mulps         0x1580c(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  15,84,29,21,88,1,0                  // andps         0x15815(%rip),%xmm3        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+  .byte  15,89,5,80,88,1,0                   // mulps         0x15850(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  15,84,29,89,88,1,0                  // andps         0x15859(%rip),%xmm3        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
   .byte  65,15,86,220                        // orps          %xmm12,%xmm3
   .byte  65,15,88,194                        // addps         %xmm10,%xmm0
   .byte  68,15,89,219                        // mulps         %xmm3,%xmm11
@@ -30604,7 +37730,7 @@
   .byte  15,92,253                           // subps         %xmm5,%xmm7
   .byte  68,15,94,255                        // divps         %xmm7,%xmm15
   .byte  68,15,88,248                        // addps         %xmm0,%xmm15
-  .byte  15,40,5,93,88,1,0                   // movaps        0x1585d(%rip),%xmm0        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  15,40,5,161,88,1,0                  // movaps        0x158a1(%rip),%xmm0        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  15,89,208                           // mulps         %xmm0,%xmm2
   .byte  15,89,200                           // mulps         %xmm0,%xmm1
   .byte  68,15,89,248                        // mulps         %xmm0,%xmm15
@@ -30624,29 +37750,29 @@
 FUNCTION(_sk_lab_to_xyz_sse41)
 _sk_lab_to_xyz_sse41:
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  68,15,89,5,45,88,1,0                // mulps         0x1582d(%rip),%xmm8        # 2b7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
-  .byte  68,15,40,13,181,85,1,0              // movaps        0x155b5(%rip),%xmm9        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,89,5,113,88,1,0               // mulps         0x15871(%rip),%xmm8        # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+  .byte  68,15,40,13,249,85,1,0              // movaps        0x155f9(%rip),%xmm9        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,201                        // mulps         %xmm9,%xmm1
-  .byte  15,40,5,42,88,1,0                   // movaps        0x1582a(%rip),%xmm0        # 2b7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+  .byte  15,40,5,110,88,1,0                  // movaps        0x1586e(%rip),%xmm0        # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
   .byte  15,88,200                           // addps         %xmm0,%xmm1
   .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
   .byte  15,88,208                           // addps         %xmm0,%xmm2
-  .byte  68,15,88,5,40,88,1,0                // addps         0x15828(%rip),%xmm8        # 2b800 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
-  .byte  68,15,89,5,48,88,1,0                // mulps         0x15830(%rip),%xmm8        # 2b810 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
-  .byte  15,89,13,57,88,1,0                  // mulps         0x15839(%rip),%xmm1        # 2b820 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+  .byte  68,15,88,5,108,88,1,0               // addps         0x1586c(%rip),%xmm8        # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+  .byte  68,15,89,5,116,88,1,0               // mulps         0x15874(%rip),%xmm8        # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+  .byte  15,89,13,125,88,1,0                 // mulps         0x1587d(%rip),%xmm1        # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
   .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  15,89,21,62,88,1,0                  // mulps         0x1583e(%rip),%xmm2        # 2b830 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+  .byte  15,89,21,130,88,1,0                 // mulps         0x15882(%rip),%xmm2        # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
   .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
   .byte  68,15,92,210                        // subps         %xmm2,%xmm10
   .byte  68,15,40,217                        // movaps        %xmm1,%xmm11
   .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
   .byte  68,15,89,217                        // mulps         %xmm1,%xmm11
-  .byte  68,15,40,13,50,88,1,0               // movaps        0x15832(%rip),%xmm9        # 2b840 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+  .byte  68,15,40,13,118,88,1,0              // movaps        0x15876(%rip),%xmm9        # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  65,15,194,195,1                     // cmpltps       %xmm11,%xmm0
-  .byte  15,40,21,50,88,1,0                  // movaps        0x15832(%rip),%xmm2        # 2b850 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+  .byte  15,40,21,118,88,1,0                 // movaps        0x15876(%rip),%xmm2        # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
   .byte  15,88,202                           // addps         %xmm2,%xmm1
-  .byte  68,15,40,37,55,88,1,0               // movaps        0x15837(%rip),%xmm12        # 2b860 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+  .byte  68,15,40,37,123,88,1,0              // movaps        0x1587b(%rip),%xmm12        # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
   .byte  65,15,89,204                        // mulps         %xmm12,%xmm1
   .byte  102,65,15,56,20,203                 // blendvps      %xmm0,%xmm11,%xmm1
   .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
@@ -30665,8 +37791,8 @@
   .byte  65,15,89,212                        // mulps         %xmm12,%xmm2
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  102,65,15,56,20,211                 // blendvps      %xmm0,%xmm11,%xmm2
-  .byte  15,89,13,240,87,1,0                 // mulps         0x157f0(%rip),%xmm1        # 2b870 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
-  .byte  15,89,21,249,87,1,0                 // mulps         0x157f9(%rip),%xmm2        # 2b880 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+  .byte  15,89,13,52,88,1,0                  // mulps         0x15834(%rip),%xmm1        # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+  .byte  15,89,21,61,88,1,0                  // mulps         0x1583d(%rip),%xmm2        # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,40,193                           // movaps        %xmm1,%xmm0
   .byte  65,15,40,200                        // movaps        %xmm8,%xmm1
@@ -30683,11 +37809,11 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,39                              // jne           160d1 <_sk_load_a8_sse41+0x3f>
+  .byte  117,39                              // jne           1d70d <_sk_load_a8_sse41+0x3f>
   .byte  102,67,15,56,49,4,16                // pmovzxbd      (%r8,%r10,1),%xmm0
-  .byte  102,15,219,5,135,84,1,0             // pand          0x15487(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,5,203,84,1,0             // pand          0x154cb(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
-  .byte  15,89,29,205,85,1,0                 // mulps         0x155cd(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,17,86,1,0                  // mulps         0x15611(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -30696,12 +37822,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            16113 <_sk_load_a8_sse41+0x81>
+  .byte  116,53                              // je            1d74f <_sk_load_a8_sse41+0x81>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            160fd <_sk_load_a8_sse41+0x6b>
+  .byte  116,21                              // je            1d739 <_sk_load_a8_sse41+0x6b>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,195                             // jne           160b1 <_sk_load_a8_sse41+0x1f>
+  .byte  117,195                             // jne           1d6ed <_sk_load_a8_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,192,69                   // pshufd        $0x45,%xmm0,%xmm0
@@ -30709,10 +37835,10 @@
   .byte  102,15,110,200                      // movd          %eax,%xmm1
   .byte  102,15,56,49,201                    // pmovzxbd      %xmm1,%xmm1
   .byte  102,15,58,14,193,15                 // pblendw       $0xf,%xmm1,%xmm0
-  .byte  235,158                             // jmp           160b1 <_sk_load_a8_sse41+0x1f>
+  .byte  235,158                             // jmp           1d6ed <_sk_load_a8_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,147                             // jmp           160b1 <_sk_load_a8_sse41+0x1f>
+  .byte  235,147                             // jmp           1d6ed <_sk_load_a8_sse41+0x1f>
 
 HIDDEN _sk_load_a8_dst_sse41
 .globl _sk_load_a8_dst_sse41
@@ -30725,11 +37851,11 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,39                              // jne           1615d <_sk_load_a8_dst_sse41+0x3f>
+  .byte  117,39                              // jne           1d799 <_sk_load_a8_dst_sse41+0x3f>
   .byte  102,67,15,56,49,36,16               // pmovzxbd      (%r8,%r10,1),%xmm4
-  .byte  102,15,219,37,251,83,1,0            // pand          0x153fb(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,37,63,84,1,0             // pand          0x1543f(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,252                           // cvtdq2ps      %xmm4,%xmm7
-  .byte  15,89,61,65,85,1,0                  // mulps         0x15541(%rip),%xmm7        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,61,133,85,1,0                 // mulps         0x15585(%rip),%xmm7        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
@@ -30738,12 +37864,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            1619f <_sk_load_a8_dst_sse41+0x81>
+  .byte  116,53                              // je            1d7db <_sk_load_a8_dst_sse41+0x81>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            16189 <_sk_load_a8_dst_sse41+0x6b>
+  .byte  116,21                              // je            1d7c5 <_sk_load_a8_dst_sse41+0x6b>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,195                             // jne           1613d <_sk_load_a8_dst_sse41+0x1f>
+  .byte  117,195                             // jne           1d779 <_sk_load_a8_dst_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,228,69                   // pshufd        $0x45,%xmm4,%xmm4
@@ -30751,10 +37877,10 @@
   .byte  102,15,110,232                      // movd          %eax,%xmm5
   .byte  102,15,56,49,237                    // pmovzxbd      %xmm5,%xmm5
   .byte  102,15,58,14,229,15                 // pblendw       $0xf,%xmm5,%xmm4
-  .byte  235,158                             // jmp           1613d <_sk_load_a8_dst_sse41+0x1f>
+  .byte  235,158                             // jmp           1d779 <_sk_load_a8_dst_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,147                             // jmp           1613d <_sk_load_a8_dst_sse41+0x1f>
+  .byte  235,147                             // jmp           1d779 <_sk_load_a8_dst_sse41+0x1f>
 
 HIDDEN _sk_gather_a8_sse41
 .globl _sk_gather_a8_sse41
@@ -30797,7 +37923,7 @@
   .byte  102,15,58,32,192,3                  // pinsrb        $0x3,%eax,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
-  .byte  15,89,29,57,84,1,0                  // mulps         0x15439(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,125,84,1,0                 // mulps         0x1547d(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -30814,13 +37940,13 @@
   .byte  77,15,175,193                       // imul          %r9,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
-  .byte  68,15,40,5,240,82,1,0               // movaps        0x152f0(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,52,83,1,0                // movaps        0x15334(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,68,15,56,43,192                 // packusdw      %xmm0,%xmm8
   .byte  102,68,15,103,192                   // packuswb      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,13                              // jne           162a6 <_sk_store_a8_sse41+0x41>
+  .byte  117,13                              // jne           1d8e2 <_sk_store_a8_sse41+0x41>
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  67,137,4,16                         // mov           %eax,(%r8,%r10,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -30829,17 +37955,17 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,41                              // je            162e2 <_sk_store_a8_sse41+0x7d>
+  .byte  116,41                              // je            1d91e <_sk_store_a8_sse41+0x7d>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            162ce <_sk_store_a8_sse41+0x69>
+  .byte  116,15                              // je            1d90a <_sk_store_a8_sse41+0x69>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,221                             // jne           162a2 <_sk_store_a8_sse41+0x3d>
+  .byte  117,221                             // jne           1d8de <_sk_store_a8_sse41+0x3d>
   .byte  102,71,15,58,20,68,16,2,8           // pextrb        $0x8,%xmm8,0x2(%r8,%r10,1)
-  .byte  102,68,15,56,0,5,184,85,1,0         // pshufb        0x155b8(%rip),%xmm8        # 2b890 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
+  .byte  102,68,15,56,0,5,252,85,1,0         // pshufb        0x155fc(%rip),%xmm8        # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
   .byte  102,71,15,58,21,4,16,0              // pextrw        $0x0,%xmm8,(%r8,%r10,1)
-  .byte  235,192                             // jmp           162a2 <_sk_store_a8_sse41+0x3d>
+  .byte  235,192                             // jmp           1d8de <_sk_store_a8_sse41+0x3d>
   .byte  102,71,15,58,20,4,16,0              // pextrb        $0x0,%xmm8,(%r8,%r10,1)
-  .byte  235,182                             // jmp           162a2 <_sk_store_a8_sse41+0x3d>
+  .byte  235,182                             // jmp           1d8de <_sk_store_a8_sse41+0x3d>
 
 HIDDEN _sk_load_g8_sse41
 .globl _sk_load_g8_sse41
@@ -30852,25 +37978,25 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,42                              // jne           1632e <_sk_load_g8_sse41+0x42>
+  .byte  117,42                              // jne           1d96a <_sk_load_g8_sse41+0x42>
   .byte  102,67,15,56,49,4,16                // pmovzxbd      (%r8,%r10,1),%xmm0
-  .byte  102,15,219,5,45,82,1,0              // pand          0x1522d(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,5,113,82,1,0             // pand          0x15271(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,115,83,1,0                  // mulps         0x15373(%rip),%xmm0        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,5,183,83,1,0                  // mulps         0x153b7(%rip),%xmm0        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,106,81,1,0                 // movaps        0x1516a(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,174,81,1,0                 // movaps        0x151ae(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            16370 <_sk_load_g8_sse41+0x84>
+  .byte  116,53                              // je            1d9ac <_sk_load_g8_sse41+0x84>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1635a <_sk_load_g8_sse41+0x6e>
+  .byte  116,21                              // je            1d996 <_sk_load_g8_sse41+0x6e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,192                             // jne           1630b <_sk_load_g8_sse41+0x1f>
+  .byte  117,192                             // jne           1d947 <_sk_load_g8_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,192,69                   // pshufd        $0x45,%xmm0,%xmm0
@@ -30878,10 +38004,10 @@
   .byte  102,15,110,200                      // movd          %eax,%xmm1
   .byte  102,15,56,49,201                    // pmovzxbd      %xmm1,%xmm1
   .byte  102,15,58,14,193,15                 // pblendw       $0xf,%xmm1,%xmm0
-  .byte  235,155                             // jmp           1630b <_sk_load_g8_sse41+0x1f>
+  .byte  235,155                             // jmp           1d947 <_sk_load_g8_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,144                             // jmp           1630b <_sk_load_g8_sse41+0x1f>
+  .byte  235,144                             // jmp           1d947 <_sk_load_g8_sse41+0x1f>
 
 HIDDEN _sk_load_g8_dst_sse41
 .globl _sk_load_g8_dst_sse41
@@ -30894,25 +38020,25 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,42                              // jne           163bd <_sk_load_g8_dst_sse41+0x42>
+  .byte  117,42                              // jne           1d9f9 <_sk_load_g8_dst_sse41+0x42>
   .byte  102,67,15,56,49,36,16               // pmovzxbd      (%r8,%r10,1),%xmm4
-  .byte  102,15,219,37,158,81,1,0            // pand          0x1519e(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,37,226,81,1,0            // pand          0x151e2(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,228,82,1,0                 // mulps         0x152e4(%rip),%xmm4        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,37,40,83,1,0                  // mulps         0x15328(%rip),%xmm4        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,219,80,1,0                 // movaps        0x150db(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,61,31,81,1,0                  // movaps        0x1511f(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,236                           // movaps        %xmm4,%xmm5
   .byte  15,40,244                           // movaps        %xmm4,%xmm6
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            163ff <_sk_load_g8_dst_sse41+0x84>
+  .byte  116,53                              // je            1da3b <_sk_load_g8_dst_sse41+0x84>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            163e9 <_sk_load_g8_dst_sse41+0x6e>
+  .byte  116,21                              // je            1da25 <_sk_load_g8_dst_sse41+0x6e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,192                             // jne           1639a <_sk_load_g8_dst_sse41+0x1f>
+  .byte  117,192                             // jne           1d9d6 <_sk_load_g8_dst_sse41+0x1f>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,228,69                   // pshufd        $0x45,%xmm4,%xmm4
@@ -30920,10 +38046,10 @@
   .byte  102,15,110,232                      // movd          %eax,%xmm5
   .byte  102,15,56,49,237                    // pmovzxbd      %xmm5,%xmm5
   .byte  102,15,58,14,229,15                 // pblendw       $0xf,%xmm5,%xmm4
-  .byte  235,155                             // jmp           1639a <_sk_load_g8_dst_sse41+0x1f>
+  .byte  235,155                             // jmp           1d9d6 <_sk_load_g8_dst_sse41+0x1f>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,144                             // jmp           1639a <_sk_load_g8_dst_sse41+0x1f>
+  .byte  235,144                             // jmp           1d9d6 <_sk_load_g8_dst_sse41+0x1f>
 
 HIDDEN _sk_gather_g8_sse41
 .globl _sk_gather_g8_sse41
@@ -30966,9 +38092,9 @@
   .byte  102,15,58,32,192,3                  // pinsrb        $0x3,%eax,%xmm0
   .byte  102,15,56,49,192                    // pmovzxbd      %xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,217,81,1,0                  // mulps         0x151d9(%rip),%xmm0        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,5,29,82,1,0                   // mulps         0x1521d(%rip),%xmm0        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,208,79,1,0                 // movaps        0x14fd0(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,20,80,1,0                  // movaps        0x15014(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -30985,41 +38111,41 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,80                              // jne           16533 <_sk_load_565_sse41+0x6b>
+  .byte  117,80                              // jne           1db6f <_sk_load_565_sse41+0x6b>
   .byte  102,67,15,56,51,20,80               // pmovzxwd      (%r8,%r10,2),%xmm2
-  .byte  102,15,111,5,174,81,1,0             // movdqa        0x151ae(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,242,81,1,0             // movdqa        0x151f2(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,176,81,1,0                  // mulps         0x151b0(%rip),%xmm0        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,13,184,81,1,0            // movdqa        0x151b8(%rip),%xmm1        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,5,244,81,1,0                  // mulps         0x151f4(%rip),%xmm0        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,13,252,81,1,0            // movdqa        0x151fc(%rip),%xmm1        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,186,81,1,0                 // mulps         0x151ba(%rip),%xmm1        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,21,194,81,1,0            // pand          0x151c2(%rip),%xmm2        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,13,254,81,1,0                 // mulps         0x151fe(%rip),%xmm1        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,21,6,82,1,0              // pand          0x15206(%rip),%xmm2        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,200,81,1,0                 // mulps         0x151c8(%rip),%xmm2        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,21,12,82,1,0                  // mulps         0x1520c(%rip),%xmm2        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,95,79,1,0                  // movaps        0x14f5f(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,163,79,1,0                 // movaps        0x14fa3(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            16575 <_sk_load_565_sse41+0xad>
+  .byte  116,53                              // je            1dbb1 <_sk_load_565_sse41+0xad>
   .byte  102,15,239,210                      // pxor          %xmm2,%xmm2
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1655f <_sk_load_565_sse41+0x97>
+  .byte  116,21                              // je            1db9b <_sk_load_565_sse41+0x97>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,154                             // jne           164ea <_sk_load_565_sse41+0x22>
+  .byte  117,154                             // jne           1db26 <_sk_load_565_sse41+0x22>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,208,69                   // pshufd        $0x45,%xmm0,%xmm2
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
   .byte  102,15,58,14,208,15                 // pblendw       $0xf,%xmm0,%xmm2
-  .byte  233,117,255,255,255                 // jmpq          164ea <_sk_load_565_sse41+0x22>
+  .byte  233,117,255,255,255                 // jmpq          1db26 <_sk_load_565_sse41+0x22>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  233,103,255,255,255                 // jmpq          164ea <_sk_load_565_sse41+0x22>
+  .byte  233,103,255,255,255                 // jmpq          1db26 <_sk_load_565_sse41+0x22>
 
 HIDDEN _sk_load_565_dst_sse41
 .globl _sk_load_565_dst_sse41
@@ -31033,41 +38159,41 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,80                              // jne           165ee <_sk_load_565_dst_sse41+0x6b>
+  .byte  117,80                              // jne           1dc2a <_sk_load_565_dst_sse41+0x6b>
   .byte  102,67,15,56,51,52,80               // pmovzxwd      (%r8,%r10,2),%xmm6
-  .byte  102,15,111,37,243,80,1,0            // movdqa        0x150f3(%rip),%xmm4        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,37,55,81,1,0             // movdqa        0x15137(%rip),%xmm4        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,230                      // pand          %xmm6,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,245,80,1,0                 // mulps         0x150f5(%rip),%xmm4        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,45,253,80,1,0            // movdqa        0x150fd(%rip),%xmm5        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,37,57,81,1,0                  // mulps         0x15139(%rip),%xmm4        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,45,65,81,1,0             // movdqa        0x15141(%rip),%xmm5        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,238                      // pand          %xmm6,%xmm5
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
-  .byte  15,89,45,255,80,1,0                 // mulps         0x150ff(%rip),%xmm5        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,53,7,81,1,0              // pand          0x15107(%rip),%xmm6        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,45,67,81,1,0                  // mulps         0x15143(%rip),%xmm5        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,53,75,81,1,0             // pand          0x1514b(%rip),%xmm6        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
-  .byte  15,89,53,13,81,1,0                  // mulps         0x1510d(%rip),%xmm6        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,53,81,81,1,0                  // mulps         0x15151(%rip),%xmm6        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,164,78,1,0                 // movaps        0x14ea4(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,61,232,78,1,0                 // movaps        0x14ee8(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            16630 <_sk_load_565_dst_sse41+0xad>
+  .byte  116,53                              // je            1dc6c <_sk_load_565_dst_sse41+0xad>
   .byte  102,15,239,246                      // pxor          %xmm6,%xmm6
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1661a <_sk_load_565_dst_sse41+0x97>
+  .byte  116,21                              // je            1dc56 <_sk_load_565_dst_sse41+0x97>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,154                             // jne           165a5 <_sk_load_565_dst_sse41+0x22>
+  .byte  117,154                             // jne           1dbe1 <_sk_load_565_dst_sse41+0x22>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,244,69                   // pshufd        $0x45,%xmm4,%xmm6
   .byte  102,67,15,110,36,80                 // movd          (%r8,%r10,2),%xmm4
   .byte  102,15,56,51,228                    // pmovzxwd      %xmm4,%xmm4
   .byte  102,15,58,14,244,15                 // pblendw       $0xf,%xmm4,%xmm6
-  .byte  233,117,255,255,255                 // jmpq          165a5 <_sk_load_565_dst_sse41+0x22>
+  .byte  233,117,255,255,255                 // jmpq          1dbe1 <_sk_load_565_dst_sse41+0x22>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,240                      // movd          %eax,%xmm6
-  .byte  233,103,255,255,255                 // jmpq          165a5 <_sk_load_565_dst_sse41+0x22>
+  .byte  233,103,255,255,255                 // jmpq          1dbe1 <_sk_load_565_dst_sse41+0x22>
 
 HIDDEN _sk_gather_565_sse41
 .globl _sk_gather_565_sse41
@@ -31109,19 +38235,19 @@
   .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
   .byte  102,15,196,192,3                    // pinsrw        $0x3,%eax,%xmm0
   .byte  102,15,56,51,208                    // pmovzxwd      %xmm0,%xmm2
-  .byte  102,15,111,5,186,79,1,0             // movdqa        0x14fba(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,254,79,1,0             // movdqa        0x14ffe(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,188,79,1,0                  // mulps         0x14fbc(%rip),%xmm0        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,13,196,79,1,0            // movdqa        0x14fc4(%rip),%xmm1        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,5,0,80,1,0                    // mulps         0x15000(%rip),%xmm0        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,13,8,80,1,0              // movdqa        0x15008(%rip),%xmm1        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,198,79,1,0                 // mulps         0x14fc6(%rip),%xmm1        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,21,206,79,1,0            // pand          0x14fce(%rip),%xmm2        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,13,10,80,1,0                  // mulps         0x1500a(%rip),%xmm1        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,21,18,80,1,0             // pand          0x15012(%rip),%xmm2        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,212,79,1,0                 // mulps         0x14fd4(%rip),%xmm2        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,21,24,80,1,0                  // mulps         0x15018(%rip),%xmm2        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,107,77,1,0                 // movaps        0x14d6b(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,175,77,1,0                 // movaps        0x14daf(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_565_sse41
@@ -31135,12 +38261,12 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,91,81,1,0                // movaps        0x1515b(%rip),%xmm8        # 2b8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+  .byte  68,15,40,5,159,81,1,0               // movaps        0x1519f(%rip),%xmm8        # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,11                // pslld         $0xb,%xmm9
-  .byte  68,15,40,21,80,81,1,0               // movaps        0x15150(%rip),%xmm10        # 2b8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+  .byte  68,15,40,21,148,81,1,0              // movaps        0x15194(%rip),%xmm10        # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
   .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,5                 // pslld         $0x5,%xmm10
@@ -31150,7 +38276,7 @@
   .byte  102,69,15,86,194                    // orpd          %xmm10,%xmm8
   .byte  102,68,15,56,43,192                 // packusdw      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           16797 <_sk_store_565_sse41+0x70>
+  .byte  117,10                              // jne           1ddd3 <_sk_store_565_sse41+0x70>
   .byte  102,69,15,214,4,64                  // movq          %xmm8,(%r8,%rax,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -31158,17 +38284,17 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,35                              // je            167cd <_sk_store_565_sse41+0xa6>
+  .byte  116,35                              // je            1de09 <_sk_store_565_sse41+0xa6>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            167bf <_sk_store_565_sse41+0x98>
+  .byte  116,15                              // je            1ddfb <_sk_store_565_sse41+0x98>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,221                             // jne           16793 <_sk_store_565_sse41+0x6c>
+  .byte  117,221                             // jne           1ddcf <_sk_store_565_sse41+0x6c>
   .byte  102,69,15,58,21,68,64,4,4           // pextrw        $0x4,%xmm8,0x4(%r8,%rax,2)
   .byte  242,69,15,112,192,232               // pshuflw       $0xe8,%xmm8,%xmm8
   .byte  102,69,15,126,4,64                  // movd          %xmm8,(%r8,%rax,2)
-  .byte  235,198                             // jmp           16793 <_sk_store_565_sse41+0x6c>
+  .byte  235,198                             // jmp           1ddcf <_sk_store_565_sse41+0x6c>
   .byte  102,69,15,58,21,4,64,0              // pextrw        $0x0,%xmm8,(%r8,%rax,2)
-  .byte  235,188                             // jmp           16793 <_sk_store_565_sse41+0x6c>
+  .byte  235,188                             // jmp           1ddcf <_sk_store_565_sse41+0x6c>
 
 HIDDEN _sk_load_4444_sse41
 .globl _sk_load_4444_sse41
@@ -31182,44 +38308,44 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,95                              // jne           16851 <_sk_load_4444_sse41+0x7a>
+  .byte  117,95                              // jne           1de8d <_sk_load_4444_sse41+0x7a>
   .byte  102,67,15,56,51,28,80               // pmovzxwd      (%r8,%r10,2),%xmm3
-  .byte  102,15,111,5,191,80,1,0             // movdqa        0x150bf(%rip),%xmm0        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,5,3,81,1,0               // movdqa        0x15103(%rip),%xmm0        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,193,80,1,0                  // mulps         0x150c1(%rip),%xmm0        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,13,201,80,1,0            // movdqa        0x150c9(%rip),%xmm1        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,5,5,81,1,0                    // mulps         0x15105(%rip),%xmm0        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,13,13,81,1,0             // movdqa        0x1510d(%rip),%xmm1        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,203,80,1,0                 // mulps         0x150cb(%rip),%xmm1        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,21,211,80,1,0            // movdqa        0x150d3(%rip),%xmm2        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,13,15,81,1,0                  // mulps         0x1510f(%rip),%xmm1        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,21,23,81,1,0             // movdqa        0x15117(%rip),%xmm2        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,213,80,1,0                 // mulps         0x150d5(%rip),%xmm2        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,29,221,80,1,0            // pand          0x150dd(%rip),%xmm3        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,21,25,81,1,0                  // mulps         0x15119(%rip),%xmm2        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,29,33,81,1,0             // pand          0x15121(%rip),%xmm3        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,227,80,1,0                 // mulps         0x150e3(%rip),%xmm3        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,29,39,81,1,0                  // mulps         0x15127(%rip),%xmm3        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            16893 <_sk_load_4444_sse41+0xbc>
+  .byte  116,53                              // je            1decf <_sk_load_4444_sse41+0xbc>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1687d <_sk_load_4444_sse41+0xa6>
+  .byte  116,21                              // je            1deb9 <_sk_load_4444_sse41+0xa6>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,139                             // jne           167f9 <_sk_load_4444_sse41+0x22>
+  .byte  117,139                             // jne           1de35 <_sk_load_4444_sse41+0x22>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,216,69                   // pshufd        $0x45,%xmm0,%xmm3
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  102,15,56,51,192                    // pmovzxwd      %xmm0,%xmm0
   .byte  102,15,58,14,216,15                 // pblendw       $0xf,%xmm0,%xmm3
-  .byte  233,102,255,255,255                 // jmpq          167f9 <_sk_load_4444_sse41+0x22>
+  .byte  233,102,255,255,255                 // jmpq          1de35 <_sk_load_4444_sse41+0x22>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  233,88,255,255,255                  // jmpq          167f9 <_sk_load_4444_sse41+0x22>
+  .byte  233,88,255,255,255                  // jmpq          1de35 <_sk_load_4444_sse41+0x22>
 
 HIDDEN _sk_load_4444_dst_sse41
 .globl _sk_load_4444_dst_sse41
@@ -31233,44 +38359,44 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,95                              // jne           1691b <_sk_load_4444_dst_sse41+0x7a>
+  .byte  117,95                              // jne           1df57 <_sk_load_4444_dst_sse41+0x7a>
   .byte  102,67,15,56,51,60,80               // pmovzxwd      (%r8,%r10,2),%xmm7
-  .byte  102,15,111,37,245,79,1,0            // movdqa        0x14ff5(%rip),%xmm4        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,37,57,80,1,0             // movdqa        0x15039(%rip),%xmm4        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,231                      // pand          %xmm7,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,247,79,1,0                 // mulps         0x14ff7(%rip),%xmm4        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,45,255,79,1,0            // movdqa        0x14fff(%rip),%xmm5        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,37,59,80,1,0                  // mulps         0x1503b(%rip),%xmm4        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,45,67,80,1,0             // movdqa        0x15043(%rip),%xmm5        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,239                      // pand          %xmm7,%xmm5
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
-  .byte  15,89,45,1,80,1,0                   // mulps         0x15001(%rip),%xmm5        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,53,9,80,1,0              // movdqa        0x15009(%rip),%xmm6        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,45,69,80,1,0                  // mulps         0x15045(%rip),%xmm5        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,53,77,80,1,0             // movdqa        0x1504d(%rip),%xmm6        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,247                      // pand          %xmm7,%xmm6
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
-  .byte  15,89,53,11,80,1,0                  // mulps         0x1500b(%rip),%xmm6        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,61,19,80,1,0             // pand          0x15013(%rip),%xmm7        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,53,79,80,1,0                  // mulps         0x1504f(%rip),%xmm6        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,61,87,80,1,0             // pand          0x15057(%rip),%xmm7        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,255                           // cvtdq2ps      %xmm7,%xmm7
-  .byte  15,89,61,25,80,1,0                  // mulps         0x15019(%rip),%xmm7        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,61,93,80,1,0                  // mulps         0x1505d(%rip),%xmm7        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,53                              // je            1695d <_sk_load_4444_dst_sse41+0xbc>
+  .byte  116,53                              // je            1df99 <_sk_load_4444_dst_sse41+0xbc>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            16947 <_sk_load_4444_dst_sse41+0xa6>
+  .byte  116,21                              // je            1df83 <_sk_load_4444_dst_sse41+0xa6>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,139                             // jne           168c3 <_sk_load_4444_dst_sse41+0x22>
+  .byte  117,139                             // jne           1deff <_sk_load_4444_dst_sse41+0x22>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,252,69                   // pshufd        $0x45,%xmm4,%xmm7
   .byte  102,67,15,110,36,80                 // movd          (%r8,%r10,2),%xmm4
   .byte  102,15,56,51,228                    // pmovzxwd      %xmm4,%xmm4
   .byte  102,15,58,14,252,15                 // pblendw       $0xf,%xmm4,%xmm7
-  .byte  233,102,255,255,255                 // jmpq          168c3 <_sk_load_4444_dst_sse41+0x22>
+  .byte  233,102,255,255,255                 // jmpq          1deff <_sk_load_4444_dst_sse41+0x22>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,248                      // movd          %eax,%xmm7
-  .byte  233,88,255,255,255                  // jmpq          168c3 <_sk_load_4444_dst_sse41+0x22>
+  .byte  233,88,255,255,255                  // jmpq          1deff <_sk_load_4444_dst_sse41+0x22>
 
 HIDDEN _sk_gather_4444_sse41
 .globl _sk_gather_4444_sse41
@@ -31312,21 +38438,21 @@
   .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
   .byte  102,15,196,192,3                    // pinsrw        $0x3,%eax,%xmm0
   .byte  102,15,56,51,216                    // pmovzxwd      %xmm0,%xmm3
-  .byte  102,15,111,5,173,78,1,0             // movdqa        0x14ead(%rip),%xmm0        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,5,241,78,1,0             // movdqa        0x14ef1(%rip),%xmm0        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,175,78,1,0                  // mulps         0x14eaf(%rip),%xmm0        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,13,183,78,1,0            // movdqa        0x14eb7(%rip),%xmm1        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,5,243,78,1,0                  // mulps         0x14ef3(%rip),%xmm0        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,13,251,78,1,0            // movdqa        0x14efb(%rip),%xmm1        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,185,78,1,0                 // mulps         0x14eb9(%rip),%xmm1        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,21,193,78,1,0            // movdqa        0x14ec1(%rip),%xmm2        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,13,253,78,1,0                 // mulps         0x14efd(%rip),%xmm1        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,21,5,79,1,0              // movdqa        0x14f05(%rip),%xmm2        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,195,78,1,0                 // mulps         0x14ec3(%rip),%xmm2        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,29,203,78,1,0            // pand          0x14ecb(%rip),%xmm3        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,21,7,79,1,0                   // mulps         0x14f07(%rip),%xmm2        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,29,15,79,1,0             // pand          0x14f0f(%rip),%xmm3        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,209,78,1,0                 // mulps         0x14ed1(%rip),%xmm3        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,29,21,79,1,0                  // mulps         0x14f15(%rip),%xmm3        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -31341,7 +38467,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,191,78,1,0               // movaps        0x14ebf(%rip),%xmm8        # 2b940 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+  .byte  68,15,40,5,3,79,1,0                 // movaps        0x14f03(%rip),%xmm8        # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -31361,7 +38487,7 @@
   .byte  102,69,15,86,194                    // orpd          %xmm10,%xmm8
   .byte  102,68,15,56,43,192                 // packusdw      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           16ae7 <_sk_store_4444_sse41+0x84>
+  .byte  117,10                              // jne           1e123 <_sk_store_4444_sse41+0x84>
   .byte  102,69,15,214,4,64                  // movq          %xmm8,(%r8,%rax,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -31369,17 +38495,17 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,35                              // je            16b1d <_sk_store_4444_sse41+0xba>
+  .byte  116,35                              // je            1e159 <_sk_store_4444_sse41+0xba>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            16b0f <_sk_store_4444_sse41+0xac>
+  .byte  116,15                              // je            1e14b <_sk_store_4444_sse41+0xac>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,221                             // jne           16ae3 <_sk_store_4444_sse41+0x80>
+  .byte  117,221                             // jne           1e11f <_sk_store_4444_sse41+0x80>
   .byte  102,69,15,58,21,68,64,4,4           // pextrw        $0x4,%xmm8,0x4(%r8,%rax,2)
   .byte  242,69,15,112,192,232               // pshuflw       $0xe8,%xmm8,%xmm8
   .byte  102,69,15,126,4,64                  // movd          %xmm8,(%r8,%rax,2)
-  .byte  235,198                             // jmp           16ae3 <_sk_store_4444_sse41+0x80>
+  .byte  235,198                             // jmp           1e11f <_sk_store_4444_sse41+0x80>
   .byte  102,69,15,58,21,4,64,0              // pextrw        $0x0,%xmm8,(%r8,%rax,2)
-  .byte  235,188                             // jmp           16ae3 <_sk_store_4444_sse41+0x80>
+  .byte  235,188                             // jmp           1e11f <_sk_store_4444_sse41+0x80>
 
 HIDDEN _sk_load_8888_sse41
 .globl _sk_load_8888_sse41
@@ -31393,19 +38519,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,89                              // jne           16b9c <_sk_load_8888_sse41+0x75>
+  .byte  117,89                              // jne           1e1d8 <_sk_load_8888_sse41+0x75>
   .byte  243,65,15,111,28,128                // movdqu        (%r8,%rax,4),%xmm3
-  .byte  102,15,111,5,239,73,1,0             // movdqa        0x149ef(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,51,74,1,0              // movdqa        0x14a33(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,48,75,1,0                // movaps        0x14b30(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,116,75,1,0               // movaps        0x14b74(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
-  .byte  102,15,56,0,13,223,73,1,0           // pshufb        0x149df(%rip),%xmm1        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,13,35,74,1,0            // pshufb        0x14a23(%rip),%xmm1        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,211                      // movdqa        %xmm3,%xmm2
-  .byte  102,15,56,0,21,219,73,1,0           // pshufb        0x149db(%rip),%xmm2        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,21,31,74,1,0            // pshufb        0x14a1f(%rip),%xmm2        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -31416,19 +38542,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,45                              // je            16bd6 <_sk_load_8888_sse41+0xaf>
+  .byte  116,45                              // je            1e212 <_sk_load_8888_sse41+0xaf>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            16bc5 <_sk_load_8888_sse41+0x9e>
+  .byte  116,18                              // je            1e201 <_sk_load_8888_sse41+0x9e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,144                             // jne           16b49 <_sk_load_8888_sse41+0x22>
+  .byte  117,144                             // jne           1e185 <_sk_load_8888_sse41+0x22>
   .byte  102,65,15,110,68,128,8              // movd          0x8(%r8,%rax,4),%xmm0
   .byte  102,15,112,216,69                   // pshufd        $0x45,%xmm0,%xmm3
   .byte  243,65,15,126,4,128                 // movq          (%r8,%rax,4),%xmm0
   .byte  102,15,58,14,216,15                 // pblendw       $0xf,%xmm0,%xmm3
-  .byte  233,115,255,255,255                 // jmpq          16b49 <_sk_load_8888_sse41+0x22>
+  .byte  233,115,255,255,255                 // jmpq          1e185 <_sk_load_8888_sse41+0x22>
   .byte  102,65,15,110,28,128                // movd          (%r8,%rax,4),%xmm3
-  .byte  233,104,255,255,255                 // jmpq          16b49 <_sk_load_8888_sse41+0x22>
+  .byte  233,104,255,255,255                 // jmpq          1e185 <_sk_load_8888_sse41+0x22>
 
 HIDDEN _sk_load_8888_dst_sse41
 .globl _sk_load_8888_dst_sse41
@@ -31442,19 +38568,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,89                              // jne           16c56 <_sk_load_8888_dst_sse41+0x75>
+  .byte  117,89                              // jne           1e292 <_sk_load_8888_dst_sse41+0x75>
   .byte  243,65,15,111,60,128                // movdqu        (%r8,%rax,4),%xmm7
-  .byte  102,15,111,37,53,73,1,0             // movdqa        0x14935(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,37,121,73,1,0            // movdqa        0x14979(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,231                      // pand          %xmm7,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  68,15,40,5,118,74,1,0               // movaps        0x14a76(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,186,74,1,0               // movaps        0x14aba(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,224                        // mulps         %xmm8,%xmm4
   .byte  102,15,111,239                      // movdqa        %xmm7,%xmm5
-  .byte  102,15,56,0,45,37,73,1,0            // pshufb        0x14925(%rip),%xmm5        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,45,105,73,1,0           // pshufb        0x14969(%rip),%xmm5        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
   .byte  65,15,89,232                        // mulps         %xmm8,%xmm5
   .byte  102,15,111,247                      // movdqa        %xmm7,%xmm6
-  .byte  102,15,56,0,53,33,73,1,0            // pshufb        0x14921(%rip),%xmm6        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,53,101,73,1,0           // pshufb        0x14965(%rip),%xmm6        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
   .byte  65,15,89,240                        // mulps         %xmm8,%xmm6
   .byte  102,15,114,215,24                   // psrld         $0x18,%xmm7
@@ -31465,19 +38591,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,45                              // je            16c90 <_sk_load_8888_dst_sse41+0xaf>
+  .byte  116,45                              // je            1e2cc <_sk_load_8888_dst_sse41+0xaf>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            16c7f <_sk_load_8888_dst_sse41+0x9e>
+  .byte  116,18                              // je            1e2bb <_sk_load_8888_dst_sse41+0x9e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,144                             // jne           16c03 <_sk_load_8888_dst_sse41+0x22>
+  .byte  117,144                             // jne           1e23f <_sk_load_8888_dst_sse41+0x22>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,15,112,252,69                   // pshufd        $0x45,%xmm4,%xmm7
   .byte  243,65,15,126,36,128                // movq          (%r8,%rax,4),%xmm4
   .byte  102,15,58,14,252,15                 // pblendw       $0xf,%xmm4,%xmm7
-  .byte  233,115,255,255,255                 // jmpq          16c03 <_sk_load_8888_dst_sse41+0x22>
+  .byte  233,115,255,255,255                 // jmpq          1e23f <_sk_load_8888_dst_sse41+0x22>
   .byte  102,65,15,110,60,128                // movd          (%r8,%rax,4),%xmm7
-  .byte  233,104,255,255,255                 // jmpq          16c03 <_sk_load_8888_dst_sse41+0x22>
+  .byte  233,104,255,255,255                 // jmpq          1e23f <_sk_load_8888_dst_sse41+0x22>
 
 HIDDEN _sk_gather_8888_sse41
 .globl _sk_gather_8888_sse41
@@ -31514,17 +38640,17 @@
   .byte  102,65,15,58,34,28,128,1            // pinsrd        $0x1,(%r8,%rax,4),%xmm3
   .byte  102,67,15,58,34,28,152,2            // pinsrd        $0x2,(%r8,%r11,4),%xmm3
   .byte  102,67,15,58,34,28,144,3            // pinsrd        $0x3,(%r8,%r10,4),%xmm3
-  .byte  102,15,111,5,14,72,1,0              // movdqa        0x1480e(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,82,72,1,0              // movdqa        0x14852(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,79,73,1,0                // movaps        0x1494f(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,147,73,1,0               // movaps        0x14993(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
-  .byte  102,15,56,0,13,254,71,1,0           // pshufb        0x147fe(%rip),%xmm1        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,13,66,72,1,0            // pshufb        0x14842(%rip),%xmm1        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,211                      // movdqa        %xmm3,%xmm2
-  .byte  102,15,56,0,21,250,71,1,0           // pshufb        0x147fa(%rip),%xmm2        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,21,62,72,1,0            // pshufb        0x1483e(%rip),%xmm2        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -31544,7 +38670,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,212,71,1,0               // movaps        0x147d4(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,24,72,1,0                // movaps        0x14818(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -31563,23 +38689,23 @@
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           16dfc <_sk_store_8888_sse41+0x7f>
+  .byte  117,10                              // jne           1e438 <_sk_store_8888_sse41+0x7f>
   .byte  243,69,15,127,4,128                 // movdqu        %xmm8,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,29                              // je            16e26 <_sk_store_8888_sse41+0xa9>
+  .byte  116,29                              // je            1e462 <_sk_store_8888_sse41+0xa9>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            16e1e <_sk_store_8888_sse41+0xa1>
+  .byte  116,15                              // je            1e45a <_sk_store_8888_sse41+0xa1>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,227                             // jne           16df8 <_sk_store_8888_sse41+0x7b>
+  .byte  117,227                             // jne           1e434 <_sk_store_8888_sse41+0x7b>
   .byte  102,69,15,58,22,68,128,8,2          // pextrd        $0x2,%xmm8,0x8(%r8,%rax,4)
   .byte  102,69,15,214,4,128                 // movq          %xmm8,(%r8,%rax,4)
-  .byte  235,210                             // jmp           16df8 <_sk_store_8888_sse41+0x7b>
+  .byte  235,210                             // jmp           1e434 <_sk_store_8888_sse41+0x7b>
   .byte  102,69,15,126,4,128                 // movd          %xmm8,(%r8,%rax,4)
-  .byte  235,202                             // jmp           16df8 <_sk_store_8888_sse41+0x7b>
+  .byte  235,202                             // jmp           1e434 <_sk_store_8888_sse41+0x7b>
 
 HIDDEN _sk_load_bgra_sse41
 .globl _sk_load_bgra_sse41
@@ -31593,19 +38719,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,89                              // jne           16ea3 <_sk_load_bgra_sse41+0x75>
+  .byte  117,89                              // jne           1e4df <_sk_load_bgra_sse41+0x75>
   .byte  243,65,15,111,28,128                // movdqu        (%r8,%rax,4),%xmm3
-  .byte  102,15,111,5,232,70,1,0             // movdqa        0x146e8(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,44,71,1,0              // movdqa        0x1472c(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,208                           // cvtdq2ps      %xmm0,%xmm2
-  .byte  68,15,40,5,41,72,1,0                // movaps        0x14829(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,109,72,1,0               // movaps        0x1486d(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,15,56,0,5,216,70,1,0            // pshufb        0x146d8(%rip),%xmm0        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,5,28,71,1,0             // pshufb        0x1471c(%rip),%xmm0        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,15,56,0,5,212,70,1,0            // pshufb        0x146d4(%rip),%xmm0        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,5,24,71,1,0             // pshufb        0x14718(%rip),%xmm0        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -31616,19 +38742,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,45                              // je            16edd <_sk_load_bgra_sse41+0xaf>
+  .byte  116,45                              // je            1e519 <_sk_load_bgra_sse41+0xaf>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            16ecc <_sk_load_bgra_sse41+0x9e>
+  .byte  116,18                              // je            1e508 <_sk_load_bgra_sse41+0x9e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,144                             // jne           16e50 <_sk_load_bgra_sse41+0x22>
+  .byte  117,144                             // jne           1e48c <_sk_load_bgra_sse41+0x22>
   .byte  102,65,15,110,68,128,8              // movd          0x8(%r8,%rax,4),%xmm0
   .byte  102,15,112,216,69                   // pshufd        $0x45,%xmm0,%xmm3
   .byte  243,65,15,126,4,128                 // movq          (%r8,%rax,4),%xmm0
   .byte  102,15,58,14,216,15                 // pblendw       $0xf,%xmm0,%xmm3
-  .byte  233,115,255,255,255                 // jmpq          16e50 <_sk_load_bgra_sse41+0x22>
+  .byte  233,115,255,255,255                 // jmpq          1e48c <_sk_load_bgra_sse41+0x22>
   .byte  102,65,15,110,28,128                // movd          (%r8,%rax,4),%xmm3
-  .byte  233,104,255,255,255                 // jmpq          16e50 <_sk_load_bgra_sse41+0x22>
+  .byte  233,104,255,255,255                 // jmpq          1e48c <_sk_load_bgra_sse41+0x22>
 
 HIDDEN _sk_load_bgra_dst_sse41
 .globl _sk_load_bgra_dst_sse41
@@ -31642,19 +38768,19 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,89                              // jne           16f5d <_sk_load_bgra_dst_sse41+0x75>
+  .byte  117,89                              // jne           1e599 <_sk_load_bgra_dst_sse41+0x75>
   .byte  243,65,15,111,60,128                // movdqu        (%r8,%rax,4),%xmm7
-  .byte  102,15,111,37,46,70,1,0             // movdqa        0x1462e(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,37,114,70,1,0            // movdqa        0x14672(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,231                      // pand          %xmm7,%xmm4
   .byte  15,91,244                           // cvtdq2ps      %xmm4,%xmm6
-  .byte  68,15,40,5,111,71,1,0               // movaps        0x1476f(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,179,71,1,0               // movaps        0x147b3(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,240                        // mulps         %xmm8,%xmm6
   .byte  102,15,111,231                      // movdqa        %xmm7,%xmm4
-  .byte  102,15,56,0,37,30,70,1,0            // pshufb        0x1461e(%rip),%xmm4        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,37,98,70,1,0            // pshufb        0x14662(%rip),%xmm4        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,236                           // cvtdq2ps      %xmm4,%xmm5
   .byte  65,15,89,232                        // mulps         %xmm8,%xmm5
   .byte  102,15,111,231                      // movdqa        %xmm7,%xmm4
-  .byte  102,15,56,0,37,26,70,1,0            // pshufb        0x1461a(%rip),%xmm4        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,37,94,70,1,0            // pshufb        0x1465e(%rip),%xmm4        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
   .byte  65,15,89,224                        // mulps         %xmm8,%xmm4
   .byte  102,15,114,215,24                   // psrld         $0x18,%xmm7
@@ -31665,19 +38791,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,45                              // je            16f97 <_sk_load_bgra_dst_sse41+0xaf>
+  .byte  116,45                              // je            1e5d3 <_sk_load_bgra_dst_sse41+0xaf>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            16f86 <_sk_load_bgra_dst_sse41+0x9e>
+  .byte  116,18                              // je            1e5c2 <_sk_load_bgra_dst_sse41+0x9e>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,144                             // jne           16f0a <_sk_load_bgra_dst_sse41+0x22>
+  .byte  117,144                             // jne           1e546 <_sk_load_bgra_dst_sse41+0x22>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,15,112,252,69                   // pshufd        $0x45,%xmm4,%xmm7
   .byte  243,65,15,126,36,128                // movq          (%r8,%rax,4),%xmm4
   .byte  102,15,58,14,252,15                 // pblendw       $0xf,%xmm4,%xmm7
-  .byte  233,115,255,255,255                 // jmpq          16f0a <_sk_load_bgra_dst_sse41+0x22>
+  .byte  233,115,255,255,255                 // jmpq          1e546 <_sk_load_bgra_dst_sse41+0x22>
   .byte  102,65,15,110,60,128                // movd          (%r8,%rax,4),%xmm7
-  .byte  233,104,255,255,255                 // jmpq          16f0a <_sk_load_bgra_dst_sse41+0x22>
+  .byte  233,104,255,255,255                 // jmpq          1e546 <_sk_load_bgra_dst_sse41+0x22>
 
 HIDDEN _sk_gather_bgra_sse41
 .globl _sk_gather_bgra_sse41
@@ -31714,17 +38840,17 @@
   .byte  102,65,15,58,34,28,128,1            // pinsrd        $0x1,(%r8,%rax,4),%xmm3
   .byte  102,67,15,58,34,28,152,2            // pinsrd        $0x2,(%r8,%r11,4),%xmm3
   .byte  102,67,15,58,34,28,144,3            // pinsrd        $0x3,(%r8,%r10,4),%xmm3
-  .byte  102,15,111,5,7,69,1,0               // movdqa        0x14507(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,75,69,1,0              // movdqa        0x1454b(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,208                           // cvtdq2ps      %xmm0,%xmm2
-  .byte  68,15,40,5,72,70,1,0                // movaps        0x14648(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,140,70,1,0               // movaps        0x1468c(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,15,56,0,5,247,68,1,0            // pshufb        0x144f7(%rip),%xmm0        # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+  .byte  102,15,56,0,5,59,69,1,0             // pshufb        0x1453b(%rip),%xmm0        # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
   .byte  15,91,200                           // cvtdq2ps      %xmm0,%xmm1
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,15,56,0,5,243,68,1,0            // pshufb        0x144f3(%rip),%xmm0        # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+  .byte  102,15,56,0,5,55,69,1,0             // pshufb        0x14537(%rip),%xmm0        # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,114,211,24                   // psrld         $0x18,%xmm3
@@ -31744,7 +38870,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,205,68,1,0               // movaps        0x144cd(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,17,69,1,0                // movaps        0x14511(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -31763,23 +38889,23 @@
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           17103 <_sk_store_bgra_sse41+0x7f>
+  .byte  117,10                              // jne           1e73f <_sk_store_bgra_sse41+0x7f>
   .byte  243,69,15,127,4,128                 // movdqu        %xmm8,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,29                              // je            1712d <_sk_store_bgra_sse41+0xa9>
+  .byte  116,29                              // je            1e769 <_sk_store_bgra_sse41+0xa9>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,15                              // je            17125 <_sk_store_bgra_sse41+0xa1>
+  .byte  116,15                              // je            1e761 <_sk_store_bgra_sse41+0xa1>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,227                             // jne           170ff <_sk_store_bgra_sse41+0x7b>
+  .byte  117,227                             // jne           1e73b <_sk_store_bgra_sse41+0x7b>
   .byte  102,69,15,58,22,68,128,8,2          // pextrd        $0x2,%xmm8,0x8(%r8,%rax,4)
   .byte  102,69,15,214,4,128                 // movq          %xmm8,(%r8,%rax,4)
-  .byte  235,210                             // jmp           170ff <_sk_store_bgra_sse41+0x7b>
+  .byte  235,210                             // jmp           1e73b <_sk_store_bgra_sse41+0x7b>
   .byte  102,69,15,126,4,128                 // movd          %xmm8,(%r8,%rax,4)
-  .byte  235,202                             // jmp           170ff <_sk_store_bgra_sse41+0x7b>
+  .byte  235,202                             // jmp           1e73b <_sk_store_bgra_sse41+0x7b>
 
 HIDDEN _sk_load_f16_sse41
 .globl _sk_load_f16_sse41
@@ -31793,7 +38919,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,68,1,0,0                     // jne           17299 <_sk_load_f16_sse41+0x164>
+  .byte  15,133,68,1,0,0                     // jne           1e8d5 <_sk_load_f16_sse41+0x164>
   .byte  102,65,15,16,4,192                  // movupd        (%r8,%rax,8),%xmm0
   .byte  243,65,15,111,76,192,16             // movdqu        0x10(%r8,%rax,8),%xmm1
   .byte  102,68,15,40,200                    // movapd        %xmm0,%xmm9
@@ -31803,19 +38929,19 @@
   .byte  102,68,15,97,224                    // punpcklwd     %xmm0,%xmm12
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
   .byte  102,65,15,56,51,212                 // pmovzxwd      %xmm12,%xmm2
-  .byte  102,68,15,111,5,194,71,1,0          // movdqa        0x147c2(%rip),%xmm8        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,5,6,72,1,0            // movdqa        0x14806(%rip),%xmm8        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,219,200                   // pand          %xmm8,%xmm1
-  .byte  102,68,15,111,21,192,71,1,0         // movdqa        0x147c0(%rip),%xmm10        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,21,4,72,1,0           // movdqa        0x14804(%rip),%xmm10        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,210                   // pand          %xmm10,%xmm2
-  .byte  102,15,111,29,195,71,1,0            // movdqa        0x147c3(%rip),%xmm3        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,29,7,72,1,0              // movdqa        0x14807(%rip),%xmm3        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,15,114,241,16                   // pslld         $0x10,%xmm1
   .byte  102,15,111,194                      // movdqa        %xmm2,%xmm0
   .byte  102,15,56,63,195                    // pmaxud        %xmm3,%xmm0
   .byte  102,15,118,194                      // pcmpeqd       %xmm2,%xmm0
   .byte  102,15,114,242,13                   // pslld         $0xd,%xmm2
   .byte  102,15,235,209                      // por           %xmm1,%xmm2
-  .byte  102,68,15,111,29,175,71,1,0         // movdqa        0x147af(%rip),%xmm11        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,29,243,71,1,0         // movdqa        0x147f3(%rip),%xmm11        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,211                   // paddd         %xmm11,%xmm2
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  102,65,15,112,204,238               // pshufd        $0xee,%xmm12,%xmm1
@@ -31858,16 +38984,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,4,192                  // movsd         (%r8,%rax,8),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           172b2 <_sk_load_f16_sse41+0x17d>
+  .byte  117,13                              // jne           1e8ee <_sk_load_f16_sse41+0x17d>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,176,254,255,255                 // jmpq          17162 <_sk_load_f16_sse41+0x2d>
+  .byte  233,176,254,255,255                 // jmpq          1e79e <_sk_load_f16_sse41+0x2d>
   .byte  102,65,15,22,68,192,8               // movhpd        0x8(%r8,%rax,8),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,155,254,255,255              // jb            17162 <_sk_load_f16_sse41+0x2d>
+  .byte  15,130,155,254,255,255              // jb            1e79e <_sk_load_f16_sse41+0x2d>
   .byte  243,65,15,126,76,192,16             // movq          0x10(%r8,%rax,8),%xmm1
-  .byte  233,143,254,255,255                 // jmpq          17162 <_sk_load_f16_sse41+0x2d>
+  .byte  233,143,254,255,255                 // jmpq          1e79e <_sk_load_f16_sse41+0x2d>
 
 HIDDEN _sk_load_f16_dst_sse41
 .globl _sk_load_f16_dst_sse41
@@ -31881,7 +39007,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,68,1,0,0                     // jne           17437 <_sk_load_f16_dst_sse41+0x164>
+  .byte  15,133,68,1,0,0                     // jne           1ea73 <_sk_load_f16_dst_sse41+0x164>
   .byte  102,65,15,16,36,192                 // movupd        (%r8,%rax,8),%xmm4
   .byte  243,65,15,111,108,192,16            // movdqu        0x10(%r8,%rax,8),%xmm5
   .byte  102,68,15,40,204                    // movapd        %xmm4,%xmm9
@@ -31891,19 +39017,19 @@
   .byte  102,68,15,97,228                    // punpcklwd     %xmm4,%xmm12
   .byte  102,68,15,105,204                   // punpckhwd     %xmm4,%xmm9
   .byte  102,65,15,56,51,244                 // pmovzxwd      %xmm12,%xmm6
-  .byte  102,68,15,111,5,36,70,1,0           // movdqa        0x14624(%rip),%xmm8        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,5,104,70,1,0          // movdqa        0x14668(%rip),%xmm8        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,15,111,238                      // movdqa        %xmm6,%xmm5
   .byte  102,65,15,219,232                   // pand          %xmm8,%xmm5
-  .byte  102,68,15,111,21,34,70,1,0          // movdqa        0x14622(%rip),%xmm10        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,21,102,70,1,0         // movdqa        0x14666(%rip),%xmm10        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,242                   // pand          %xmm10,%xmm6
-  .byte  102,15,111,61,37,70,1,0             // movdqa        0x14625(%rip),%xmm7        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,61,105,70,1,0            // movdqa        0x14669(%rip),%xmm7        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,15,114,245,16                   // pslld         $0x10,%xmm5
   .byte  102,15,111,230                      // movdqa        %xmm6,%xmm4
   .byte  102,15,56,63,231                    // pmaxud        %xmm7,%xmm4
   .byte  102,15,118,230                      // pcmpeqd       %xmm6,%xmm4
   .byte  102,15,114,246,13                   // pslld         $0xd,%xmm6
   .byte  102,15,235,245                      // por           %xmm5,%xmm6
-  .byte  102,68,15,111,29,17,70,1,0          // movdqa        0x14611(%rip),%xmm11        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,29,85,70,1,0          // movdqa        0x14655(%rip),%xmm11        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,243                   // paddd         %xmm11,%xmm6
   .byte  102,15,219,230                      // pand          %xmm6,%xmm4
   .byte  102,65,15,112,236,238               // pshufd        $0xee,%xmm12,%xmm5
@@ -31946,16 +39072,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,36,192                 // movsd         (%r8,%rax,8),%xmm4
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           17450 <_sk_load_f16_dst_sse41+0x17d>
+  .byte  117,13                              // jne           1ea8c <_sk_load_f16_dst_sse41+0x17d>
   .byte  243,15,126,228                      // movq          %xmm4,%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
-  .byte  233,176,254,255,255                 // jmpq          17300 <_sk_load_f16_dst_sse41+0x2d>
+  .byte  233,176,254,255,255                 // jmpq          1e93c <_sk_load_f16_dst_sse41+0x2d>
   .byte  102,65,15,22,100,192,8              // movhpd        0x8(%r8,%rax,8),%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,155,254,255,255              // jb            17300 <_sk_load_f16_dst_sse41+0x2d>
+  .byte  15,130,155,254,255,255              // jb            1e93c <_sk_load_f16_dst_sse41+0x2d>
   .byte  243,65,15,126,108,192,16            // movq          0x10(%r8,%rax,8),%xmm5
-  .byte  233,143,254,255,255                 // jmpq          17300 <_sk_load_f16_dst_sse41+0x2d>
+  .byte  233,143,254,255,255                 // jmpq          1e93c <_sk_load_f16_dst_sse41+0x2d>
 
 HIDDEN _sk_gather_f16_sse41
 .globl _sk_gather_f16_sse41
@@ -32001,19 +39127,19 @@
   .byte  102,68,15,97,226                    // punpcklwd     %xmm2,%xmm12
   .byte  102,68,15,105,202                   // punpckhwd     %xmm2,%xmm9
   .byte  102,65,15,56,51,212                 // pmovzxwd      %xmm12,%xmm2
-  .byte  102,68,15,111,5,34,68,1,0           // movdqa        0x14422(%rip),%xmm8        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,5,102,68,1,0          // movdqa        0x14466(%rip),%xmm8        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,219,200                   // pand          %xmm8,%xmm1
-  .byte  102,68,15,111,21,32,68,1,0          // movdqa        0x14420(%rip),%xmm10        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,21,100,68,1,0         // movdqa        0x14464(%rip),%xmm10        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,210                   // pand          %xmm10,%xmm2
-  .byte  102,15,111,29,35,68,1,0             // movdqa        0x14423(%rip),%xmm3        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,29,103,68,1,0            // movdqa        0x14467(%rip),%xmm3        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,15,114,241,16                   // pslld         $0x10,%xmm1
   .byte  102,15,111,194                      // movdqa        %xmm2,%xmm0
   .byte  102,15,56,63,195                    // pmaxud        %xmm3,%xmm0
   .byte  102,15,118,194                      // pcmpeqd       %xmm2,%xmm0
   .byte  102,15,114,242,13                   // pslld         $0xd,%xmm2
   .byte  102,15,235,209                      // por           %xmm1,%xmm2
-  .byte  102,68,15,111,29,15,68,1,0          // movdqa        0x1440f(%rip),%xmm11        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,29,83,68,1,0          // movdqa        0x14453(%rip),%xmm11        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,211                   // paddd         %xmm11,%xmm2
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  102,65,15,112,204,238               // pshufd        $0xee,%xmm12,%xmm1
@@ -32066,20 +39192,20 @@
   .byte  73,193,224,3                        // shl           $0x3,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  102,68,15,111,13,55,67,1,0          // movdqa        0x14337(%rip),%xmm9        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+  .byte  102,68,15,111,13,123,67,1,0         // movdqa        0x1437b(%rip),%xmm9        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
   .byte  102,68,15,111,224                   // movdqa        %xmm0,%xmm12
   .byte  102,69,15,219,225                   // pand          %xmm9,%xmm12
-  .byte  102,68,15,111,29,52,67,1,0          // movdqa        0x14334(%rip),%xmm11        # 2b9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+  .byte  102,68,15,111,29,120,67,1,0         // movdqa        0x14378(%rip),%xmm11        # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
   .byte  102,68,15,111,232                   // movdqa        %xmm0,%xmm13
   .byte  102,69,15,219,235                   // pand          %xmm11,%xmm13
-  .byte  102,68,15,111,21,49,67,1,0          // movdqa        0x14331(%rip),%xmm10        # 2b9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+  .byte  102,68,15,111,21,117,67,1,0         // movdqa        0x14375(%rip),%xmm10        # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
   .byte  102,65,15,114,212,16                // psrld         $0x10,%xmm12
   .byte  102,69,15,111,197                   // movdqa        %xmm13,%xmm8
   .byte  102,69,15,56,63,194                 // pmaxud        %xmm10,%xmm8
   .byte  102,69,15,118,197                   // pcmpeqd       %xmm13,%xmm8
   .byte  102,65,15,114,213,13                // psrld         $0xd,%xmm13
   .byte  102,69,15,254,236                   // paddd         %xmm12,%xmm13
-  .byte  102,68,15,111,37,23,67,1,0          // movdqa        0x14317(%rip),%xmm12        # 2b9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+  .byte  102,68,15,111,37,91,67,1,0          // movdqa        0x1435b(%rip),%xmm12        # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
   .byte  102,69,15,254,236                   // paddd         %xmm12,%xmm13
   .byte  102,69,15,219,197                   // pand          %xmm13,%xmm8
   .byte  102,68,15,56,43,192                 // packusdw      %xmm0,%xmm8
@@ -32124,7 +39250,7 @@
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,69,15,98,205                    // punpckldq     %xmm13,%xmm9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,21                              // jne           177a7 <_sk_store_f16_sse41+0x16e>
+  .byte  117,21                              // jne           1ede3 <_sk_store_f16_sse41+0x16e>
   .byte  69,15,17,12,192                     // movups        %xmm9,(%r8,%rax,8)
   .byte  102,69,15,106,197                   // punpckhdq     %xmm13,%xmm8
   .byte  243,69,15,127,68,192,16             // movdqu        %xmm8,0x10(%r8,%rax,8)
@@ -32132,13 +39258,13 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,214,12,192                // movq          %xmm9,(%r8,%rax,8)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            177a3 <_sk_store_f16_sse41+0x16a>
+  .byte  116,240                             // je            1eddf <_sk_store_f16_sse41+0x16a>
   .byte  102,69,15,23,76,192,8               // movhpd        %xmm9,0x8(%r8,%rax,8)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            177a3 <_sk_store_f16_sse41+0x16a>
+  .byte  114,227                             // jb            1eddf <_sk_store_f16_sse41+0x16a>
   .byte  102,69,15,106,197                   // punpckhdq     %xmm13,%xmm8
   .byte  102,69,15,214,68,192,16             // movq          %xmm8,0x10(%r8,%rax,8)
-  .byte  235,213                             // jmp           177a3 <_sk_store_f16_sse41+0x16a>
+  .byte  235,213                             // jmp           1eddf <_sk_store_f16_sse41+0x16a>
 
 HIDDEN _sk_load_u16_be_sse41
 .globl _sk_load_u16_be_sse41
@@ -32153,7 +39279,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,185,0,0,0                    // jne           178ae <_sk_load_u16_be_sse41+0xe0>
+  .byte  15,133,185,0,0,0                    // jne           1eeea <_sk_load_u16_be_sse41+0xe0>
   .byte  102,65,15,16,4,64                   // movupd        (%r8,%rax,2),%xmm0
   .byte  243,65,15,111,76,64,16              // movdqu        0x10(%r8,%rax,2),%xmm1
   .byte  102,15,40,208                       // movapd        %xmm0,%xmm2
@@ -32169,7 +39295,7 @@
   .byte  102,15,235,200                      // por           %xmm0,%xmm1
   .byte  102,15,56,51,193                    // pmovzxwd      %xmm1,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,223,62,1,0               // movaps        0x13edf(%rip),%xmm8        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  68,15,40,5,35,63,1,0                // movaps        0x13f23(%rip),%xmm8        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -32197,16 +39323,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,4,64                   // movsd         (%r8,%rax,2),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           178c7 <_sk_load_u16_be_sse41+0xf9>
+  .byte  117,13                              // jne           1ef03 <_sk_load_u16_be_sse41+0xf9>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,59,255,255,255                  // jmpq          17802 <_sk_load_u16_be_sse41+0x34>
+  .byte  233,59,255,255,255                  // jmpq          1ee3e <_sk_load_u16_be_sse41+0x34>
   .byte  102,65,15,22,68,64,8                // movhpd        0x8(%r8,%rax,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,38,255,255,255               // jb            17802 <_sk_load_u16_be_sse41+0x34>
+  .byte  15,130,38,255,255,255               // jb            1ee3e <_sk_load_u16_be_sse41+0x34>
   .byte  243,65,15,126,76,64,16              // movq          0x10(%r8,%rax,2),%xmm1
-  .byte  233,26,255,255,255                  // jmpq          17802 <_sk_load_u16_be_sse41+0x34>
+  .byte  233,26,255,255,255                  // jmpq          1ee3e <_sk_load_u16_be_sse41+0x34>
 
 HIDDEN _sk_load_rgb_u16_be_sse41
 .globl _sk_load_rgb_u16_be_sse41
@@ -32223,7 +39349,7 @@
   .byte  72,141,4,64                         // lea           (%rax,%rax,2),%rax
   .byte  72,193,248,32                       // sar           $0x20,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,170,0,0,0                    // jne           179bd <_sk_load_rgb_u16_be_sse41+0xd5>
+  .byte  15,133,170,0,0,0                    // jne           1eff9 <_sk_load_rgb_u16_be_sse41+0xd5>
   .byte  243,65,15,111,20,64                 // movdqu        (%r8,%rax,2),%xmm2
   .byte  243,65,15,111,92,64,8               // movdqu        0x8(%r8,%rax,2),%xmm3
   .byte  102,15,115,219,4                    // psrldq        $0x4,%xmm3
@@ -32243,7 +39369,7 @@
   .byte  102,15,235,200                      // por           %xmm0,%xmm1
   .byte  102,15,56,51,193                    // pmovzxwd      %xmm1,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,174,61,1,0               // movaps        0x13dae(%rip),%xmm8        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  68,15,40,5,242,61,1,0               // movaps        0x13df2(%rip),%xmm8        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -32260,27 +39386,27 @@
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,213,58,1,0                 // movaps        0x13ad5(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,25,59,1,0                  // movaps        0x13b19(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,20,64                 // movd          (%r8,%rax,2),%xmm2
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,84,64,4,2             // pinsrw        $0x2,0x4(%r8,%rax,2),%xmm2
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           179e2 <_sk_load_rgb_u16_be_sse41+0xfa>
+  .byte  117,13                              // jne           1f01e <_sk_load_rgb_u16_be_sse41+0xfa>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
-  .byte  233,85,255,255,255                  // jmpq          17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+  .byte  233,85,255,255,255                  // jmpq          1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
   .byte  102,65,15,110,68,64,6               // movd          0x6(%r8,%rax,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,68,64,10,2            // pinsrw        $0x2,0xa(%r8,%rax,2),%xmm0
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,24                              // jb            17a13 <_sk_load_rgb_u16_be_sse41+0x12b>
+  .byte  114,24                              // jb            1f04f <_sk_load_rgb_u16_be_sse41+0x12b>
   .byte  102,65,15,110,92,64,12              // movd          0xc(%r8,%rax,2),%xmm3
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,92,64,16,2            // pinsrw        $0x2,0x10(%r8,%rax,2),%xmm3
-  .byte  233,36,255,255,255                  // jmpq          17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+  .byte  233,36,255,255,255                  // jmpq          1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
-  .byte  233,27,255,255,255                  // jmpq          17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+  .byte  233,27,255,255,255                  // jmpq          1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
 
 HIDDEN _sk_store_u16_be_sse41
 .globl _sk_store_u16_be_sse41
@@ -32294,7 +39420,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
-  .byte  68,15,40,21,142,63,1,0              // movaps        0x13f8e(%rip),%xmm10        # 2b9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+  .byte  68,15,40,21,210,63,1,0              // movaps        0x13fd2(%rip),%xmm10        # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
@@ -32331,7 +39457,7 @@
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
   .byte  102,69,15,98,209                    // punpckldq     %xmm9,%xmm10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,21                              // jne           17b10 <_sk_store_u16_be_sse41+0xf4>
+  .byte  117,21                              // jne           1f14c <_sk_store_u16_be_sse41+0xf4>
   .byte  69,15,17,20,64                      // movups        %xmm10,(%r8,%rax,2)
   .byte  102,69,15,106,193                   // punpckhdq     %xmm9,%xmm8
   .byte  243,69,15,127,68,64,16              // movdqu        %xmm8,0x10(%r8,%rax,2)
@@ -32339,13 +39465,13 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,214,20,64                 // movq          %xmm10,(%r8,%rax,2)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            17b0c <_sk_store_u16_be_sse41+0xf0>
+  .byte  116,240                             // je            1f148 <_sk_store_u16_be_sse41+0xf0>
   .byte  102,69,15,23,84,64,8                // movhpd        %xmm10,0x8(%r8,%rax,2)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            17b0c <_sk_store_u16_be_sse41+0xf0>
+  .byte  114,227                             // jb            1f148 <_sk_store_u16_be_sse41+0xf0>
   .byte  102,69,15,106,193                   // punpckhdq     %xmm9,%xmm8
   .byte  102,69,15,214,68,64,16              // movq          %xmm8,0x10(%r8,%rax,2)
-  .byte  235,213                             // jmp           17b0c <_sk_store_u16_be_sse41+0xf0>
+  .byte  235,213                             // jmp           1f148 <_sk_store_u16_be_sse41+0xf0>
 
 HIDDEN _sk_load_f32_sse41
 .globl _sk_load_f32_sse41
@@ -32361,7 +39487,7 @@
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  69,15,16,4,128                      // movups        (%r8,%rax,4),%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,66                              // jne           17ba2 <_sk_load_f32_sse41+0x6b>
+  .byte  117,66                              // jne           1f1de <_sk_load_f32_sse41+0x6b>
   .byte  65,15,16,68,128,16                  // movups        0x10(%r8,%rax,4),%xmm0
   .byte  65,15,16,92,128,32                  // movups        0x20(%r8,%rax,4),%xmm3
   .byte  69,15,16,76,128,48                  // movups        0x30(%r8,%rax,4),%xmm9
@@ -32381,17 +39507,17 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,8                               // jne           17bb4 <_sk_load_f32_sse41+0x7d>
+  .byte  117,8                               // jne           1f1f0 <_sk_load_f32_sse41+0x7d>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
-  .byte  235,190                             // jmp           17b72 <_sk_load_f32_sse41+0x3b>
+  .byte  235,190                             // jmp           1f1ae <_sk_load_f32_sse41+0x3b>
   .byte  65,15,16,68,128,16                  // movups        0x10(%r8,%rax,4),%xmm0
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,8                               // jb            17bc8 <_sk_load_f32_sse41+0x91>
+  .byte  114,8                               // jb            1f204 <_sk_load_f32_sse41+0x91>
   .byte  65,15,16,92,128,32                  // movups        0x20(%r8,%rax,4),%xmm3
-  .byte  235,170                             // jmp           17b72 <_sk_load_f32_sse41+0x3b>
+  .byte  235,170                             // jmp           1f1ae <_sk_load_f32_sse41+0x3b>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
-  .byte  235,165                             // jmp           17b72 <_sk_load_f32_sse41+0x3b>
+  .byte  235,165                             // jmp           1f1ae <_sk_load_f32_sse41+0x3b>
 
 HIDDEN _sk_load_f32_dst_sse41
 .globl _sk_load_f32_dst_sse41
@@ -32407,7 +39533,7 @@
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  69,15,16,4,128                      // movups        (%r8,%rax,4),%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,66                              // jne           17c38 <_sk_load_f32_dst_sse41+0x6b>
+  .byte  117,66                              // jne           1f274 <_sk_load_f32_dst_sse41+0x6b>
   .byte  65,15,16,100,128,16                 // movups        0x10(%r8,%rax,4),%xmm4
   .byte  65,15,16,124,128,32                 // movups        0x20(%r8,%rax,4),%xmm7
   .byte  69,15,16,76,128,48                  // movups        0x30(%r8,%rax,4),%xmm9
@@ -32427,17 +39553,17 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,8                               // jne           17c4a <_sk_load_f32_dst_sse41+0x7d>
+  .byte  117,8                               // jne           1f286 <_sk_load_f32_dst_sse41+0x7d>
   .byte  15,87,255                           // xorps         %xmm7,%xmm7
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
-  .byte  235,190                             // jmp           17c08 <_sk_load_f32_dst_sse41+0x3b>
+  .byte  235,190                             // jmp           1f244 <_sk_load_f32_dst_sse41+0x3b>
   .byte  65,15,16,100,128,16                 // movups        0x10(%r8,%rax,4),%xmm4
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,8                               // jb            17c5e <_sk_load_f32_dst_sse41+0x91>
+  .byte  114,8                               // jb            1f29a <_sk_load_f32_dst_sse41+0x91>
   .byte  65,15,16,124,128,32                 // movups        0x20(%r8,%rax,4),%xmm7
-  .byte  235,170                             // jmp           17c08 <_sk_load_f32_dst_sse41+0x3b>
+  .byte  235,170                             // jmp           1f244 <_sk_load_f32_dst_sse41+0x3b>
   .byte  15,87,255                           // xorps         %xmm7,%xmm7
-  .byte  235,165                             // jmp           17c08 <_sk_load_f32_dst_sse41+0x3b>
+  .byte  235,165                             // jmp           1f244 <_sk_load_f32_dst_sse41+0x3b>
 
 HIDDEN _sk_store_f32_sse41
 .globl _sk_store_f32_sse41
@@ -32466,7 +39592,7 @@
   .byte  102,69,15,20,203                    // unpcklpd      %xmm11,%xmm9
   .byte  102,69,15,17,36,128                 // movupd        %xmm12,(%r8,%rax,4)
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,29                              // jne           17ce0 <_sk_store_f32_sse41+0x7d>
+  .byte  117,29                              // jne           1f31c <_sk_store_f32_sse41+0x7d>
   .byte  102,69,15,21,211                    // unpckhpd      %xmm11,%xmm10
   .byte  69,15,17,68,128,16                  // movups        %xmm8,0x10(%r8,%rax,4)
   .byte  102,69,15,17,76,128,32              // movupd        %xmm9,0x20(%r8,%rax,4)
@@ -32474,12 +39600,12 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,246                             // je            17cdc <_sk_store_f32_sse41+0x79>
+  .byte  116,246                             // je            1f318 <_sk_store_f32_sse41+0x79>
   .byte  69,15,17,68,128,16                  // movups        %xmm8,0x10(%r8,%rax,4)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,234                             // jb            17cdc <_sk_store_f32_sse41+0x79>
+  .byte  114,234                             // jb            1f318 <_sk_store_f32_sse41+0x79>
   .byte  102,69,15,17,76,128,32              // movupd        %xmm9,0x20(%r8,%rax,4)
-  .byte  235,225                             // jmp           17cdc <_sk_store_f32_sse41+0x79>
+  .byte  235,225                             // jmp           1f318 <_sk_store_f32_sse41+0x79>
 
 HIDDEN _sk_repeat_x_sse41
 .globl _sk_repeat_x_sse41
@@ -32525,7 +39651,7 @@
   .byte  65,15,92,194                        // subps         %xmm10,%xmm0
   .byte  243,69,15,88,192                    // addss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  243,68,15,89,13,0,53,1,0            // mulss         0x13500(%rip),%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,13,68,53,1,0           // mulss         0x13544(%rip),%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
   .byte  102,69,15,58,8,201,1                // roundps       $0x1,%xmm9,%xmm9
@@ -32550,7 +39676,7 @@
   .byte  65,15,92,202                        // subps         %xmm10,%xmm1
   .byte  243,69,15,88,192                    // addss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  243,68,15,89,13,167,52,1,0          // mulss         0x134a7(%rip),%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,13,235,52,1,0          // mulss         0x134eb(%rip),%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,89,201                        // mulps         %xmm1,%xmm9
   .byte  102,69,15,58,8,201,1                // roundps       $0x1,%xmm9,%xmm9
@@ -32569,7 +39695,7 @@
 _sk_clamp_x_1_sse41:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
   .byte  68,15,95,192                        // maxps         %xmm0,%xmm8
-  .byte  68,15,93,5,119,54,1,0               // minps         0x13677(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,93,5,187,54,1,0               // minps         0x136bb(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -32587,9 +39713,9 @@
 .globl _sk_mirror_x_1_sse41
 FUNCTION(_sk_mirror_x_1_sse41)
 _sk_mirror_x_1_sse41:
-  .byte  68,15,40,5,184,54,1,0               // movaps        0x136b8(%rip),%xmm8        # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+  .byte  68,15,40,5,252,54,1,0               // movaps        0x136fc(%rip),%xmm8        # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,40,13,60,54,1,0               // movaps        0x1363c(%rip),%xmm9        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,13,128,54,1,0              // movaps        0x13680(%rip),%xmm9        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
   .byte  102,69,15,58,8,201,1                // roundps       $0x1,%xmm9,%xmm9
   .byte  69,15,88,201                        // addps         %xmm9,%xmm9
@@ -32606,10 +39732,10 @@
 FUNCTION(_sk_luminance_to_alpha_sse41)
 _sk_luminance_to_alpha_sse41:
   .byte  15,40,218                           // movaps        %xmm2,%xmm3
-  .byte  15,89,5,107,59,1,0                  // mulps         0x13b6b(%rip),%xmm0        # 2b9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
-  .byte  15,89,13,116,59,1,0                 // mulps         0x13b74(%rip),%xmm1        # 2b9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+  .byte  15,89,5,175,59,1,0                  // mulps         0x13baf(%rip),%xmm0        # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+  .byte  15,89,13,184,59,1,0                 // mulps         0x13bb8(%rip),%xmm1        # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
   .byte  15,88,200                           // addps         %xmm0,%xmm1
-  .byte  15,89,29,122,59,1,0                 // mulps         0x13b7a(%rip),%xmm3        # 2ba00 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
+  .byte  15,89,29,190,59,1,0                 // mulps         0x13bbe(%rip),%xmm3        # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
   .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -32921,9 +40047,9 @@
   .byte  72,139,24                           // mov           (%rax),%rbx
   .byte  76,139,112,8                        // mov           0x8(%rax),%r14
   .byte  72,255,203                          // dec           %rbx
-  .byte  120,7                               // js            18326 <_sk_evenly_spaced_gradient_sse41+0x18>
+  .byte  120,7                               // js            1f962 <_sk_evenly_spaced_gradient_sse41+0x18>
   .byte  243,72,15,42,203                    // cvtsi2ss      %rbx,%xmm1
-  .byte  235,21                              // jmp           1833b <_sk_evenly_spaced_gradient_sse41+0x2d>
+  .byte  235,21                              // jmp           1f977 <_sk_evenly_spaced_gradient_sse41+0x2d>
   .byte  73,137,216                          // mov           %rbx,%r8
   .byte  73,209,232                          // shr           %r8
   .byte  131,227,1                           // and           $0x1,%ebx
@@ -33012,15 +40138,15 @@
 .globl _sk_gauss_a_to_rgba_sse41
 FUNCTION(_sk_gauss_a_to_rgba_sse41)
 _sk_gauss_a_to_rgba_sse41:
-  .byte  15,40,5,41,53,1,0                   // movaps        0x13529(%rip),%xmm0        # 2ba10 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+  .byte  15,40,5,109,53,1,0                  // movaps        0x1356d(%rip),%xmm0        # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,47,53,1,0                   // addps         0x1352f(%rip),%xmm0        # 2ba20 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+  .byte  15,88,5,115,53,1,0                  // addps         0x13573(%rip),%xmm0        # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,53,53,1,0                   // addps         0x13535(%rip),%xmm0        # 2ba30 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+  .byte  15,88,5,121,53,1,0                  // addps         0x13579(%rip),%xmm0        # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,59,53,1,0                   // addps         0x1353b(%rip),%xmm0        # 2ba40 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+  .byte  15,88,5,127,53,1,0                  // addps         0x1357f(%rip),%xmm0        # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,65,53,1,0                   // addps         0x13541(%rip),%xmm0        # 2ba50 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+  .byte  15,88,5,133,53,1,0                  // addps         0x13585(%rip),%xmm0        # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
@@ -33035,7 +40161,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  73,131,248,2                        // cmp           $0x2,%r8
-  .byte  114,41                              // jb            18554 <_sk_gradient_sse41+0x38>
+  .byte  114,41                              // jb            1fb90 <_sk_gradient_sse41+0x38>
   .byte  76,139,72,72                        // mov           0x48(%rax),%r9
   .byte  73,255,200                          // dec           %r8
   .byte  73,131,193,4                        // add           $0x4,%r9
@@ -33046,7 +40172,7 @@
   .byte  102,15,250,202                      // psubd         %xmm2,%xmm1
   .byte  73,131,193,4                        // add           $0x4,%r9
   .byte  73,255,200                          // dec           %r8
-  .byte  117,230                             // jne           1853a <_sk_gradient_sse41+0x1e>
+  .byte  117,230                             // jne           1fb76 <_sk_gradient_sse41+0x1e>
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  102,73,15,58,22,200,1               // pextrq        $0x1,%xmm1,%r8
@@ -33177,26 +40303,26 @@
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,40,236                        // movaps        %xmm12,%xmm13
   .byte  69,15,89,237                        // mulps         %xmm13,%xmm13
-  .byte  68,15,40,21,184,50,1,0              // movaps        0x132b8(%rip),%xmm10        # 2ba60 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+  .byte  68,15,40,21,252,50,1,0              // movaps        0x132fc(%rip),%xmm10        # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
   .byte  69,15,89,213                        // mulps         %xmm13,%xmm10
-  .byte  68,15,88,21,188,50,1,0              // addps         0x132bc(%rip),%xmm10        # 2ba70 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+  .byte  68,15,88,21,0,51,1,0                // addps         0x13300(%rip),%xmm10        # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
   .byte  69,15,89,213                        // mulps         %xmm13,%xmm10
-  .byte  68,15,88,21,192,50,1,0              // addps         0x132c0(%rip),%xmm10        # 2ba80 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+  .byte  68,15,88,21,4,51,1,0                // addps         0x13304(%rip),%xmm10        # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
   .byte  69,15,89,213                        // mulps         %xmm13,%xmm10
-  .byte  68,15,88,21,196,50,1,0              // addps         0x132c4(%rip),%xmm10        # 2ba90 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+  .byte  68,15,88,21,8,51,1,0                // addps         0x13308(%rip),%xmm10        # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
   .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
   .byte  65,15,194,195,1                     // cmpltps       %xmm11,%xmm0
-  .byte  68,15,40,29,195,50,1,0              // movaps        0x132c3(%rip),%xmm11        # 2baa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+  .byte  68,15,40,29,7,51,1,0                // movaps        0x13307(%rip),%xmm11        # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
   .byte  102,69,15,56,20,211                 // blendvps      %xmm0,%xmm11,%xmm10
   .byte  69,15,194,200,1                     // cmpltps       %xmm8,%xmm9
-  .byte  68,15,40,29,140,44,1,0              // movaps        0x12c8c(%rip),%xmm11        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,29,208,44,1,0              // movaps        0x12cd0(%rip),%xmm11        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  102,69,15,56,20,211                 // blendvps      %xmm0,%xmm11,%xmm10
   .byte  15,40,193                           // movaps        %xmm1,%xmm0
   .byte  65,15,194,192,1                     // cmpltps       %xmm8,%xmm0
-  .byte  68,15,40,13,126,44,1,0              // movaps        0x12c7e(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,194,44,1,0              // movaps        0x12cc2(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  102,69,15,56,20,209                 // blendvps      %xmm0,%xmm9,%xmm10
   .byte  69,15,194,194,7                     // cmpordps      %xmm10,%xmm8
@@ -33230,7 +40356,7 @@
   .byte  243,69,15,89,203                    // mulss         %xmm11,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,55,50,1,0               // mulps         0x13237(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,123,50,1,0              // mulps         0x1327b(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
@@ -33238,7 +40364,7 @@
   .byte  243,69,15,89,219                    // mulss         %xmm11,%xmm11
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,89,21,34,50,1,0               // mulps         0x13222(%rip),%xmm10        # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+  .byte  68,15,89,21,102,50,1,0              // mulps         0x13266(%rip),%xmm10        # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
   .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
@@ -33247,8 +40373,8 @@
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,92,193                        // subps         %xmm9,%xmm0
-  .byte  68,15,87,13,202,48,1,0              // xorps         0x130ca(%rip),%xmm9        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
-  .byte  68,15,89,5,178,43,1,0               // mulps         0x12bb2(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,87,13,14,49,1,0               // xorps         0x1310e(%rip),%xmm9        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+  .byte  68,15,89,5,246,43,1,0               // mulps         0x12bf6(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
@@ -33269,7 +40395,7 @@
   .byte  243,69,15,89,203                    // mulss         %xmm11,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,153,49,1,0              // mulps         0x13199(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,221,49,1,0              // mulps         0x131dd(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
@@ -33277,7 +40403,7 @@
   .byte  243,69,15,89,219                    // mulss         %xmm11,%xmm11
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,89,21,132,49,1,0              // mulps         0x13184(%rip),%xmm10        # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+  .byte  68,15,89,21,200,49,1,0              // mulps         0x131c8(%rip),%xmm10        # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
   .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
@@ -33286,8 +40412,8 @@
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,92,193                        // subps         %xmm9,%xmm0
-  .byte  68,15,87,13,44,48,1,0               // xorps         0x1302c(%rip),%xmm9        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
-  .byte  68,15,89,5,20,43,1,0                // mulps         0x12b14(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,87,13,112,48,1,0              // xorps         0x13070(%rip),%xmm9        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+  .byte  68,15,89,5,88,43,1,0                // mulps         0x12b58(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
@@ -33305,7 +40431,7 @@
   .byte  243,69,15,89,200                    // mulss         %xmm8,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,12,49,1,0               // mulps         0x1310c(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,80,49,1,0               // mulps         0x13150(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
   .byte  69,15,89,210                        // mulps         %xmm10,%xmm10
@@ -33313,7 +40439,7 @@
   .byte  243,69,15,89,192                    // mulss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,92,192                        // subps         %xmm8,%xmm0
-  .byte  15,87,5,200,47,1,0                  // xorps         0x12fc8(%rip),%xmm0        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+  .byte  15,87,5,12,48,1,0                   // xorps         0x1300c(%rip),%xmm0        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
   .byte  65,15,94,193                        // divps         %xmm9,%xmm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33361,7 +40487,7 @@
 FUNCTION(_sk_save_xy_sse41)
 _sk_save_xy_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,55,42,1,0                // movaps        0x12a37(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,123,42,1,0               // movaps        0x12a7b(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,17,0                             // movups        %xmm0,(%rax)
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,88,200                        // addps         %xmm8,%xmm9
@@ -33405,8 +40531,8 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,249,47,1,0                  // addps         0x12ff9(%rip),%xmm0        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,177,41,1,0              // movaps        0x129b1(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,61,48,1,0                   // addps         0x1303d(%rip),%xmm0        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,245,41,1,0              // movaps        0x129f5(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33419,7 +40545,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,128,41,1,0                  // addps         0x12980(%rip),%xmm0        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,5,196,41,1,0                  // addps         0x129c4(%rip),%xmm0        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33431,8 +40557,8 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,178,47,1,0                 // addps         0x12fb2(%rip),%xmm1        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,106,41,1,0              // movaps        0x1296a(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,246,47,1,0                 // addps         0x12ff6(%rip),%xmm1        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,174,41,1,0              // movaps        0x129ae(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33445,7 +40571,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,56,41,1,0                  // addps         0x12938(%rip),%xmm1        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,13,124,41,1,0                 // addps         0x1297c(%rip),%xmm1        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33457,13 +40583,13 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,123,47,1,0                  // addps         0x12f7b(%rip),%xmm0        # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
-  .byte  68,15,40,13,35,41,1,0               // movaps        0x12923(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,191,47,1,0                  // addps         0x12fbf(%rip),%xmm0        # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+  .byte  68,15,40,13,103,41,1,0              // movaps        0x12967(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  68,15,89,13,111,47,1,0              // mulps         0x12f6f(%rip),%xmm9        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,13,247,42,1,0              // addps         0x12af7(%rip),%xmm9        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,13,179,47,1,0              // mulps         0x12fb3(%rip),%xmm9        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,13,59,43,1,0               // addps         0x12b3b(%rip),%xmm9        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33476,16 +40602,16 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,38,47,1,0                   // addps         0x12f26(%rip),%xmm0        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,222,40,1,0              // movaps        0x128de(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,106,47,1,0                  // addps         0x12f6a(%rip),%xmm0        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,34,41,1,0               // movaps        0x12922(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
-  .byte  68,15,40,5,66,47,1,0                // movaps        0x12f42(%rip),%xmm8        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,5,134,47,1,0               // movaps        0x12f86(%rip),%xmm8        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,70,47,1,0                // addps         0x12f46(%rip),%xmm8        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,5,138,47,1,0               // addps         0x12f8a(%rip),%xmm8        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,170,40,1,0               // addps         0x128aa(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,88,5,238,40,1,0               // addps         0x128ee(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,62,47,1,0                // addps         0x12f3e(%rip),%xmm8        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,5,130,47,1,0               // addps         0x12f82(%rip),%xmm8        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33495,17 +40621,17 @@
 FUNCTION(_sk_bicubic_p1x_sse41)
 _sk_bicubic_p1x_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,136,40,1,0               // movaps        0x12888(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,204,40,1,0               // movaps        0x128cc(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,40,21,244,46,1,0              // movaps        0x12ef4(%rip),%xmm10        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,21,56,47,1,0               // movaps        0x12f38(%rip),%xmm10        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,248,46,1,0              // addps         0x12ef8(%rip),%xmm10        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,21,60,47,1,0               // addps         0x12f3c(%rip),%xmm10        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,244,46,1,0              // addps         0x12ef4(%rip),%xmm10        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,21,56,47,1,0               // addps         0x12f38(%rip),%xmm10        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,144,128,0,0,0              // movups        %xmm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33517,11 +40643,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,199,46,1,0                  // addps         0x12ec7(%rip),%xmm0        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  15,88,5,11,47,1,0                   // addps         0x12f0b(%rip),%xmm0        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  68,15,89,5,151,46,1,0               // mulps         0x12e97(%rip),%xmm8        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,5,31,42,1,0                // addps         0x12a1f(%rip),%xmm8        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,5,219,46,1,0               // mulps         0x12edb(%rip),%xmm8        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,5,99,42,1,0                // addps         0x12a63(%rip),%xmm8        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33534,13 +40660,13 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,93,46,1,0                  // addps         0x12e5d(%rip),%xmm1        # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
-  .byte  68,15,40,13,5,40,1,0                // movaps        0x12805(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,161,46,1,0                 // addps         0x12ea1(%rip),%xmm1        # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+  .byte  68,15,40,13,73,40,1,0               // movaps        0x12849(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  68,15,89,13,81,46,1,0               // mulps         0x12e51(%rip),%xmm9        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,13,217,41,1,0              // addps         0x129d9(%rip),%xmm9        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,13,149,46,1,0              // mulps         0x12e95(%rip),%xmm9        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,13,29,42,1,0               // addps         0x12a1d(%rip),%xmm9        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33553,16 +40679,16 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,7,46,1,0                   // addps         0x12e07(%rip),%xmm1        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,191,39,1,0              // movaps        0x127bf(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,75,46,1,0                  // addps         0x12e4b(%rip),%xmm1        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,3,40,1,0                // movaps        0x12803(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
-  .byte  68,15,40,5,35,46,1,0                // movaps        0x12e23(%rip),%xmm8        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,5,103,46,1,0               // movaps        0x12e67(%rip),%xmm8        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,39,46,1,0                // addps         0x12e27(%rip),%xmm8        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,5,107,46,1,0               // addps         0x12e6b(%rip),%xmm8        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,139,39,1,0               // addps         0x1278b(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,88,5,207,39,1,0               // addps         0x127cf(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,31,46,1,0                // addps         0x12e1f(%rip),%xmm8        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,5,99,46,1,0                // addps         0x12e63(%rip),%xmm8        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33572,17 +40698,17 @@
 FUNCTION(_sk_bicubic_p1y_sse41)
 _sk_bicubic_p1y_sse41:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,105,39,1,0               // movaps        0x12769(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,173,39,1,0               // movaps        0x127ad(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
   .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  68,15,40,21,212,45,1,0              // movaps        0x12dd4(%rip),%xmm10        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,21,24,46,1,0               // movaps        0x12e18(%rip),%xmm10        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,216,45,1,0              // addps         0x12dd8(%rip),%xmm10        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,21,28,46,1,0               // addps         0x12e1c(%rip),%xmm10        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,212,45,1,0              // addps         0x12dd4(%rip),%xmm10        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,21,24,46,1,0               // addps         0x12e18(%rip),%xmm10        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,144,160,0,0,0              // movups        %xmm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -33594,11 +40720,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,166,45,1,0                 // addps         0x12da6(%rip),%xmm1        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  15,88,13,234,45,1,0                 // addps         0x12dea(%rip),%xmm1        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  68,15,89,5,118,45,1,0               // mulps         0x12d76(%rip),%xmm8        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,5,254,40,1,0               // addps         0x128fe(%rip),%xmm8        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,5,186,45,1,0               // mulps         0x12dba(%rip),%xmm8        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,5,66,41,1,0                // addps         0x12942(%rip),%xmm8        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -33709,7 +40835,7 @@
   .byte  15,89,194                           // mulps         %xmm2,%xmm0
   .byte  15,41,68,36,208                     // movaps        %xmm0,-0x30(%rsp)
   .byte  243,15,91,240                       // cvttps2dq     %xmm0,%xmm6
-  .byte  15,40,37,97,44,1,0                  // movaps        0x12c61(%rip),%xmm4        # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+  .byte  15,40,37,165,44,1,0                 // movaps        0x12ca5(%rip),%xmm4        # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
   .byte  15,88,196                           // addps         %xmm4,%xmm0
   .byte  15,41,68,36,176                     // movaps        %xmm0,-0x50(%rsp)
   .byte  102,65,15,110,208                   // movd          %r8d,%xmm2
@@ -33748,7 +40874,7 @@
   .byte  102,68,15,56,64,192                 // pmulld        %xmm0,%xmm8
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  102,15,254,218                      // paddd         %xmm2,%xmm3
-  .byte  102,68,15,111,37,184,43,1,0         // movdqa        0x12bb8(%rip),%xmm12        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,68,15,111,37,252,43,1,0         // movdqa        0x12bfc(%rip),%xmm12        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,65,15,56,64,220                 // pmulld        %xmm12,%xmm3
   .byte  102,15,118,228                      // pcmpeqd       %xmm4,%xmm4
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
@@ -33771,7 +40897,7 @@
   .byte  102,65,15,58,22,217,1               // pextrd        $0x1,%xmm3,%r9d
   .byte  102,65,15,58,22,218,2               // pextrd        $0x2,%xmm3,%r10d
   .byte  102,65,15,58,22,219,3               // pextrd        $0x3,%xmm3,%r11d
-  .byte  102,15,111,37,188,36,1,0            // movdqa        0x124bc(%rip),%xmm4        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,37,0,37,1,0              // movdqa        0x12500(%rip),%xmm4        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,220                      // paddd         %xmm4,%xmm3
   .byte  102,15,111,252                      // movdqa        %xmm4,%xmm7
   .byte  102,73,15,58,22,222,1               // pextrq        $0x1,%xmm3,%r14
@@ -33944,7 +41070,7 @@
   .byte  102,68,15,254,202                   // paddd         %xmm2,%xmm9
   .byte  102,65,15,111,192                   // movdqa        %xmm8,%xmm0
   .byte  102,65,15,254,193                   // paddd         %xmm9,%xmm0
-  .byte  102,15,111,45,199,39,1,0            // movdqa        0x127c7(%rip),%xmm5        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,45,11,40,1,0             // movdqa        0x1280b(%rip),%xmm5        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,56,64,197                    // pmulld        %xmm5,%xmm0
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,118,246                      // pcmpeqd       %xmm6,%xmm6
@@ -33965,7 +41091,7 @@
   .byte  102,65,15,58,22,193,1               // pextrd        $0x1,%xmm0,%r9d
   .byte  102,65,15,58,22,194,2               // pextrd        $0x2,%xmm0,%r10d
   .byte  102,65,15,58,22,195,3               // pextrd        $0x3,%xmm0,%r11d
-  .byte  102,15,111,61,216,32,1,0            // movdqa        0x120d8(%rip),%xmm7        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,61,28,33,1,0             // movdqa        0x1211c(%rip),%xmm7        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,199                      // paddd         %xmm7,%xmm0
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
   .byte  102,72,15,126,195                   // movq          %xmm0,%rbx
@@ -34031,7 +41157,7 @@
   .byte  15,88,248                           // addps         %xmm0,%xmm7
   .byte  102,68,15,254,210                   // paddd         %xmm2,%xmm10
   .byte  102,69,15,254,194                   // paddd         %xmm10,%xmm8
-  .byte  102,15,111,13,3,38,1,0              // movdqa        0x12603(%rip),%xmm1        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,13,71,38,1,0             // movdqa        0x12647(%rip),%xmm1        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,68,15,56,64,193                 // pmulld        %xmm1,%xmm8
   .byte  102,65,15,111,192                   // movdqa        %xmm8,%xmm0
   .byte  102,15,118,237                      // pcmpeqd       %xmm5,%xmm5
@@ -34052,7 +41178,7 @@
   .byte  102,69,15,58,22,193,1               // pextrd        $0x1,%xmm8,%r9d
   .byte  102,69,15,58,22,194,2               // pextrd        $0x2,%xmm8,%r10d
   .byte  102,69,15,58,22,195,3               // pextrd        $0x3,%xmm8,%r11d
-  .byte  102,15,111,21,14,31,1,0             // movdqa        0x11f0e(%rip),%xmm2        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,21,82,31,1,0             // movdqa        0x11f52(%rip),%xmm2        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,68,15,254,194                   // paddd         %xmm2,%xmm8
   .byte  102,76,15,58,22,193,1               // pextrq        $0x1,%xmm8,%rcx
   .byte  102,76,15,126,195                   // movq          %xmm8,%rbx
@@ -34179,7 +41305,7 @@
   .byte  15,89,203                           // mulps         %xmm3,%xmm1
   .byte  15,41,76,36,48                      // movaps        %xmm1,0x30(%rsp)
   .byte  243,15,91,249                       // cvttps2dq     %xmm1,%xmm7
-  .byte  15,40,29,97,35,1,0                  // movaps        0x12361(%rip),%xmm3        # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+  .byte  15,40,29,165,35,1,0                 // movaps        0x123a5(%rip),%xmm3        # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
   .byte  15,88,203                           // addps         %xmm3,%xmm1
   .byte  15,41,76,36,160                     // movaps        %xmm1,-0x60(%rsp)
   .byte  102,65,15,110,232                   // movd          %r8d,%xmm5
@@ -34236,7 +41362,7 @@
   .byte  102,68,15,56,64,253                 // pmulld        %xmm5,%xmm15
   .byte  102,65,15,111,223                   // movdqa        %xmm15,%xmm3
   .byte  102,15,254,217                      // paddd         %xmm1,%xmm3
-  .byte  102,68,15,111,29,96,34,1,0          // movdqa        0x12260(%rip),%xmm11        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,68,15,111,29,164,34,1,0         // movdqa        0x122a4(%rip),%xmm11        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,65,15,56,64,219                 // pmulld        %xmm11,%xmm3
   .byte  102,15,118,192                      // pcmpeqd       %xmm0,%xmm0
   .byte  102,15,111,243                      // movdqa        %xmm3,%xmm6
@@ -34258,7 +41384,7 @@
   .byte  102,65,15,58,22,217,1               // pextrd        $0x1,%xmm3,%r9d
   .byte  102,65,15,58,22,218,2               // pextrd        $0x2,%xmm3,%r10d
   .byte  102,65,15,58,22,219,3               // pextrd        $0x3,%xmm3,%r11d
-  .byte  102,68,15,111,21,104,27,1,0         // movdqa        0x11b68(%rip),%xmm10        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,21,172,27,1,0         // movdqa        0x11bac(%rip),%xmm10        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,218                   // paddd         %xmm10,%xmm3
   .byte  102,73,15,58,22,222,1               // pextrq        $0x1,%xmm3,%r14
   .byte  102,72,15,126,219                   // movq          %xmm3,%rbx
@@ -34276,7 +41402,7 @@
   .byte  102,65,15,254,201                   // paddd         %xmm9,%xmm1
   .byte  102,65,15,56,64,203                 // pmulld        %xmm11,%xmm1
   .byte  102,15,111,217                      // movdqa        %xmm1,%xmm3
-  .byte  102,15,250,29,150,33,1,0            // psubd         0x12196(%rip),%xmm3        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,29,218,33,1,0            // psubd         0x121da(%rip),%xmm3        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,73,15,58,22,222,1               // pextrq        $0x1,%xmm3,%r14
   .byte  102,72,15,126,219                   // movq          %xmm3,%rbx
   .byte  65,137,223                          // mov           %ebx,%r15d
@@ -34331,7 +41457,7 @@
   .byte  102,65,15,254,199                   // paddd         %xmm15,%xmm0
   .byte  102,65,15,56,64,195                 // pmulld        %xmm11,%xmm0
   .byte  102,15,111,232                      // movdqa        %xmm0,%xmm5
-  .byte  102,15,250,45,118,32,1,0            // psubd         0x12076(%rip),%xmm5        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,45,186,32,1,0            // psubd         0x120ba(%rip),%xmm5        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,69,15,118,192                   // pcmpeqd       %xmm8,%xmm8
   .byte  102,72,15,58,22,233,1               // pextrq        $0x1,%xmm5,%rcx
   .byte  102,72,15,126,237                   // movq          %xmm5,%rbp
@@ -34456,7 +41582,7 @@
   .byte  72,193,233,32                       // shr           $0x20,%rcx
   .byte  243,15,16,36,136                    // movss         (%rax,%rcx,4),%xmm4
   .byte  102,68,15,58,33,220,48              // insertps      $0x30,%xmm4,%xmm11
-  .byte  102,15,111,61,90,23,1,0             // movdqa        0x1175a(%rip),%xmm7        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,61,158,23,1,0            // movdqa        0x1179e(%rip),%xmm7        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,223                      // paddd         %xmm7,%xmm3
   .byte  102,72,15,58,22,217,1               // pextrq        $0x1,%xmm3,%rcx
   .byte  102,72,15,126,221                   // movq          %xmm3,%rbp
@@ -34542,7 +41668,7 @@
   .byte  102,65,15,58,22,201,1               // pextrd        $0x1,%xmm1,%r9d
   .byte  102,65,15,58,22,202,2               // pextrd        $0x2,%xmm1,%r10d
   .byte  102,65,15,58,22,203,3               // pextrd        $0x3,%xmm1,%r11d
-  .byte  102,68,15,111,21,158,21,1,0         // movdqa        0x1159e(%rip),%xmm10        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,21,226,21,1,0         // movdqa        0x115e2(%rip),%xmm10        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,202                   // paddd         %xmm10,%xmm1
   .byte  102,72,15,58,22,201,1               // pextrq        $0x1,%xmm1,%rcx
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
@@ -34638,7 +41764,7 @@
   .byte  102,15,111,124,36,192               // movdqa        -0x40(%rsp),%xmm7
   .byte  102,15,111,199                      // movdqa        %xmm7,%xmm0
   .byte  102,15,254,195                      // paddd         %xmm3,%xmm0
-  .byte  102,15,111,21,56,26,1,0             // movdqa        0x11a38(%rip),%xmm2        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,21,124,26,1,0            // movdqa        0x11a7c(%rip),%xmm2        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,56,64,194                    // pmulld        %xmm2,%xmm0
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,69,15,118,192                   // pcmpeqd       %xmm8,%xmm8
@@ -34659,7 +41785,7 @@
   .byte  102,65,15,58,22,193,1               // pextrd        $0x1,%xmm0,%r9d
   .byte  102,65,15,58,22,194,2               // pextrd        $0x2,%xmm0,%r10d
   .byte  102,65,15,58,22,195,3               // pextrd        $0x3,%xmm0,%r11d
-  .byte  102,15,111,37,71,19,1,0             // movdqa        0x11347(%rip),%xmm4        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,37,139,19,1,0            // movdqa        0x1138b(%rip),%xmm4        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,196                      // paddd         %xmm4,%xmm0
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
   .byte  102,72,15,126,195                   // movq          %xmm0,%rbx
@@ -34731,7 +41857,7 @@
   .byte  102,68,15,111,226                   // movdqa        %xmm2,%xmm12
   .byte  102,65,15,56,64,204                 // pmulld        %xmm12,%xmm1
   .byte  102,15,111,209                      // movdqa        %xmm1,%xmm2
-  .byte  102,15,250,21,99,24,1,0             // psubd         0x11863(%rip),%xmm2        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,21,167,24,1,0            // psubd         0x118a7(%rip),%xmm2        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,72,15,58,22,209,1               // pextrq        $0x1,%xmm2,%rcx
   .byte  102,72,15,126,213                   // movq          %xmm2,%rbp
   .byte  137,235                             // mov           %ebp,%ebx
@@ -34765,7 +41891,7 @@
   .byte  102,65,15,111,249                   // movdqa        %xmm9,%xmm7
   .byte  102,69,15,56,64,236                 // pmulld        %xmm12,%xmm13
   .byte  102,65,15,111,205                   // movdqa        %xmm13,%xmm1
-  .byte  102,15,250,13,175,23,1,0            // psubd         0x117af(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,243,23,1,0            // psubd         0x117f3(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,72,15,58,22,201,1               // pextrq        $0x1,%xmm1,%rcx
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
   .byte  137,221                             // mov           %ebx,%ebp
@@ -34830,7 +41956,7 @@
   .byte  102,65,15,111,206                   // movdqa        %xmm14,%xmm1
   .byte  102,15,111,108,36,192               // movdqa        -0x40(%rsp),%xmm5
   .byte  102,15,254,205                      // paddd         %xmm5,%xmm1
-  .byte  102,15,111,37,70,22,1,0             // movdqa        0x11646(%rip),%xmm4        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,37,138,22,1,0            // movdqa        0x1168a(%rip),%xmm4        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,56,64,204                    // pmulld        %xmm4,%xmm1
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,15,118,246                      // pcmpeqd       %xmm6,%xmm6
@@ -34851,7 +41977,7 @@
   .byte  102,65,15,58,22,201,1               // pextrd        $0x1,%xmm1,%r9d
   .byte  102,65,15,58,22,202,2               // pextrd        $0x2,%xmm1,%r10d
   .byte  102,65,15,58,22,203,3               // pextrd        $0x3,%xmm1,%r11d
-  .byte  102,15,111,29,87,15,1,0             // movdqa        0x10f57(%rip),%xmm3        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,29,155,15,1,0            // movdqa        0x10f9b(%rip),%xmm3        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,203                      // paddd         %xmm3,%xmm1
   .byte  102,72,15,58,22,201,1               // pextrq        $0x1,%xmm1,%rcx
   .byte  102,72,15,126,203                   // movq          %xmm1,%rbx
@@ -34923,7 +42049,7 @@
   .byte  102,15,56,64,239                    // pmulld        %xmm7,%xmm5
   .byte  102,15,111,205                      // movdqa        %xmm5,%xmm1
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
-  .byte  102,15,250,5,119,20,1,0             // psubd         0x11477(%rip),%xmm0        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,5,187,20,1,0             // psubd         0x114bb(%rip),%xmm0        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
   .byte  102,72,15,126,197                   // movq          %xmm0,%rbp
   .byte  137,235                             // mov           %ebp,%ebx
@@ -34941,7 +42067,7 @@
   .byte  102,65,15,58,22,193,1               // pextrd        $0x1,%xmm0,%r9d
   .byte  102,65,15,58,22,194,2               // pextrd        $0x2,%xmm0,%r10d
   .byte  102,65,15,58,22,195,3               // pextrd        $0x3,%xmm0,%r11d
-  .byte  102,15,254,5,133,13,1,0             // paddd         0x10d85(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,5,201,13,1,0             // paddd         0x10dc9(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
   .byte  102,72,15,126,195                   // movq          %xmm0,%rbx
   .byte  137,221                             // mov           %ebx,%ebp
@@ -34957,7 +42083,7 @@
   .byte  102,15,254,84,36,176                // paddd         -0x50(%rsp),%xmm2
   .byte  102,15,56,64,215                    // pmulld        %xmm7,%xmm2
   .byte  102,15,111,194                      // movdqa        %xmm2,%xmm0
-  .byte  102,15,250,5,190,19,1,0             // psubd         0x113be(%rip),%xmm0        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,5,2,20,1,0               // psubd         0x11402(%rip),%xmm0        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,72,15,58,22,193,1               // pextrq        $0x1,%xmm0,%rcx
   .byte  102,72,15,126,195                   // movq          %xmm0,%rbx
   .byte  137,221                             // mov           %ebx,%ebp
@@ -34975,7 +42101,7 @@
   .byte  102,65,15,58,22,199,1               // pextrd        $0x1,%xmm0,%r15d
   .byte  102,65,15,58,22,196,2               // pextrd        $0x2,%xmm0,%r12d
   .byte  102,65,15,58,22,198,3               // pextrd        $0x3,%xmm0,%r14d
-  .byte  102,15,254,5,204,12,1,0             // paddd         0x10ccc(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,5,16,13,1,0              // paddd         0x10d10(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,72,15,58,22,195,1               // pextrq        $0x1,%xmm0,%rbx
   .byte  102,72,15,126,197                   // movq          %xmm0,%rbp
   .byte  137,233                             // mov           %ebp,%ecx
@@ -35038,7 +42164,7 @@
   .byte  15,89,212                           // mulps         %xmm4,%xmm2
   .byte  65,15,88,211                        // addps         %xmm11,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,137,11,1,0                 // movaps        0x10b89(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,205,11,1,0                 // movaps        0x10bcd(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,139,76,36,248                    // mov           -0x8(%rsp),%rcx
   .byte  15,40,100,36,64                     // movaps        0x40(%rsp),%xmm4
   .byte  15,40,108,36,80                     // movaps        0x50(%rsp),%xmm5
@@ -35074,13 +42200,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,131,0,0,0                    // jae           1a9e9 <_sk_start_pipeline_sse2+0xb6>
+  .byte  15,131,131,0,0,0                    // jae           22025 <_sk_start_pipeline_sse2+0xb6>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,4                         // lea           0x4(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
-  .byte  119,59                              // ja            1a9b7 <_sk_start_pipeline_sse2+0x84>
+  .byte  119,59                              // ja            21ff3 <_sk_start_pipeline_sse2+0x84>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -35099,10 +42225,10 @@
   .byte  73,131,196,8                        // add           $0x8,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,201                             // jbe           1a980 <_sk_start_pipeline_sse2+0x4d>
+  .byte  118,201                             // jbe           21fbc <_sk_start_pipeline_sse2+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,33                              // je            1a9e0 <_sk_start_pipeline_sse2+0xad>
+  .byte  116,33                              // je            2201c <_sk_start_pipeline_sse2+0xad>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -35116,7 +42242,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  117,137                             // jne           1a972 <_sk_start_pipeline_sse2+0x3f>
+  .byte  117,137                             // jne           21fae <_sk_start_pipeline_sse2+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -35139,13 +42265,13 @@
   .byte  102,15,110,194                      // movd          %edx,%xmm0
   .byte  102,15,112,192,0                    // pshufd        $0x0,%xmm0,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,88,5,100,10,1,0                  // addps         0x10a64(%rip),%xmm0        # 2b470 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+  .byte  15,88,5,168,10,1,0                  // addps         0x10aa8(%rip),%xmm0        # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
   .byte  102,15,110,201                      // movd          %ecx,%xmm1
   .byte  102,15,112,201,0                    // pshufd        $0x0,%xmm1,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,88,13,97,10,1,0                  // addps         0x10a61(%rip),%xmm1        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,13,165,10,1,0                 // addps         0x10aa5(%rip),%xmm1        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,21,104,10,1,0                 // movaps        0x10a68(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,172,10,1,0                 // movaps        0x10aac(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  15,87,237                           // xorps         %xmm5,%xmm5
@@ -35160,18 +42286,18 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  102,68,15,110,194                   // movd          %edx,%xmm8
   .byte  102,69,15,112,192,0                 // pshufd        $0x0,%xmm8,%xmm8
-  .byte  102,68,15,254,5,1,10,1,0            // paddd         0x10a01(%rip),%xmm8        # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+  .byte  102,68,15,254,5,69,10,1,0           // paddd         0x10a45(%rip),%xmm8        # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
   .byte  102,68,15,110,201                   // movd          %ecx,%xmm9
   .byte  102,69,15,112,201,0                 // pshufd        $0x0,%xmm9,%xmm9
   .byte  102,69,15,239,200                   // pxor          %xmm8,%xmm9
-  .byte  102,68,15,111,21,56,10,1,0          // movdqa        0x10a38(%rip),%xmm10        # 2b4a0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
+  .byte  102,68,15,111,21,124,10,1,0         // movdqa        0x10a7c(%rip),%xmm10        # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
   .byte  102,69,15,111,217                   // movdqa        %xmm9,%xmm11
   .byte  102,69,15,219,218                   // pand          %xmm10,%xmm11
   .byte  102,65,15,114,243,5                 // pslld         $0x5,%xmm11
   .byte  102,69,15,219,208                   // pand          %xmm8,%xmm10
   .byte  102,65,15,114,242,4                 // pslld         $0x4,%xmm10
-  .byte  102,68,15,111,37,36,10,1,0          // movdqa        0x10a24(%rip),%xmm12        # 2b4b0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
-  .byte  102,68,15,111,45,43,10,1,0          // movdqa        0x10a2b(%rip),%xmm13        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,37,104,10,1,0         // movdqa        0x10a68(%rip),%xmm12        # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+  .byte  102,68,15,111,45,111,10,1,0         // movdqa        0x10a6f(%rip),%xmm13        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,69,15,111,241                   // movdqa        %xmm9,%xmm14
   .byte  102,69,15,219,245                   // pand          %xmm13,%xmm14
   .byte  102,65,15,114,246,2                 // pslld         $0x2,%xmm14
@@ -35187,8 +42313,8 @@
   .byte  102,69,15,235,198                   // por           %xmm14,%xmm8
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,230,9,1,0                // mulps         0x109e6(%rip),%xmm8        # 2b4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
-  .byte  68,15,88,5,238,9,1,0                // addps         0x109ee(%rip),%xmm8        # 2b4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+  .byte  68,15,89,5,42,10,1,0                // mulps         0x10a2a(%rip),%xmm8        # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+  .byte  68,15,88,5,50,10,1,0                // addps         0x10a32(%rip),%xmm8        # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
   .byte  243,68,15,16,16                     // movss         (%rax),%xmm10
   .byte  69,15,198,210,0                     // shufps        $0x0,%xmm10,%xmm10
   .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
@@ -35230,7 +42356,7 @@
 FUNCTION(_sk_black_color_sse2)
 _sk_black_color_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,36,9,1,0                   // movaps        0x10924(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,104,9,1,0                  // movaps        0x10968(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -35241,7 +42367,7 @@
 FUNCTION(_sk_white_color_sse2)
 _sk_white_color_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,5,16,9,1,0                    // movaps        0x10910(%rip),%xmm0        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,5,84,9,1,0                    // movaps        0x10954(%rip),%xmm0        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,40,216                           // movaps        %xmm0,%xmm3
@@ -35287,7 +42413,7 @@
 FUNCTION(_sk_srcatop_sse2)
 _sk_srcatop_sse2:
   .byte  15,89,199                           // mulps         %xmm7,%xmm0
-  .byte  68,15,40,5,192,8,1,0                // movaps        0x108c0(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,4,9,1,0                  // movaps        0x10904(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -35312,7 +42438,7 @@
 _sk_dstatop_sse2:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
   .byte  68,15,89,196                        // mulps         %xmm4,%xmm8
-  .byte  68,15,40,13,115,8,1,0               // movaps        0x10873(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,183,8,1,0               // movaps        0x108b7(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
@@ -35359,7 +42485,7 @@
 .globl _sk_srcout_sse2
 FUNCTION(_sk_srcout_sse2)
 _sk_srcout_sse2:
-  .byte  68,15,40,5,7,8,1,0                  // movaps        0x10807(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,75,8,1,0                 // movaps        0x1084b(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
@@ -35372,7 +42498,7 @@
 .globl _sk_dstout_sse2
 FUNCTION(_sk_dstout_sse2)
 _sk_dstout_sse2:
-  .byte  68,15,40,5,231,7,1,0                // movaps        0x107e7(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,43,8,1,0                 // movaps        0x1082b(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  15,89,196                           // mulps         %xmm4,%xmm0
@@ -35389,7 +42515,7 @@
 .globl _sk_srcover_sse2
 FUNCTION(_sk_srcover_sse2)
 _sk_srcover_sse2:
-  .byte  68,15,40,5,186,7,1,0                // movaps        0x107ba(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,254,7,1,0                // movaps        0x107fe(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -35409,7 +42535,7 @@
 .globl _sk_dstover_sse2
 FUNCTION(_sk_dstover_sse2)
 _sk_dstover_sse2:
-  .byte  68,15,40,5,126,7,1,0                // movaps        0x1077e(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,194,7,1,0                // movaps        0x107c2(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -35437,7 +42563,7 @@
 .globl _sk_multiply_sse2
 FUNCTION(_sk_multiply_sse2)
 _sk_multiply_sse2:
-  .byte  68,15,40,5,66,7,1,0                 // movaps        0x10742(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,134,7,1,0                // movaps        0x10786(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
@@ -35475,7 +42601,7 @@
 FUNCTION(_sk_plus__sse2)
 _sk_plus__sse2:
   .byte  15,88,196                           // addps         %xmm4,%xmm0
-  .byte  68,15,40,5,195,6,1,0                // movaps        0x106c3(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,7,7,1,0                  // movaps        0x10707(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  15,88,205                           // addps         %xmm5,%xmm1
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
@@ -35517,7 +42643,7 @@
 FUNCTION(_sk_xor__sse2)
 _sk_xor__sse2:
   .byte  68,15,40,195                        // movaps        %xmm3,%xmm8
-  .byte  15,40,29,79,6,1,0                   // movaps        0x1064f(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,147,6,1,0                  // movaps        0x10693(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,40,203                        // movaps        %xmm3,%xmm9
   .byte  68,15,92,207                        // subps         %xmm7,%xmm9
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
@@ -35565,7 +42691,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,95,209                        // maxps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,170,5,1,0                  // movaps        0x105aa(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,238,5,1,0                  // movaps        0x105ee(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -35599,7 +42725,7 @@
   .byte  68,15,89,206                        // mulps         %xmm6,%xmm9
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,63,5,1,0                   // movaps        0x1053f(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,131,5,1,0                  // movaps        0x10583(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -35636,7 +42762,7 @@
   .byte  65,15,93,209                        // minps         %xmm9,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,201,4,1,0                  // movaps        0x104c9(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,13,5,1,0                   // movaps        0x1050d(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -35664,7 +42790,7 @@
   .byte  15,89,214                           // mulps         %xmm6,%xmm2
   .byte  15,88,210                           // addps         %xmm2,%xmm2
   .byte  68,15,92,194                        // subps         %xmm2,%xmm8
-  .byte  15,40,21,121,4,1,0                  // movaps        0x10479(%rip),%xmm2        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,21,189,4,1,0                  // movaps        0x104bd(%rip),%xmm2        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,211                           // subps         %xmm3,%xmm2
   .byte  15,89,215                           // mulps         %xmm7,%xmm2
   .byte  15,88,218                           // addps         %xmm2,%xmm3
@@ -35677,7 +42803,7 @@
 FUNCTION(_sk_colorburn_sse2)
 _sk_colorburn_sse2:
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
-  .byte  68,15,40,13,92,4,1,0                // movaps        0x1045c(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,160,4,1,0               // movaps        0x104a0(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
   .byte  68,15,92,215                        // subps         %xmm7,%xmm10
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
@@ -35772,7 +42898,7 @@
 FUNCTION(_sk_colordodge_sse2)
 _sk_colordodge_sse2:
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
-  .byte  68,15,40,21,4,3,1,0                 // movaps        0x10304(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,72,3,1,0                // movaps        0x10348(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
   .byte  68,15,92,223                        // subps         %xmm7,%xmm11
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
@@ -35864,7 +42990,7 @@
   .byte  15,41,116,36,232                    // movaps        %xmm6,-0x18(%rsp)
   .byte  15,40,245                           // movaps        %xmm5,%xmm6
   .byte  15,40,236                           // movaps        %xmm4,%xmm5
-  .byte  68,15,40,29,173,1,1,0               // movaps        0x101ad(%rip),%xmm11        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,29,241,1,1,0               // movaps        0x101f1(%rip),%xmm11        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,211                        // movaps        %xmm11,%xmm10
   .byte  68,15,92,215                        // subps         %xmm7,%xmm10
   .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
@@ -35952,7 +43078,7 @@
 _sk_overlay_sse2:
   .byte  68,15,40,193                        // movaps        %xmm1,%xmm8
   .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
-  .byte  68,15,40,13,107,0,1,0               // movaps        0x1006b(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,175,0,1,0               // movaps        0x100af(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
   .byte  68,15,92,215                        // subps         %xmm7,%xmm10
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
@@ -36043,7 +43169,7 @@
   .byte  68,15,40,213                        // movaps        %xmm5,%xmm10
   .byte  68,15,94,215                        // divps         %xmm7,%xmm10
   .byte  69,15,84,212                        // andps         %xmm12,%xmm10
-  .byte  68,15,40,13,24,255,0,0              // movaps        0xff18(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,92,255,0,0              // movaps        0xff5c(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,249                        // movaps        %xmm9,%xmm15
   .byte  69,15,92,250                        // subps         %xmm10,%xmm15
   .byte  69,15,40,218                        // movaps        %xmm10,%xmm11
@@ -36056,10 +43182,10 @@
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  65,15,88,194                        // addps         %xmm10,%xmm0
-  .byte  68,15,40,53,66,255,0,0              // movaps        0xff42(%rip),%xmm14        # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+  .byte  68,15,40,53,134,255,0,0             // movaps        0xff86(%rip),%xmm14        # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
   .byte  69,15,88,222                        // addps         %xmm14,%xmm11
   .byte  68,15,89,216                        // mulps         %xmm0,%xmm11
-  .byte  68,15,40,21,66,255,0,0              // movaps        0xff42(%rip),%xmm10        # 2b500 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+  .byte  68,15,40,21,134,255,0,0             // movaps        0xff86(%rip),%xmm10        # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
   .byte  69,15,89,234                        // mulps         %xmm10,%xmm13
   .byte  69,15,88,235                        // addps         %xmm11,%xmm13
   .byte  15,88,228                           // addps         %xmm4,%xmm4
@@ -36204,7 +43330,7 @@
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  68,15,89,211                        // mulps         %xmm3,%xmm10
-  .byte  68,15,40,5,213,252,0,0              // movaps        0xfcd5(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,25,253,0,0               // movaps        0xfd19(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,216                        // movaps        %xmm8,%xmm11
   .byte  15,40,207                           // movaps        %xmm7,%xmm1
   .byte  68,15,92,217                        // subps         %xmm1,%xmm11
@@ -36252,12 +43378,12 @@
   .byte  69,15,84,206                        // andps         %xmm14,%xmm9
   .byte  69,15,84,214                        // andps         %xmm14,%xmm10
   .byte  65,15,84,214                        // andps         %xmm14,%xmm2
-  .byte  68,15,40,61,146,252,0,0             // movaps        0xfc92(%rip),%xmm15        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,61,214,252,0,0             // movaps        0xfcd6(%rip),%xmm15        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  65,15,89,231                        // mulps         %xmm15,%xmm4
-  .byte  15,40,5,151,252,0,0                 // movaps        0xfc97(%rip),%xmm0        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  15,40,5,219,252,0,0                 // movaps        0xfcdb(%rip),%xmm0        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  15,89,240                           // mulps         %xmm0,%xmm6
   .byte  15,88,244                           // addps         %xmm4,%xmm6
-  .byte  68,15,40,53,153,252,0,0             // movaps        0xfc99(%rip),%xmm14        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,53,221,252,0,0             // movaps        0xfcdd(%rip),%xmm14        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  68,15,40,239                        // movaps        %xmm7,%xmm13
   .byte  69,15,89,238                        // mulps         %xmm14,%xmm13
   .byte  68,15,88,238                        // addps         %xmm6,%xmm13
@@ -36435,14 +43561,14 @@
   .byte  68,15,84,211                        // andps         %xmm3,%xmm10
   .byte  68,15,84,203                        // andps         %xmm3,%xmm9
   .byte  15,84,195                           // andps         %xmm3,%xmm0
-  .byte  68,15,40,5,235,249,0,0              // movaps        0xf9eb(%rip),%xmm8        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,5,47,250,0,0               // movaps        0xfa2f(%rip),%xmm8        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  15,40,214                           // movaps        %xmm6,%xmm2
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
-  .byte  15,40,13,237,249,0,0                // movaps        0xf9ed(%rip),%xmm1        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  15,40,13,49,250,0,0                 // movaps        0xfa31(%rip),%xmm1        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  15,40,221                           // movaps        %xmm5,%xmm3
   .byte  15,89,217                           // mulps         %xmm1,%xmm3
   .byte  15,88,218                           // addps         %xmm2,%xmm3
-  .byte  68,15,40,37,236,249,0,0             // movaps        0xf9ec(%rip),%xmm12        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,37,48,250,0,0              // movaps        0xfa30(%rip),%xmm12        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
   .byte  68,15,88,235                        // addps         %xmm3,%xmm13
   .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
@@ -36487,7 +43613,7 @@
   .byte  15,40,223                           // movaps        %xmm7,%xmm3
   .byte  15,40,236                           // movaps        %xmm4,%xmm5
   .byte  15,89,221                           // mulps         %xmm5,%xmm3
-  .byte  68,15,40,5,161,248,0,0              // movaps        0xf8a1(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,229,248,0,0              // movaps        0xf8e5(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,40,224                        // movaps        %xmm8,%xmm4
   .byte  68,15,92,199                        // subps         %xmm7,%xmm8
   .byte  15,88,253                           // addps         %xmm5,%xmm7
@@ -36588,14 +43714,14 @@
   .byte  68,15,40,213                        // movaps        %xmm5,%xmm10
   .byte  69,15,89,208                        // mulps         %xmm8,%xmm10
   .byte  65,15,40,208                        // movaps        %xmm8,%xmm2
-  .byte  68,15,40,45,175,247,0,0             // movaps        0xf7af(%rip),%xmm13        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,45,243,247,0,0             // movaps        0xf7f3(%rip),%xmm13        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,40,198                        // movaps        %xmm6,%xmm8
   .byte  69,15,89,197                        // mulps         %xmm13,%xmm8
-  .byte  68,15,40,53,175,247,0,0             // movaps        0xf7af(%rip),%xmm14        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  68,15,40,53,243,247,0,0             // movaps        0xf7f3(%rip),%xmm14        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  65,15,40,195                        // movaps        %xmm11,%xmm0
   .byte  65,15,89,198                        // mulps         %xmm14,%xmm0
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,40,29,171,247,0,0             // movaps        0xf7ab(%rip),%xmm11        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+  .byte  68,15,40,29,239,247,0,0             // movaps        0xf7ef(%rip),%xmm11        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
   .byte  69,15,89,227                        // mulps         %xmm11,%xmm12
   .byte  68,15,88,224                        // addps         %xmm0,%xmm12
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
@@ -36603,7 +43729,7 @@
   .byte  69,15,40,250                        // movaps        %xmm10,%xmm15
   .byte  69,15,89,254                        // mulps         %xmm14,%xmm15
   .byte  68,15,88,248                        // addps         %xmm0,%xmm15
-  .byte  68,15,40,5,231,246,0,0              // movaps        0xf6e7(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,43,247,0,0               // movaps        0xf72b(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,40,224                        // movaps        %xmm8,%xmm4
   .byte  15,92,226                           // subps         %xmm2,%xmm4
   .byte  15,89,252                           // mulps         %xmm4,%xmm7
@@ -36739,15 +43865,15 @@
   .byte  68,15,40,205                        // movaps        %xmm5,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
   .byte  15,89,222                           // mulps         %xmm6,%xmm3
-  .byte  68,15,40,37,110,245,0,0             // movaps        0xf56e(%rip),%xmm12        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,37,178,245,0,0             // movaps        0xf5b2(%rip),%xmm12        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,40,199                        // movaps        %xmm7,%xmm8
   .byte  69,15,89,196                        // mulps         %xmm12,%xmm8
-  .byte  68,15,40,45,110,245,0,0             // movaps        0xf56e(%rip),%xmm13        # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+  .byte  68,15,40,45,178,245,0,0             // movaps        0xf5b2(%rip),%xmm13        # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
   .byte  68,15,40,241                        // movaps        %xmm1,%xmm14
   .byte  69,15,89,245                        // mulps         %xmm13,%xmm14
   .byte  69,15,88,240                        // addps         %xmm8,%xmm14
-  .byte  68,15,40,29,106,245,0,0             // movaps        0xf56a(%rip),%xmm11        # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
-  .byte  68,15,40,5,194,244,0,0              // movaps        0xf4c2(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,29,174,245,0,0             // movaps        0xf5ae(%rip),%xmm11        # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+  .byte  68,15,40,5,6,245,0,0                // movaps        0xf506(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,248                        // movaps        %xmm8,%xmm15
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  68,15,92,248                        // subps         %xmm0,%xmm15
@@ -36888,10 +44014,10 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,228,0,0,0                    // jne           1c2b9 <_sk_srcover_rgba_8888_sse2+0x104>
+  .byte  15,133,228,0,0,0                    // jne           238f5 <_sk_srcover_rgba_8888_sse2+0x104>
   .byte  243,69,15,111,4,128                 // movdqu        (%r8,%rax,4),%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  102,15,111,53,90,243,0,0            // movdqa        0xf35a(%rip),%xmm6        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,53,158,243,0,0           // movdqa        0xf39e(%rip),%xmm6        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,224                   // movdqa        %xmm8,%xmm4
   .byte  102,15,219,230                      // pand          %xmm6,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
@@ -36905,9 +44031,9 @@
   .byte  15,91,247                           // cvtdq2ps      %xmm7,%xmm6
   .byte  102,65,15,114,208,24                // psrld         $0x18,%xmm8
   .byte  65,15,91,248                        // cvtdq2ps      %xmm8,%xmm7
-  .byte  68,15,40,5,106,242,0,0              // movaps        0xf26a(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,174,242,0,0              // movaps        0xf2ae(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,92,195                        // subps         %xmm3,%xmm8
-  .byte  68,15,40,37,62,243,0,0              // movaps        0xf33e(%rip),%xmm12        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,37,130,243,0,0             // movaps        0xf382(%rip),%xmm12        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,196                        // mulps         %xmm12,%xmm0
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,89,204                        // mulps         %xmm4,%xmm9
@@ -36933,7 +44059,7 @@
   .byte  102,15,114,240,24                   // pslld         $0x18,%xmm0
   .byte  102,15,235,194                      // por           %xmm2,%xmm0
   .byte  102,15,235,193                      // por           %xmm1,%xmm0
-  .byte  117,84                              // jne           1c2f3 <_sk_srcover_rgba_8888_sse2+0x13e>
+  .byte  117,84                              // jne           2392f <_sk_srcover_rgba_8888_sse2+0x13e>
   .byte  243,65,15,127,4,128                 // movdqu        %xmm0,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
@@ -36944,32 +44070,32 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,90                              // je            1c320 <_sk_srcover_rgba_8888_sse2+0x16b>
+  .byte  116,90                              // je            2395c <_sk_srcover_rgba_8888_sse2+0x16b>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            1c2e8 <_sk_srcover_rgba_8888_sse2+0x133>
+  .byte  116,23                              // je            23924 <_sk_srcover_rgba_8888_sse2+0x133>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,0,255,255,255                // jne           1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+  .byte  15,133,0,255,255,255                // jne           23817 <_sk_srcover_rgba_8888_sse2+0x26>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,69,15,18,4,128                  // movlpd        (%r8,%rax,4),%xmm8
-  .byte  233,232,254,255,255                 // jmpq          1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+  .byte  233,232,254,255,255                 // jmpq          23817 <_sk_srcover_rgba_8888_sse2+0x26>
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,43                              // je            1c32b <_sk_srcover_rgba_8888_sse2+0x176>
+  .byte  116,43                              // je            23967 <_sk_srcover_rgba_8888_sse2+0x176>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            1c318 <_sk_srcover_rgba_8888_sse2+0x163>
+  .byte  116,18                              // je            23954 <_sk_srcover_rgba_8888_sse2+0x163>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,153                             // jne           1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+  .byte  117,153                             // jne           238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,65,15,126,76,128,8              // movd          %xmm1,0x8(%r8,%rax,4)
   .byte  102,65,15,214,4,128                 // movq          %xmm0,(%r8,%rax,4)
-  .byte  235,133                             // jmp           1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+  .byte  235,133                             // jmp           238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
   .byte  102,69,15,110,4,128                 // movd          (%r8,%rax,4),%xmm8
-  .byte  233,176,254,255,255                 // jmpq          1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+  .byte  233,176,254,255,255                 // jmpq          23817 <_sk_srcover_rgba_8888_sse2+0x26>
   .byte  102,65,15,126,4,128                 // movd          %xmm0,(%r8,%rax,4)
-  .byte  233,111,255,255,255                 // jmpq          1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+  .byte  233,111,255,255,255                 // jmpq          238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
 
 HIDDEN _sk_clamp_0_sse2
 .globl _sk_clamp_0_sse2
@@ -36987,7 +44113,7 @@
 .globl _sk_clamp_1_sse2
 FUNCTION(_sk_clamp_1_sse2)
 _sk_clamp_1_sse2:
-  .byte  68,15,40,5,58,241,0,0               // movaps        0xf13a(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,126,241,0,0              // movaps        0xf17e(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,93,192                        // minps         %xmm8,%xmm0
   .byte  65,15,93,200                        // minps         %xmm8,%xmm1
   .byte  65,15,93,208                        // minps         %xmm8,%xmm2
@@ -36999,7 +44125,7 @@
 .globl _sk_clamp_a_sse2
 FUNCTION(_sk_clamp_a_sse2)
 _sk_clamp_a_sse2:
-  .byte  15,93,29,31,241,0,0                 // minps         0xf11f(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,29,99,241,0,0                 // minps         0xf163(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,93,195                           // minps         %xmm3,%xmm0
   .byte  15,93,203                           // minps         %xmm3,%xmm1
   .byte  15,93,211                           // minps         %xmm3,%xmm2
@@ -37010,7 +44136,7 @@
 .globl _sk_clamp_a_dst_sse2
 FUNCTION(_sk_clamp_a_dst_sse2)
 _sk_clamp_a_dst_sse2:
-  .byte  15,93,61,11,241,0,0                 // minps         0xf10b(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,93,61,79,241,0,0                 // minps         0xf14f(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,93,231                           // minps         %xmm7,%xmm4
   .byte  15,93,239                           // minps         %xmm7,%xmm5
   .byte  15,93,247                           // minps         %xmm7,%xmm6
@@ -37045,7 +44171,7 @@
 .globl _sk_invert_sse2
 FUNCTION(_sk_invert_sse2)
 _sk_invert_sse2:
-  .byte  68,15,40,5,199,240,0,0              // movaps        0xf0c7(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,5,11,241,0,0               // movaps        0xf10b(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  68,15,92,200                        // subps         %xmm0,%xmm9
   .byte  69,15,40,208                        // movaps        %xmm8,%xmm10
@@ -37107,7 +44233,7 @@
 FUNCTION(_sk_unpremul_sse2)
 _sk_unpremul_sse2:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
-  .byte  68,15,40,13,81,240,0,0              // movaps        0xf051(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,149,240,0,0             // movaps        0xf095(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,94,203                        // divps         %xmm3,%xmm9
   .byte  68,15,194,195,4                     // cmpneqps      %xmm3,%xmm8
   .byte  69,15,84,193                        // andps         %xmm9,%xmm8
@@ -37121,20 +44247,20 @@
 .globl _sk_from_srgb_sse2
 FUNCTION(_sk_from_srgb_sse2)
 _sk_from_srgb_sse2:
-  .byte  68,15,40,5,28,241,0,0               // movaps        0xf11c(%rip),%xmm8        # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+  .byte  68,15,40,5,96,241,0,0               // movaps        0xf160(%rip),%xmm8        # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
   .byte  68,15,40,232                        // movaps        %xmm0,%xmm13
   .byte  69,15,89,232                        // mulps         %xmm8,%xmm13
   .byte  68,15,40,216                        // movaps        %xmm0,%xmm11
   .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
-  .byte  68,15,40,13,148,240,0,0             // movaps        0xf094(%rip),%xmm9        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,13,216,240,0,0             // movaps        0xf0d8(%rip),%xmm9        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
   .byte  69,15,89,241                        // mulps         %xmm9,%xmm14
-  .byte  68,15,40,21,4,241,0,0               // movaps        0xf104(%rip),%xmm10        # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+  .byte  68,15,40,21,72,241,0,0              // movaps        0xf148(%rip),%xmm10        # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
   .byte  69,15,88,242                        // addps         %xmm10,%xmm14
   .byte  69,15,89,243                        // mulps         %xmm11,%xmm14
-  .byte  68,15,40,29,4,241,0,0               // movaps        0xf104(%rip),%xmm11        # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+  .byte  68,15,40,29,72,241,0,0              // movaps        0xf148(%rip),%xmm11        # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
   .byte  69,15,88,243                        // addps         %xmm11,%xmm14
-  .byte  68,15,40,37,8,241,0,0               // movaps        0xf108(%rip),%xmm12        # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+  .byte  68,15,40,37,76,241,0,0              // movaps        0xf14c(%rip),%xmm12        # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
   .byte  65,15,194,196,1                     // cmpltps       %xmm12,%xmm0
   .byte  68,15,84,232                        // andps         %xmm0,%xmm13
   .byte  65,15,85,198                        // andnps        %xmm14,%xmm0
@@ -37170,20 +44296,20 @@
 .globl _sk_from_srgb_dst_sse2
 FUNCTION(_sk_from_srgb_dst_sse2)
 _sk_from_srgb_dst_sse2:
-  .byte  68,15,40,5,89,240,0,0               // movaps        0xf059(%rip),%xmm8        # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+  .byte  68,15,40,5,157,240,0,0              // movaps        0xf09d(%rip),%xmm8        # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
   .byte  68,15,40,236                        // movaps        %xmm4,%xmm13
   .byte  69,15,89,232                        // mulps         %xmm8,%xmm13
   .byte  68,15,40,220                        // movaps        %xmm4,%xmm11
   .byte  69,15,89,219                        // mulps         %xmm11,%xmm11
-  .byte  68,15,40,13,209,239,0,0             // movaps        0xefd1(%rip),%xmm9        # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+  .byte  68,15,40,13,21,240,0,0              // movaps        0xf015(%rip),%xmm9        # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
   .byte  68,15,40,244                        // movaps        %xmm4,%xmm14
   .byte  69,15,89,241                        // mulps         %xmm9,%xmm14
-  .byte  68,15,40,21,65,240,0,0              // movaps        0xf041(%rip),%xmm10        # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+  .byte  68,15,40,21,133,240,0,0             // movaps        0xf085(%rip),%xmm10        # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
   .byte  69,15,88,242                        // addps         %xmm10,%xmm14
   .byte  69,15,89,243                        // mulps         %xmm11,%xmm14
-  .byte  68,15,40,29,65,240,0,0              // movaps        0xf041(%rip),%xmm11        # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+  .byte  68,15,40,29,133,240,0,0             // movaps        0xf085(%rip),%xmm11        # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
   .byte  69,15,88,243                        // addps         %xmm11,%xmm14
-  .byte  68,15,40,37,69,240,0,0              // movaps        0xf045(%rip),%xmm12        # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+  .byte  68,15,40,37,137,240,0,0             // movaps        0xf089(%rip),%xmm12        # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
   .byte  65,15,194,228,1                     // cmpltps       %xmm12,%xmm4
   .byte  68,15,84,236                        // andps         %xmm4,%xmm13
   .byte  65,15,85,230                        // andnps        %xmm14,%xmm4
@@ -37220,22 +44346,22 @@
 FUNCTION(_sk_to_srgb_sse2)
 _sk_to_srgb_sse2:
   .byte  68,15,82,232                        // rsqrtps       %xmm0,%xmm13
-  .byte  68,15,40,5,210,239,0,0              // movaps        0xefd2(%rip),%xmm8        # 2b5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+  .byte  68,15,40,5,22,240,0,0               // movaps        0xf016(%rip),%xmm8        # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
   .byte  68,15,40,240                        // movaps        %xmm0,%xmm14
   .byte  69,15,89,240                        // mulps         %xmm8,%xmm14
-  .byte  68,15,40,13,210,239,0,0             // movaps        0xefd2(%rip),%xmm9        # 2b5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+  .byte  68,15,40,13,22,240,0,0              // movaps        0xf016(%rip),%xmm9        # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
   .byte  69,15,40,253                        // movaps        %xmm13,%xmm15
   .byte  69,15,89,249                        // mulps         %xmm9,%xmm15
-  .byte  68,15,40,21,210,239,0,0             // movaps        0xefd2(%rip),%xmm10        # 2b5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+  .byte  68,15,40,21,22,240,0,0              // movaps        0xf016(%rip),%xmm10        # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
   .byte  69,15,88,250                        // addps         %xmm10,%xmm15
   .byte  69,15,89,253                        // mulps         %xmm13,%xmm15
-  .byte  68,15,40,29,210,239,0,0             // movaps        0xefd2(%rip),%xmm11        # 2b5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+  .byte  68,15,40,29,22,240,0,0              // movaps        0xf016(%rip),%xmm11        # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
   .byte  69,15,88,251                        // addps         %xmm11,%xmm15
-  .byte  68,15,40,37,214,239,0,0             // movaps        0xefd6(%rip),%xmm12        # 2b600 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+  .byte  68,15,40,37,26,240,0,0              // movaps        0xf01a(%rip),%xmm12        # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
   .byte  69,15,88,236                        // addps         %xmm12,%xmm13
   .byte  69,15,83,237                        // rcpps         %xmm13,%xmm13
   .byte  69,15,89,239                        // mulps         %xmm15,%xmm13
-  .byte  68,15,40,61,210,239,0,0             // movaps        0xefd2(%rip),%xmm15        # 2b610 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+  .byte  68,15,40,61,22,240,0,0              // movaps        0xf016(%rip),%xmm15        # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
   .byte  65,15,194,199,1                     // cmpltps       %xmm15,%xmm0
   .byte  68,15,84,240                        // andps         %xmm0,%xmm14
   .byte  65,15,85,197                        // andnps        %xmm13,%xmm0
@@ -37287,7 +44413,7 @@
   .byte  68,15,93,216                        // minps         %xmm0,%xmm11
   .byte  65,15,40,202                        // movaps        %xmm10,%xmm1
   .byte  65,15,92,203                        // subps         %xmm11,%xmm1
-  .byte  68,15,40,45,149,237,0,0             // movaps        0xed95(%rip),%xmm13        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,45,217,237,0,0             // movaps        0xedd9(%rip),%xmm13        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  68,15,94,233                        // divps         %xmm1,%xmm13
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,194,192,0                     // cmpeqps       %xmm8,%xmm0
@@ -37296,30 +44422,30 @@
   .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,40,241                        // movaps        %xmm9,%xmm14
   .byte  68,15,194,242,1                     // cmpltps       %xmm2,%xmm14
-  .byte  68,15,84,53,251,238,0,0             // andps         0xeefb(%rip),%xmm14        # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+  .byte  68,15,84,53,63,239,0,0              // andps         0xef3f(%rip),%xmm14        # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
   .byte  69,15,88,244                        // addps         %xmm12,%xmm14
   .byte  69,15,40,250                        // movaps        %xmm10,%xmm15
   .byte  69,15,194,249,0                     // cmpeqps       %xmm9,%xmm15
   .byte  65,15,92,208                        // subps         %xmm8,%xmm2
   .byte  65,15,89,213                        // mulps         %xmm13,%xmm2
-  .byte  68,15,40,37,238,238,0,0             // movaps        0xeeee(%rip),%xmm12        # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+  .byte  68,15,40,37,50,239,0,0              // movaps        0xef32(%rip),%xmm12        # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
   .byte  65,15,88,212                        // addps         %xmm12,%xmm2
   .byte  69,15,92,193                        // subps         %xmm9,%xmm8
   .byte  69,15,89,197                        // mulps         %xmm13,%xmm8
-  .byte  68,15,88,5,234,238,0,0              // addps         0xeeea(%rip),%xmm8        # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+  .byte  68,15,88,5,46,239,0,0               // addps         0xef2e(%rip),%xmm8        # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
   .byte  65,15,84,215                        // andps         %xmm15,%xmm2
   .byte  69,15,85,248                        // andnps        %xmm8,%xmm15
   .byte  68,15,86,250                        // orps          %xmm2,%xmm15
   .byte  68,15,84,240                        // andps         %xmm0,%xmm14
   .byte  65,15,85,199                        // andnps        %xmm15,%xmm0
   .byte  65,15,86,198                        // orps          %xmm14,%xmm0
-  .byte  15,89,5,219,238,0,0                 // mulps         0xeedb(%rip),%xmm0        # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+  .byte  15,89,5,31,239,0,0                  // mulps         0xef1f(%rip),%xmm0        # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
   .byte  69,15,40,194                        // movaps        %xmm10,%xmm8
   .byte  69,15,194,195,4                     // cmpneqps      %xmm11,%xmm8
   .byte  65,15,84,192                        // andps         %xmm8,%xmm0
   .byte  69,15,92,226                        // subps         %xmm10,%xmm12
   .byte  69,15,88,211                        // addps         %xmm11,%xmm10
-  .byte  68,15,40,13,238,236,0,0             // movaps        0xecee(%rip),%xmm9        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,13,50,237,0,0              // movaps        0xed32(%rip),%xmm9        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,40,210                        // movaps        %xmm10,%xmm2
   .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
   .byte  68,15,194,202,1                     // cmpltps       %xmm2,%xmm9
@@ -37343,7 +44469,7 @@
   .byte  15,41,92,36,168                     // movaps        %xmm3,-0x58(%rsp)
   .byte  68,15,40,218                        // movaps        %xmm2,%xmm11
   .byte  15,40,240                           // movaps        %xmm0,%xmm6
-  .byte  68,15,40,13,157,236,0,0             // movaps        0xec9d(%rip),%xmm9        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,13,225,236,0,0             // movaps        0xece1(%rip),%xmm9        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,40,209                        // movaps        %xmm9,%xmm10
   .byte  69,15,194,211,2                     // cmpleps       %xmm11,%xmm10
   .byte  15,40,193                           // movaps        %xmm1,%xmm0
@@ -37360,28 +44486,28 @@
   .byte  69,15,88,211                        // addps         %xmm11,%xmm10
   .byte  69,15,88,219                        // addps         %xmm11,%xmm11
   .byte  69,15,92,218                        // subps         %xmm10,%xmm11
-  .byte  15,40,5,54,238,0,0                  // movaps        0xee36(%rip),%xmm0        # 2b660 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+  .byte  15,40,5,122,238,0,0                 // movaps        0xee7a(%rip),%xmm0        # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
   .byte  15,88,198                           // addps         %xmm6,%xmm0
   .byte  243,15,91,200                       // cvttps2dq     %xmm0,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
   .byte  15,40,216                           // movaps        %xmm0,%xmm3
   .byte  15,194,217,1                        // cmpltps       %xmm1,%xmm3
-  .byte  15,84,29,78,236,0,0                 // andps         0xec4e(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,84,29,146,236,0,0                // andps         0xec92(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,203                           // subps         %xmm3,%xmm1
   .byte  15,92,193                           // subps         %xmm1,%xmm0
-  .byte  68,15,40,45,32,238,0,0              // movaps        0xee20(%rip),%xmm13        # 2b670 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+  .byte  68,15,40,45,100,238,0,0             // movaps        0xee64(%rip),%xmm13        # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
   .byte  69,15,40,197                        // movaps        %xmm13,%xmm8
   .byte  68,15,194,192,2                     // cmpleps       %xmm0,%xmm8
   .byte  69,15,40,242                        // movaps        %xmm10,%xmm14
   .byte  69,15,92,243                        // subps         %xmm11,%xmm14
   .byte  65,15,40,217                        // movaps        %xmm9,%xmm3
   .byte  15,194,216,2                        // cmpleps       %xmm0,%xmm3
-  .byte  15,40,21,224,237,0,0                // movaps        0xede0(%rip),%xmm2        # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+  .byte  15,40,21,36,238,0,0                 // movaps        0xee24(%rip),%xmm2        # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
   .byte  68,15,40,250                        // movaps        %xmm2,%xmm15
   .byte  68,15,194,248,2                     // cmpleps       %xmm0,%xmm15
-  .byte  15,40,13,160,237,0,0                // movaps        0xeda0(%rip),%xmm1        # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+  .byte  15,40,13,228,237,0,0                // movaps        0xede4(%rip),%xmm1        # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
   .byte  15,89,193                           // mulps         %xmm1,%xmm0
-  .byte  15,40,45,182,237,0,0                // movaps        0xedb6(%rip),%xmm5        # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+  .byte  15,40,45,250,237,0,0                // movaps        0xedfa(%rip),%xmm5        # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
   .byte  15,40,229                           // movaps        %xmm5,%xmm4
   .byte  15,92,224                           // subps         %xmm0,%xmm4
   .byte  65,15,89,230                        // mulps         %xmm14,%xmm4
@@ -37404,7 +44530,7 @@
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
   .byte  15,40,222                           // movaps        %xmm6,%xmm3
   .byte  15,194,216,1                        // cmpltps       %xmm0,%xmm3
-  .byte  15,84,29,171,235,0,0                // andps         0xebab(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,84,29,239,235,0,0                // andps         0xebef(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,195                           // subps         %xmm3,%xmm0
   .byte  68,15,40,230                        // movaps        %xmm6,%xmm12
   .byte  68,15,92,224                        // subps         %xmm0,%xmm12
@@ -37434,12 +44560,12 @@
   .byte  15,40,124,36,136                    // movaps        -0x78(%rsp),%xmm7
   .byte  15,40,231                           // movaps        %xmm7,%xmm4
   .byte  15,85,227                           // andnps        %xmm3,%xmm4
-  .byte  15,88,53,35,237,0,0                 // addps         0xed23(%rip),%xmm6        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  15,88,53,103,237,0,0                // addps         0xed67(%rip),%xmm6        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  243,15,91,198                       // cvttps2dq     %xmm6,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
   .byte  15,40,222                           // movaps        %xmm6,%xmm3
   .byte  15,194,216,1                        // cmpltps       %xmm0,%xmm3
-  .byte  15,84,29,30,235,0,0                 // andps         0xeb1e(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,84,29,98,235,0,0                 // andps         0xeb62(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,92,195                           // subps         %xmm3,%xmm0
   .byte  15,92,240                           // subps         %xmm0,%xmm6
   .byte  15,89,206                           // mulps         %xmm6,%xmm1
@@ -37503,13 +44629,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,61                              // jne           1ca73 <_sk_scale_u8_sse2+0x55>
+  .byte  117,61                              // jne           240af <_sk_scale_u8_sse2+0x55>
   .byte  102,71,15,110,4,16                  // movd          (%r8,%r10,1),%xmm8
   .byte  102,68,15,96,192                    // punpcklbw     %xmm0,%xmm8
   .byte  102,68,15,97,192                    // punpcklwd     %xmm0,%xmm8
-  .byte  102,68,15,219,5,241,234,0,0         // pand          0xeaf1(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,219,5,53,235,0,0          // pand          0xeb35(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,53,236,0,0               // mulps         0xec35(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,89,5,121,236,0,0              // mulps         0xec79(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
@@ -37520,12 +44646,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,61                              // je            1cabd <_sk_scale_u8_sse2+0x9f>
+  .byte  116,61                              // je            240f9 <_sk_scale_u8_sse2+0x9f>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            1caa2 <_sk_scale_u8_sse2+0x84>
+  .byte  116,23                              // je            240de <_sk_scale_u8_sse2+0x84>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,181                             // jne           1ca46 <_sk_scale_u8_sse2+0x28>
+  .byte  117,181                             // jne           24082 <_sk_scale_u8_sse2+0x28>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,192,69                // pshufd        $0x45,%xmm8,%xmm8
@@ -37534,10 +44660,10 @@
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  102,68,15,97,200                    // punpcklwd     %xmm0,%xmm9
   .byte  242,69,15,16,193                    // movsd         %xmm9,%xmm8
-  .byte  235,137                             // jmp           1ca46 <_sk_scale_u8_sse2+0x28>
+  .byte  235,137                             // jmp           24082 <_sk_scale_u8_sse2+0x28>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  233,122,255,255,255                 // jmpq          1ca46 <_sk_scale_u8_sse2+0x28>
+  .byte  233,122,255,255,255                 // jmpq          24082 <_sk_scale_u8_sse2+0x28>
 
 HIDDEN _sk_scale_565_sse2
 .globl _sk_scale_565_sse2
@@ -37551,20 +44677,20 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,173,0,0,0                    // jne           1cb98 <_sk_scale_565_sse2+0xcc>
+  .byte  15,133,173,0,0,0                    // jne           241d4 <_sk_scale_565_sse2+0xcc>
   .byte  243,71,15,126,20,80                 // movq          (%r8,%r10,2),%xmm10
   .byte  102,68,15,97,208                    // punpcklwd     %xmm0,%xmm10
-  .byte  102,68,15,111,5,161,235,0,0         // movdqa        0xeba1(%rip),%xmm8        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,68,15,111,5,229,235,0,0         // movdqa        0xebe5(%rip),%xmm8        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,69,15,219,194                   // pand          %xmm10,%xmm8
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,160,235,0,0              // mulps         0xeba0(%rip),%xmm8        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,68,15,111,13,167,235,0,0        // movdqa        0xeba7(%rip),%xmm9        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  68,15,89,5,228,235,0,0              // mulps         0xebe4(%rip),%xmm8        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,68,15,111,13,235,235,0,0        // movdqa        0xebeb(%rip),%xmm9        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,69,15,219,202                   // pand          %xmm10,%xmm9
   .byte  69,15,91,201                        // cvtdq2ps      %xmm9,%xmm9
-  .byte  68,15,89,13,166,235,0,0             // mulps         0xeba6(%rip),%xmm9        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,68,15,219,21,173,235,0,0        // pand          0xebad(%rip),%xmm10        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  68,15,89,13,234,235,0,0             // mulps         0xebea(%rip),%xmm9        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,68,15,219,21,241,235,0,0        // pand          0xebf1(%rip),%xmm10        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
-  .byte  68,15,89,21,177,235,0,0             // mulps         0xebb1(%rip),%xmm10        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  68,15,89,21,245,235,0,0             // mulps         0xebf5(%rip),%xmm10        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  68,15,40,219                        // movaps        %xmm3,%xmm11
   .byte  68,15,194,223,1                     // cmpltps       %xmm7,%xmm11
   .byte  69,15,40,225                        // movaps        %xmm9,%xmm12
@@ -37591,22 +44717,22 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,60                              // je            1cbe1 <_sk_scale_565_sse2+0x115>
+  .byte  116,60                              // je            2421d <_sk_scale_565_sse2+0x115>
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,27                              // je            1cbcb <_sk_scale_565_sse2+0xff>
+  .byte  116,27                              // je            24207 <_sk_scale_565_sse2+0xff>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,60,255,255,255               // jne           1caf6 <_sk_scale_565_sse2+0x2a>
+  .byte  15,133,60,255,255,255               // jne           24132 <_sk_scale_565_sse2+0x2a>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,208,69                // pshufd        $0x45,%xmm8,%xmm10
   .byte  102,71,15,110,4,80                  // movd          (%r8,%r10,2),%xmm8
   .byte  242,69,15,112,192,212               // pshuflw       $0xd4,%xmm8,%xmm8
   .byte  242,69,15,16,208                    // movsd         %xmm8,%xmm10
-  .byte  233,21,255,255,255                  // jmpq          1caf6 <_sk_scale_565_sse2+0x2a>
+  .byte  233,21,255,255,255                  // jmpq          24132 <_sk_scale_565_sse2+0x2a>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,68,15,110,208                   // movd          %eax,%xmm10
-  .byte  233,6,255,255,255                   // jmpq          1caf6 <_sk_scale_565_sse2+0x2a>
+  .byte  233,6,255,255,255                   // jmpq          24132 <_sk_scale_565_sse2+0x2a>
 
 HIDDEN _sk_lerp_1_float_sse2
 .globl _sk_lerp_1_float_sse2
@@ -37641,13 +44767,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,81                              // jne           1cc91 <_sk_lerp_u8_sse2+0x69>
+  .byte  117,81                              // jne           242cd <_sk_lerp_u8_sse2+0x69>
   .byte  102,71,15,110,4,16                  // movd          (%r8,%r10,1),%xmm8
   .byte  102,68,15,96,192                    // punpcklbw     %xmm0,%xmm8
   .byte  102,68,15,97,192                    // punpcklwd     %xmm0,%xmm8
-  .byte  102,68,15,219,5,231,232,0,0         // pand          0xe8e7(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,219,5,43,233,0,0          // pand          0xe92b(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,43,234,0,0               // mulps         0xea2b(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,89,5,111,234,0,0              // mulps         0xea6f(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  15,92,196                           // subps         %xmm4,%xmm0
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  15,88,196                           // addps         %xmm4,%xmm0
@@ -37665,12 +44791,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,64                              // je            1ccde <_sk_lerp_u8_sse2+0xb6>
+  .byte  116,64                              // je            2431a <_sk_lerp_u8_sse2+0xb6>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            1ccc0 <_sk_lerp_u8_sse2+0x98>
+  .byte  116,23                              // je            242fc <_sk_lerp_u8_sse2+0x98>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,161                             // jne           1cc50 <_sk_lerp_u8_sse2+0x28>
+  .byte  117,161                             // jne           2428c <_sk_lerp_u8_sse2+0x28>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,192,69                // pshufd        $0x45,%xmm8,%xmm8
@@ -37679,10 +44805,10 @@
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  102,68,15,97,200                    // punpcklwd     %xmm0,%xmm9
   .byte  242,69,15,16,193                    // movsd         %xmm9,%xmm8
-  .byte  233,114,255,255,255                 // jmpq          1cc50 <_sk_lerp_u8_sse2+0x28>
+  .byte  233,114,255,255,255                 // jmpq          2428c <_sk_lerp_u8_sse2+0x28>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  233,99,255,255,255                  // jmpq          1cc50 <_sk_lerp_u8_sse2+0x28>
+  .byte  233,99,255,255,255                  // jmpq          2428c <_sk_lerp_u8_sse2+0x28>
 
 HIDDEN _sk_lerp_565_sse2
 .globl _sk_lerp_565_sse2
@@ -37696,20 +44822,20 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,173,0,0,0                    // jne           1cdb9 <_sk_lerp_565_sse2+0xcc>
+  .byte  15,133,173,0,0,0                    // jne           243f5 <_sk_lerp_565_sse2+0xcc>
   .byte  243,71,15,126,4,80                  // movq          (%r8,%r10,2),%xmm8
   .byte  102,68,15,97,192                    // punpcklwd     %xmm0,%xmm8
-  .byte  102,68,15,111,13,128,233,0,0        // movdqa        0xe980(%rip),%xmm9        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,68,15,111,13,196,233,0,0        // movdqa        0xe9c4(%rip),%xmm9        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,69,15,219,200                   // pand          %xmm8,%xmm9
   .byte  69,15,91,201                        // cvtdq2ps      %xmm9,%xmm9
-  .byte  68,15,89,13,127,233,0,0             // mulps         0xe97f(%rip),%xmm9        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,68,15,111,21,134,233,0,0        // movdqa        0xe986(%rip),%xmm10        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  68,15,89,13,195,233,0,0             // mulps         0xe9c3(%rip),%xmm9        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,68,15,111,21,202,233,0,0        // movdqa        0xe9ca(%rip),%xmm10        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,69,15,219,208                   // pand          %xmm8,%xmm10
   .byte  69,15,91,218                        // cvtdq2ps      %xmm10,%xmm11
-  .byte  68,15,89,29,133,233,0,0             // mulps         0xe985(%rip),%xmm11        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,68,15,219,5,140,233,0,0         // pand          0xe98c(%rip),%xmm8        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  68,15,89,29,201,233,0,0             // mulps         0xe9c9(%rip),%xmm11        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,68,15,219,5,208,233,0,0         // pand          0xe9d0(%rip),%xmm8        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
-  .byte  68,15,89,5,144,233,0,0              // mulps         0xe990(%rip),%xmm8        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  68,15,89,5,212,233,0,0              // mulps         0xe9d4(%rip),%xmm8        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  68,15,40,211                        // movaps        %xmm3,%xmm10
   .byte  68,15,194,215,1                     // cmpltps       %xmm7,%xmm10
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
@@ -37738,22 +44864,22 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,60                              // je            1ce02 <_sk_lerp_565_sse2+0x115>
+  .byte  116,60                              // je            2443e <_sk_lerp_565_sse2+0x115>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,27                              // je            1cdec <_sk_lerp_565_sse2+0xff>
+  .byte  116,27                              // je            24428 <_sk_lerp_565_sse2+0xff>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,60,255,255,255               // jne           1cd17 <_sk_lerp_565_sse2+0x2a>
+  .byte  15,133,60,255,255,255               // jne           24353 <_sk_lerp_565_sse2+0x2a>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,112,192,69                // pshufd        $0x45,%xmm8,%xmm8
   .byte  102,71,15,110,12,80                 // movd          (%r8,%r10,2),%xmm9
   .byte  242,69,15,112,201,212               // pshuflw       $0xd4,%xmm9,%xmm9
   .byte  242,69,15,16,193                    // movsd         %xmm9,%xmm8
-  .byte  233,21,255,255,255                  // jmpq          1cd17 <_sk_lerp_565_sse2+0x2a>
+  .byte  233,21,255,255,255                  // jmpq          24353 <_sk_lerp_565_sse2+0x2a>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  233,6,255,255,255                   // jmpq          1cd17 <_sk_lerp_565_sse2+0x2a>
+  .byte  233,6,255,255,255                   // jmpq          24353 <_sk_lerp_565_sse2+0x2a>
 
 HIDDEN _sk_load_tables_sse2
 .globl _sk_load_tables_sse2
@@ -37762,11 +44888,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,34,1,0,0                     // jne           1cf41 <_sk_load_tables_sse2+0x130>
+  .byte  15,133,34,1,0,0                     // jne           2457d <_sk_load_tables_sse2+0x130>
   .byte  243,69,15,111,12,144                // movdqu        (%r8,%rdx,4),%xmm9
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
-  .byte  102,68,15,111,5,15,231,0,0          // movdqa        0xe70f(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,111,5,83,231,0,0          // movdqa        0xe753(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
@@ -37822,7 +44948,7 @@
   .byte  102,15,20,211                       // unpcklpd      %xmm3,%xmm2
   .byte  102,65,15,114,209,24                // psrld         $0x18,%xmm9
   .byte  65,15,91,217                        // cvtdq2ps      %xmm9,%xmm3
-  .byte  15,89,29,86,231,0,0                 // mulps         0xe756(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,154,231,0,0                // mulps         0xe79a(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
@@ -37830,18 +44956,18 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,45                              // je            1cf7b <_sk_load_tables_sse2+0x16a>
+  .byte  116,45                              // je            245b7 <_sk_load_tables_sse2+0x16a>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,23                              // je            1cf70 <_sk_load_tables_sse2+0x15f>
+  .byte  116,23                              // je            245ac <_sk_load_tables_sse2+0x15f>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  15,133,194,254,255,255              // jne           1ce25 <_sk_load_tables_sse2+0x14>
+  .byte  15,133,194,254,255,255              // jne           24461 <_sk_load_tables_sse2+0x14>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,200,69                // pshufd        $0x45,%xmm0,%xmm9
   .byte  102,69,15,18,12,144                 // movlpd        (%r8,%rdx,4),%xmm9
-  .byte  233,170,254,255,255                 // jmpq          1ce25 <_sk_load_tables_sse2+0x14>
+  .byte  233,170,254,255,255                 // jmpq          24461 <_sk_load_tables_sse2+0x14>
   .byte  102,69,15,110,12,144                // movd          (%r8,%rdx,4),%xmm9
-  .byte  233,159,254,255,255                 // jmpq          1ce25 <_sk_load_tables_sse2+0x14>
+  .byte  233,159,254,255,255                 // jmpq          24461 <_sk_load_tables_sse2+0x14>
 
 HIDDEN _sk_load_tables_u16_be_sse2
 .globl _sk_load_tables_u16_be_sse2
@@ -37851,7 +44977,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,149,0,0,0,0               // lea           0x0(,%rdx,4),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,93,1,0,0                     // jne           1d0f9 <_sk_load_tables_u16_be_sse2+0x173>
+  .byte  15,133,93,1,0,0                     // jne           24735 <_sk_load_tables_u16_be_sse2+0x173>
   .byte  102,67,15,16,4,72                   // movupd        (%r8,%r9,2),%xmm0
   .byte  243,67,15,111,76,72,16              // movdqu        0x10(%r8,%r9,2),%xmm1
   .byte  65,86                               // push          %r14
@@ -37862,7 +44988,7 @@
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  102,68,15,105,200                   // punpckhwd     %xmm0,%xmm9
-  .byte  102,15,111,21,48,231,0,0            // movdqa        0xe730(%rip),%xmm2        # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+  .byte  102,15,111,21,116,231,0,0           // movdqa        0xe774(%rip),%xmm2        # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
   .byte  102,15,112,217,238                  // pshufd        $0xee,%xmm1,%xmm3
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
@@ -37923,23 +45049,23 @@
   .byte  102,65,15,235,217                   // por           %xmm9,%xmm3
   .byte  102,65,15,97,216                    // punpcklwd     %xmm8,%xmm3
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,46,230,0,0                 // mulps         0xe62e(%rip),%xmm3        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  15,89,29,114,230,0,0                // mulps         0xe672(%rip),%xmm3        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
   .byte  255,224                             // jmpq          *%rax
   .byte  242,67,15,16,4,72                   // movsd         (%r8,%r9,2),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1d112 <_sk_load_tables_u16_be_sse2+0x18c>
+  .byte  117,13                              // jne           2474e <_sk_load_tables_u16_be_sse2+0x18c>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,151,254,255,255                 // jmpq          1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+  .byte  233,151,254,255,255                 // jmpq          245e5 <_sk_load_tables_u16_be_sse2+0x23>
   .byte  102,67,15,22,68,72,8                // movhpd        0x8(%r8,%r9,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,130,254,255,255              // jb            1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+  .byte  15,130,130,254,255,255              // jb            245e5 <_sk_load_tables_u16_be_sse2+0x23>
   .byte  243,67,15,126,76,72,16              // movq          0x10(%r8,%r9,2),%xmm1
-  .byte  233,118,254,255,255                 // jmpq          1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+  .byte  233,118,254,255,255                 // jmpq          245e5 <_sk_load_tables_u16_be_sse2+0x23>
 
 HIDDEN _sk_load_tables_rgb_u16_be_sse2
 .globl _sk_load_tables_rgb_u16_be_sse2
@@ -37949,7 +45075,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  76,141,12,82                        // lea           (%rdx,%rdx,2),%r9
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,81,1,0,0                     // jne           1d296 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+  .byte  15,133,81,1,0,0                     // jne           248d2 <_sk_load_tables_rgb_u16_be_sse2+0x163>
   .byte  243,67,15,111,20,72                 // movdqu        (%r8,%r9,2),%xmm2
   .byte  243,67,15,111,76,72,8               // movdqu        0x8(%r8,%r9,2),%xmm1
   .byte  102,15,115,217,4                    // psrldq        $0x4,%xmm1
@@ -37964,7 +45090,7 @@
   .byte  102,15,111,194                      // movdqa        %xmm2,%xmm0
   .byte  102,65,15,97,194                    // punpcklwd     %xmm10,%xmm0
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
-  .byte  102,68,15,111,5,114,229,0,0         // movdqa        0xe572(%rip),%xmm8        # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+  .byte  102,68,15,111,5,182,229,0,0         // movdqa        0xe5b6(%rip),%xmm8        # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
   .byte  102,65,15,219,192                   // pand          %xmm8,%xmm0
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
@@ -38019,7 +45145,7 @@
   .byte  65,15,20,216                        // unpcklps      %xmm8,%xmm3
   .byte  102,15,20,211                       // unpcklpd      %xmm3,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,255,225,0,0                // movaps        0xe1ff(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,67,226,0,0                 // movaps        0xe243(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  91                                  // pop           %rbx
   .byte  65,94                               // pop           %r14
   .byte  255,224                             // jmpq          *%rax
@@ -38027,21 +45153,21 @@
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,67,15,196,84,72,4,2             // pinsrw        $0x2,0x4(%r8,%r9,2),%xmm2
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,14                              // jne           1d2bc <_sk_load_tables_rgb_u16_be_sse2+0x189>
+  .byte  117,14                              // jne           248f8 <_sk_load_tables_rgb_u16_be_sse2+0x189>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
-  .byte  233,175,254,255,255                 // jmpq          1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+  .byte  233,175,254,255,255                 // jmpq          247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
   .byte  102,71,15,110,84,72,6               // movd          0x6(%r8,%r9,2),%xmm10
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,71,15,196,84,72,10,2            // pinsrw        $0x2,0xa(%r8,%r9,2),%xmm10
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,24                              // jb            1d2ed <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+  .byte  114,24                              // jb            24929 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
   .byte  102,67,15,110,76,72,12              // movd          0xc(%r8,%r9,2),%xmm1
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,67,15,196,76,72,16,2            // pinsrw        $0x2,0x10(%r8,%r9,2),%xmm1
-  .byte  233,126,254,255,255                 // jmpq          1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+  .byte  233,126,254,255,255                 // jmpq          247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,117,254,255,255                 // jmpq          1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+  .byte  233,117,254,255,255                 // jmpq          247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
 
 HIDDEN _sk_byte_tables_sse2
 .globl _sk_byte_tables_sse2
@@ -38051,7 +45177,7 @@
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,108,226,0,0              // movaps        0xe26c(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,176,226,0,0              // movaps        0xe2b0(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,91,192                       // cvtps2dq      %xmm0,%xmm0
   .byte  102,73,15,126,192                   // movq          %xmm0,%r8
@@ -38079,7 +45205,7 @@
   .byte  102,65,15,96,193                    // punpcklbw     %xmm9,%xmm0
   .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,21,23,227,0,0              // movaps        0xe317(%rip),%xmm10        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,21,91,227,0,0              // movaps        0xe35b(%rip),%xmm10        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -38198,7 +45324,7 @@
   .byte  102,65,15,96,193                    // punpcklbw     %xmm9,%xmm0
   .byte  102,65,15,97,193                    // punpcklwd     %xmm9,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,21,87,225,0,0              // movaps        0xe157(%rip),%xmm10        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,21,155,225,0,0             // movaps        0xe19b(%rip),%xmm10        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,194                        // mulps         %xmm10,%xmm0
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
   .byte  102,15,91,201                       // cvtps2dq      %xmm1,%xmm1
@@ -38396,15 +45522,15 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,35,223,0,0              // mulps         0xdf23(%rip),%xmm9        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,21,43,223,0,0              // andps         0xdf2b(%rip),%xmm10        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,21,99,220,0,0              // orps          0xdc63(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,13,43,223,0,0              // addps         0xdf2b(%rip),%xmm9        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  68,15,40,37,51,223,0,0              // movaps        0xdf33(%rip),%xmm12        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,13,103,223,0,0             // mulps         0xdf67(%rip),%xmm9        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,21,111,223,0,0             // andps         0xdf6f(%rip),%xmm10        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,21,167,220,0,0             // orps          0xdca7(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,13,111,223,0,0             // addps         0xdf6f(%rip),%xmm9        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  68,15,40,37,119,223,0,0             // movaps        0xdf77(%rip),%xmm12        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,51,223,0,0              // addps         0xdf33(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  68,15,40,37,59,223,0,0              // movaps        0xdf3b(%rip),%xmm12        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,21,119,223,0,0             // addps         0xdf77(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  68,15,40,37,127,223,0,0             // movaps        0xdf7f(%rip),%xmm12        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
@@ -38412,22 +45538,22 @@
   .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
-  .byte  68,15,40,21,37,220,0,0              // movaps        0xdc25(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,105,220,0,0             // movaps        0xdc69(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,84,234                        // andps         %xmm10,%xmm13
   .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,92,236                        // subps         %xmm12,%xmm13
-  .byte  68,15,88,13,9,223,0,0               // addps         0xdf09(%rip),%xmm9        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  68,15,40,37,17,223,0,0              // movaps        0xdf11(%rip),%xmm12        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,13,77,223,0,0              // addps         0xdf4d(%rip),%xmm9        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  68,15,40,37,85,223,0,0              // movaps        0xdf55(%rip),%xmm12        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,40,37,17,223,0,0              // movaps        0xdf11(%rip),%xmm12        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,37,85,223,0,0              // movaps        0xdf55(%rip),%xmm12        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  68,15,40,45,21,223,0,0              // movaps        0xdf15(%rip),%xmm13        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,45,89,223,0,0              // movaps        0xdf59(%rip),%xmm13        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  69,15,94,236                        // divps         %xmm12,%xmm13
   .byte  69,15,88,233                        // addps         %xmm9,%xmm13
-  .byte  68,15,89,45,21,223,0,0              // mulps         0xdf15(%rip),%xmm13        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  68,15,89,45,89,223,0,0              // mulps         0xdf59(%rip),%xmm13        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
   .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
   .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
@@ -38463,15 +45589,15 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,229,221,0,0             // mulps         0xdde5(%rip),%xmm9        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,21,237,221,0,0             // andps         0xdded(%rip),%xmm10        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,21,37,219,0,0              // orps          0xdb25(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,13,237,221,0,0             // addps         0xdded(%rip),%xmm9        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  68,15,40,37,245,221,0,0             // movaps        0xddf5(%rip),%xmm12        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,13,41,222,0,0              // mulps         0xde29(%rip),%xmm9        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,21,49,222,0,0              // andps         0xde31(%rip),%xmm10        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,21,105,219,0,0             // orps          0xdb69(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,13,49,222,0,0              // addps         0xde31(%rip),%xmm9        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  68,15,40,37,57,222,0,0              // movaps        0xde39(%rip),%xmm12        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,245,221,0,0             // addps         0xddf5(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  68,15,40,37,253,221,0,0             // movaps        0xddfd(%rip),%xmm12        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,21,57,222,0,0              // addps         0xde39(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  68,15,40,37,65,222,0,0              // movaps        0xde41(%rip),%xmm12        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
@@ -38479,22 +45605,22 @@
   .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
-  .byte  68,15,40,21,231,218,0,0             // movaps        0xdae7(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,43,219,0,0              // movaps        0xdb2b(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,84,234                        // andps         %xmm10,%xmm13
   .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,92,236                        // subps         %xmm12,%xmm13
-  .byte  68,15,88,13,203,221,0,0             // addps         0xddcb(%rip),%xmm9        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  68,15,40,37,211,221,0,0             // movaps        0xddd3(%rip),%xmm12        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,13,15,222,0,0              // addps         0xde0f(%rip),%xmm9        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  68,15,40,37,23,222,0,0              // movaps        0xde17(%rip),%xmm12        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,40,37,211,221,0,0             // movaps        0xddd3(%rip),%xmm12        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,37,23,222,0,0              // movaps        0xde17(%rip),%xmm12        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  68,15,40,45,215,221,0,0             // movaps        0xddd7(%rip),%xmm13        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,45,27,222,0,0              // movaps        0xde1b(%rip),%xmm13        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  69,15,94,236                        // divps         %xmm12,%xmm13
   .byte  69,15,88,233                        // addps         %xmm9,%xmm13
-  .byte  68,15,89,45,215,221,0,0             // mulps         0xddd7(%rip),%xmm13        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  68,15,89,45,27,222,0,0              // mulps         0xde1b(%rip),%xmm13        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
   .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
   .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
@@ -38530,15 +45656,15 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,167,220,0,0             // mulps         0xdca7(%rip),%xmm9        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,21,175,220,0,0             // andps         0xdcaf(%rip),%xmm10        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,21,231,217,0,0             // orps          0xd9e7(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,13,175,220,0,0             // addps         0xdcaf(%rip),%xmm9        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  68,15,40,37,183,220,0,0             // movaps        0xdcb7(%rip),%xmm12        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,13,235,220,0,0             // mulps         0xdceb(%rip),%xmm9        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,21,243,220,0,0             // andps         0xdcf3(%rip),%xmm10        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,21,43,218,0,0              // orps          0xda2b(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,13,243,220,0,0             // addps         0xdcf3(%rip),%xmm9        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  68,15,40,37,251,220,0,0             // movaps        0xdcfb(%rip),%xmm12        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,183,220,0,0             // addps         0xdcb7(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  68,15,40,37,191,220,0,0             // movaps        0xdcbf(%rip),%xmm12        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,21,251,220,0,0             // addps         0xdcfb(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  68,15,40,37,3,221,0,0               // movaps        0xdd03(%rip),%xmm12        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
@@ -38546,22 +45672,22 @@
   .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
-  .byte  68,15,40,21,169,217,0,0             // movaps        0xd9a9(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,237,217,0,0             // movaps        0xd9ed(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,84,234                        // andps         %xmm10,%xmm13
   .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,92,236                        // subps         %xmm12,%xmm13
-  .byte  68,15,88,13,141,220,0,0             // addps         0xdc8d(%rip),%xmm9        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  68,15,40,37,149,220,0,0             // movaps        0xdc95(%rip),%xmm12        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,13,209,220,0,0             // addps         0xdcd1(%rip),%xmm9        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  68,15,40,37,217,220,0,0             // movaps        0xdcd9(%rip),%xmm12        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,40,37,149,220,0,0             // movaps        0xdc95(%rip),%xmm12        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,37,217,220,0,0             // movaps        0xdcd9(%rip),%xmm12        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  68,15,40,45,153,220,0,0             // movaps        0xdc99(%rip),%xmm13        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,45,221,220,0,0             // movaps        0xdcdd(%rip),%xmm13        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  69,15,94,236                        // divps         %xmm12,%xmm13
   .byte  69,15,88,233                        // addps         %xmm9,%xmm13
-  .byte  68,15,89,45,153,220,0,0             // mulps         0xdc99(%rip),%xmm13        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  68,15,89,45,221,220,0,0             // mulps         0xdcdd(%rip),%xmm13        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
   .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
   .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
@@ -38597,15 +45723,15 @@
   .byte  69,15,88,209                        // addps         %xmm9,%xmm10
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,91,202                        // cvtdq2ps      %xmm10,%xmm9
-  .byte  68,15,89,13,105,219,0,0             // mulps         0xdb69(%rip),%xmm9        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  68,15,84,21,113,219,0,0             // andps         0xdb71(%rip),%xmm10        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,86,21,169,216,0,0             // orps          0xd8a9(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
-  .byte  68,15,88,13,113,219,0,0             // addps         0xdb71(%rip),%xmm9        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
-  .byte  68,15,40,37,121,219,0,0             // movaps        0xdb79(%rip),%xmm12        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,89,13,173,219,0,0             // mulps         0xdbad(%rip),%xmm9        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  68,15,84,21,181,219,0,0             // andps         0xdbb5(%rip),%xmm10        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,86,21,237,216,0,0             // orps          0xd8ed(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+  .byte  68,15,88,13,181,219,0,0             // addps         0xdbb5(%rip),%xmm9        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+  .byte  68,15,40,37,189,219,0,0             // movaps        0xdbbd(%rip),%xmm12        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  69,15,89,226                        // mulps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,88,21,121,219,0,0             // addps         0xdb79(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
-  .byte  68,15,40,37,129,219,0,0             // movaps        0xdb81(%rip),%xmm12        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,88,21,189,219,0,0             // addps         0xdbbd(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+  .byte  68,15,40,37,197,219,0,0             // movaps        0xdbc5(%rip),%xmm12        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  69,15,94,226                        // divps         %xmm10,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
   .byte  69,15,89,203                        // mulps         %xmm11,%xmm9
@@ -38613,22 +45739,22 @@
   .byte  69,15,91,226                        // cvtdq2ps      %xmm10,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,194,236,1                     // cmpltps       %xmm12,%xmm13
-  .byte  68,15,40,21,107,216,0,0             // movaps        0xd86b(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,175,216,0,0             // movaps        0xd8af(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,84,234                        // andps         %xmm10,%xmm13
   .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
   .byte  69,15,40,233                        // movaps        %xmm9,%xmm13
   .byte  69,15,92,236                        // subps         %xmm12,%xmm13
-  .byte  68,15,88,13,79,219,0,0              // addps         0xdb4f(%rip),%xmm9        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
-  .byte  68,15,40,37,87,219,0,0              // movaps        0xdb57(%rip),%xmm12        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  68,15,88,13,147,219,0,0             // addps         0xdb93(%rip),%xmm9        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+  .byte  68,15,40,37,155,219,0,0             // movaps        0xdb9b(%rip),%xmm12        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  69,15,89,229                        // mulps         %xmm13,%xmm12
   .byte  69,15,92,204                        // subps         %xmm12,%xmm9
-  .byte  68,15,40,37,87,219,0,0              // movaps        0xdb57(%rip),%xmm12        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  68,15,40,37,155,219,0,0             // movaps        0xdb9b(%rip),%xmm12        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  69,15,92,229                        // subps         %xmm13,%xmm12
-  .byte  68,15,40,45,91,219,0,0              // movaps        0xdb5b(%rip),%xmm13        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,45,159,219,0,0             // movaps        0xdb9f(%rip),%xmm13        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  69,15,94,236                        // divps         %xmm12,%xmm13
   .byte  69,15,88,233                        // addps         %xmm9,%xmm13
-  .byte  68,15,89,45,91,219,0,0              // mulps         0xdb5b(%rip),%xmm13        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  68,15,89,45,159,219,0,0             // mulps         0xdb9f(%rip),%xmm13        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  102,69,15,91,205                    // cvtps2dq      %xmm13,%xmm9
   .byte  243,68,15,16,96,20                  // movss         0x14(%rax),%xmm12
   .byte  69,15,198,228,0                     // shufps        $0x0,%xmm12,%xmm12
@@ -38653,19 +45779,19 @@
   .byte  15,40,218                           // movaps        %xmm2,%xmm3
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,91,194                           // cvtdq2ps      %xmm2,%xmm0
-  .byte  15,89,5,102,218,0,0                 // mulps         0xda66(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  15,84,21,111,218,0,0                // andps         0xda6f(%rip),%xmm2        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  68,15,40,53,167,215,0,0             // movaps        0xd7a7(%rip),%xmm14        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,89,5,170,218,0,0                 // mulps         0xdaaa(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  15,84,21,179,218,0,0                // andps         0xdab3(%rip),%xmm2        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  68,15,40,53,235,215,0,0             // movaps        0xd7eb(%rip),%xmm14        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,86,214                        // orps          %xmm14,%xmm2
-  .byte  68,15,40,37,107,218,0,0             // movaps        0xda6b(%rip),%xmm12        # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+  .byte  68,15,40,37,175,218,0,0             // movaps        0xdaaf(%rip),%xmm12        # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
   .byte  65,15,88,196                        // addps         %xmm12,%xmm0
-  .byte  68,15,40,29,111,218,0,0             // movaps        0xda6f(%rip),%xmm11        # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+  .byte  68,15,40,29,179,218,0,0             // movaps        0xdab3(%rip),%xmm11        # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
   .byte  15,40,226                           // movaps        %xmm2,%xmm4
   .byte  65,15,89,227                        // mulps         %xmm11,%xmm4
   .byte  15,92,196                           // subps         %xmm4,%xmm0
-  .byte  68,15,40,21,109,218,0,0             // movaps        0xda6d(%rip),%xmm10        # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+  .byte  68,15,40,21,177,218,0,0             // movaps        0xdab1(%rip),%xmm10        # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
   .byte  65,15,88,210                        // addps         %xmm10,%xmm2
-  .byte  68,15,40,45,113,218,0,0             // movaps        0xda71(%rip),%xmm13        # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+  .byte  68,15,40,45,181,218,0,0             // movaps        0xdab5(%rip),%xmm13        # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
   .byte  65,15,40,229                        // movaps        %xmm13,%xmm4
   .byte  15,94,226                           // divps         %xmm2,%xmm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -38677,27 +45803,27 @@
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  15,40,224                           // movaps        %xmm0,%xmm4
   .byte  15,194,226,1                        // cmpltps       %xmm2,%xmm4
-  .byte  68,15,40,13,81,215,0,0              // movaps        0xd751(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,13,149,215,0,0             // movaps        0xd795(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  65,15,84,225                        // andps         %xmm9,%xmm4
   .byte  15,92,212                           // subps         %xmm4,%xmm2
   .byte  15,40,224                           // movaps        %xmm0,%xmm4
   .byte  15,92,226                           // subps         %xmm2,%xmm4
-  .byte  15,40,53,61,218,0,0                 // movaps        0xda3d(%rip),%xmm6        # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+  .byte  15,40,53,129,218,0,0                // movaps        0xda81(%rip),%xmm6        # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
   .byte  15,88,198                           // addps         %xmm6,%xmm0
-  .byte  15,40,61,83,218,0,0                 // movaps        0xda53(%rip),%xmm7        # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+  .byte  15,40,61,151,218,0,0                // movaps        0xda97(%rip),%xmm7        # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
   .byte  15,40,239                           // movaps        %xmm7,%xmm5
   .byte  15,92,236                           // subps         %xmm4,%xmm5
   .byte  15,40,212                           // movaps        %xmm4,%xmm2
-  .byte  15,40,37,51,218,0,0                 // movaps        0xda33(%rip),%xmm4        # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+  .byte  15,40,37,119,218,0,0                // movaps        0xda77(%rip),%xmm4        # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
   .byte  15,89,212                           // mulps         %xmm4,%xmm2
   .byte  15,92,194                           // subps         %xmm2,%xmm0
-  .byte  68,15,40,61,69,218,0,0              // movaps        0xda45(%rip),%xmm15        # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+  .byte  68,15,40,61,137,218,0,0             // movaps        0xda89(%rip),%xmm15        # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
   .byte  65,15,40,215                        // movaps        %xmm15,%xmm2
   .byte  15,94,213                           // divps         %xmm5,%xmm2
   .byte  15,88,208                           // addps         %xmm0,%xmm2
   .byte  15,91,193                           // cvtdq2ps      %xmm1,%xmm0
-  .byte  15,89,5,161,217,0,0                 // mulps         0xd9a1(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  15,84,13,170,217,0,0                // andps         0xd9aa(%rip),%xmm1        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+  .byte  15,89,5,229,217,0,0                 // mulps         0xd9e5(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  15,84,13,238,217,0,0                // andps         0xd9ee(%rip),%xmm1        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
   .byte  65,15,86,206                        // orps          %xmm14,%xmm1
   .byte  65,15,88,196                        // addps         %xmm12,%xmm0
   .byte  15,40,233                           // movaps        %xmm1,%xmm5
@@ -38727,9 +45853,9 @@
   .byte  15,94,206                           // divps         %xmm6,%xmm1
   .byte  15,88,200                           // addps         %xmm0,%xmm1
   .byte  15,91,195                           // cvtdq2ps      %xmm3,%xmm0
-  .byte  15,89,5,48,217,0,0                  // mulps         0xd930(%rip),%xmm0        # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
-  .byte  15,84,29,57,217,0,0                 // andps         0xd939(%rip),%xmm3        # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
-  .byte  15,86,29,114,214,0,0                // orps          0xd672(%rip),%xmm3        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,89,5,116,217,0,0                 // mulps         0xd974(%rip),%xmm0        # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+  .byte  15,84,29,125,217,0,0                // andps         0xd97d(%rip),%xmm3        # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+  .byte  15,86,29,182,214,0,0                // orps          0xd6b6(%rip),%xmm3        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,88,196                        // addps         %xmm12,%xmm0
   .byte  68,15,89,219                        // mulps         %xmm3,%xmm11
   .byte  65,15,92,195                        // subps         %xmm11,%xmm0
@@ -38751,7 +45877,7 @@
   .byte  15,92,253                           // subps         %xmm5,%xmm7
   .byte  68,15,94,255                        // divps         %xmm7,%xmm15
   .byte  68,15,88,248                        // addps         %xmm0,%xmm15
-  .byte  15,40,5,111,217,0,0                 // movaps        0xd96f(%rip),%xmm0        # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+  .byte  15,40,5,179,217,0,0                 // movaps        0xd9b3(%rip),%xmm0        # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
   .byte  15,89,208                           // mulps         %xmm0,%xmm2
   .byte  15,89,200                           // mulps         %xmm0,%xmm1
   .byte  68,15,89,248                        // mulps         %xmm0,%xmm15
@@ -38770,29 +45896,29 @@
 .globl _sk_lab_to_xyz_sse2
 FUNCTION(_sk_lab_to_xyz_sse2)
 _sk_lab_to_xyz_sse2:
-  .byte  15,89,5,68,217,0,0                  // mulps         0xd944(%rip),%xmm0        # 2b7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
-  .byte  68,15,40,5,204,214,0,0              // movaps        0xd6cc(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  15,89,5,136,217,0,0                 // mulps         0xd988(%rip),%xmm0        # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+  .byte  68,15,40,5,16,215,0,0               // movaps        0xd710(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  65,15,89,200                        // mulps         %xmm8,%xmm1
-  .byte  68,15,40,13,64,217,0,0              // movaps        0xd940(%rip),%xmm9        # 2b7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+  .byte  68,15,40,13,132,217,0,0             // movaps        0xd984(%rip),%xmm9        # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
   .byte  65,15,88,201                        // addps         %xmm9,%xmm1
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  65,15,88,209                        // addps         %xmm9,%xmm2
-  .byte  15,88,5,61,217,0,0                  // addps         0xd93d(%rip),%xmm0        # 2b800 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
-  .byte  15,89,5,70,217,0,0                  // mulps         0xd946(%rip),%xmm0        # 2b810 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
-  .byte  15,89,13,79,217,0,0                 // mulps         0xd94f(%rip),%xmm1        # 2b820 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+  .byte  15,88,5,129,217,0,0                 // addps         0xd981(%rip),%xmm0        # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+  .byte  15,89,5,138,217,0,0                 // mulps         0xd98a(%rip),%xmm0        # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+  .byte  15,89,13,147,217,0,0                // mulps         0xd993(%rip),%xmm1        # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
   .byte  15,88,200                           // addps         %xmm0,%xmm1
-  .byte  15,89,21,85,217,0,0                 // mulps         0xd955(%rip),%xmm2        # 2b830 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+  .byte  15,89,21,153,217,0,0                // mulps         0xd999(%rip),%xmm2        # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  68,15,92,202                        // subps         %xmm2,%xmm9
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
   .byte  68,15,89,225                        // mulps         %xmm1,%xmm12
-  .byte  15,40,21,74,217,0,0                 // movaps        0xd94a(%rip),%xmm2        # 2b840 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+  .byte  15,40,21,142,217,0,0                // movaps        0xd98e(%rip),%xmm2        # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
   .byte  68,15,40,194                        // movaps        %xmm2,%xmm8
   .byte  69,15,194,196,1                     // cmpltps       %xmm12,%xmm8
-  .byte  68,15,40,21,73,217,0,0              // movaps        0xd949(%rip),%xmm10        # 2b850 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+  .byte  68,15,40,21,141,217,0,0             // movaps        0xd98d(%rip),%xmm10        # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
   .byte  65,15,88,202                        // addps         %xmm10,%xmm1
-  .byte  68,15,40,29,77,217,0,0              // movaps        0xd94d(%rip),%xmm11        # 2b860 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+  .byte  68,15,40,29,145,217,0,0             // movaps        0xd991(%rip),%xmm11        # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
   .byte  65,15,89,203                        // mulps         %xmm11,%xmm1
   .byte  69,15,84,224                        // andps         %xmm8,%xmm12
   .byte  68,15,85,193                        // andnps        %xmm1,%xmm8
@@ -38816,8 +45942,8 @@
   .byte  15,84,194                           // andps         %xmm2,%xmm0
   .byte  65,15,85,209                        // andnps        %xmm9,%xmm2
   .byte  15,86,208                           // orps          %xmm0,%xmm2
-  .byte  68,15,89,5,253,216,0,0              // mulps         0xd8fd(%rip),%xmm8        # 2b870 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
-  .byte  15,89,21,6,217,0,0                  // mulps         0xd906(%rip),%xmm2        # 2b880 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+  .byte  68,15,89,5,65,217,0,0               // mulps         0xd941(%rip),%xmm8        # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+  .byte  15,89,21,74,217,0,0                 // mulps         0xd94a(%rip),%xmm2        # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -38833,13 +45959,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,46                              // jne           1dfc8 <_sk_load_a8_sse2+0x46>
+  .byte  117,46                              // jne           25604 <_sk_load_a8_sse2+0x46>
   .byte  102,67,15,110,4,16                  // movd          (%r8,%r10,1),%xmm0
   .byte  102,15,96,192                       // punpcklbw     %xmm0,%xmm0
   .byte  102,15,97,192                       // punpcklwd     %xmm0,%xmm0
-  .byte  102,15,219,5,144,213,0,0            // pand          0xd590(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,5,212,213,0,0            // pand          0xd5d4(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
-  .byte  15,89,29,214,214,0,0                // mulps         0xd6d6(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,26,215,0,0                 // mulps         0xd71a(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,87,201                       // xorpd         %xmm1,%xmm1
@@ -38848,12 +45974,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,54                              // je            1e00b <_sk_load_a8_sse2+0x89>
+  .byte  116,54                              // je            25647 <_sk_load_a8_sse2+0x89>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1dff4 <_sk_load_a8_sse2+0x72>
+  .byte  116,21                              // je            25630 <_sk_load_a8_sse2+0x72>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,195                             // jne           1dfa8 <_sk_load_a8_sse2+0x26>
+  .byte  117,195                             // jne           255e4 <_sk_load_a8_sse2+0x26>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,192,69                   // pshufd        $0x45,%xmm0,%xmm0
@@ -38862,10 +45988,10 @@
   .byte  102,15,96,200                       // punpcklbw     %xmm0,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  242,15,16,193                       // movsd         %xmm1,%xmm0
-  .byte  235,157                             // jmp           1dfa8 <_sk_load_a8_sse2+0x26>
+  .byte  235,157                             // jmp           255e4 <_sk_load_a8_sse2+0x26>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,146                             // jmp           1dfa8 <_sk_load_a8_sse2+0x26>
+  .byte  235,146                             // jmp           255e4 <_sk_load_a8_sse2+0x26>
 
 HIDDEN _sk_load_a8_dst_sse2
 .globl _sk_load_a8_dst_sse2
@@ -38878,13 +46004,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,46                              // jne           1e05c <_sk_load_a8_dst_sse2+0x46>
+  .byte  117,46                              // jne           25698 <_sk_load_a8_dst_sse2+0x46>
   .byte  102,67,15,110,36,16                 // movd          (%r8,%r10,1),%xmm4
   .byte  102,15,96,224                       // punpcklbw     %xmm0,%xmm4
   .byte  102,15,97,224                       // punpcklwd     %xmm0,%xmm4
-  .byte  102,15,219,37,252,212,0,0           // pand          0xd4fc(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,37,64,213,0,0            // pand          0xd540(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,252                           // cvtdq2ps      %xmm4,%xmm7
-  .byte  15,89,61,66,214,0,0                 // mulps         0xd642(%rip),%xmm7        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,61,134,214,0,0                // mulps         0xd686(%rip),%xmm7        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  102,15,87,237                       // xorpd         %xmm5,%xmm5
@@ -38893,12 +46019,12 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,54                              // je            1e09f <_sk_load_a8_dst_sse2+0x89>
+  .byte  116,54                              // je            256db <_sk_load_a8_dst_sse2+0x89>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e088 <_sk_load_a8_dst_sse2+0x72>
+  .byte  116,21                              // je            256c4 <_sk_load_a8_dst_sse2+0x72>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,195                             // jne           1e03c <_sk_load_a8_dst_sse2+0x26>
+  .byte  117,195                             // jne           25678 <_sk_load_a8_dst_sse2+0x26>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,228,69                   // pshufd        $0x45,%xmm4,%xmm4
@@ -38907,10 +46033,10 @@
   .byte  102,15,96,232                       // punpcklbw     %xmm0,%xmm5
   .byte  102,15,97,232                       // punpcklwd     %xmm0,%xmm5
   .byte  242,15,16,229                       // movsd         %xmm5,%xmm4
-  .byte  235,157                             // jmp           1e03c <_sk_load_a8_dst_sse2+0x26>
+  .byte  235,157                             // jmp           25678 <_sk_load_a8_dst_sse2+0x26>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,146                             // jmp           1e03c <_sk_load_a8_dst_sse2+0x26>
+  .byte  235,146                             // jmp           25678 <_sk_load_a8_dst_sse2+0x26>
 
 HIDDEN _sk_gather_a8_sse2
 .globl _sk_gather_a8_sse2
@@ -38963,7 +46089,7 @@
   .byte  102,65,15,96,192                    // punpcklbw     %xmm8,%xmm0
   .byte  102,65,15,97,192                    // punpcklwd     %xmm8,%xmm0
   .byte  15,91,216                           // cvtdq2ps      %xmm0,%xmm3
-  .byte  15,89,29,28,213,0,0                 // mulps         0xd51c(%rip),%xmm3        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,29,96,213,0,0                 // mulps         0xd560(%rip),%xmm3        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
@@ -38980,7 +46106,7 @@
   .byte  77,15,175,193                       // imul          %r9,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
-  .byte  68,15,40,5,211,211,0,0              // movaps        0xd3d3(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,23,212,0,0               // movaps        0xd417(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,89,195                        // mulps         %xmm3,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
   .byte  102,65,15,114,240,16                // pslld         $0x10,%xmm8
@@ -38988,7 +46114,7 @@
   .byte  102,68,15,107,192                   // packssdw      %xmm0,%xmm8
   .byte  102,68,15,103,192                   // packuswb      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,13                              // jne           1e1ce <_sk_store_a8_sse2+0x4c>
+  .byte  117,13                              // jne           2580a <_sk_store_a8_sse2+0x4c>
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  67,137,4,16                         // mov           %eax,(%r8,%r10,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -38998,22 +46124,22 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,54                              // je            1e21b <_sk_store_a8_sse2+0x99>
+  .byte  116,54                              // je            25857 <_sk_store_a8_sse2+0x99>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,17                              // je            1e1fc <_sk_store_a8_sse2+0x7a>
+  .byte  116,17                              // je            25838 <_sk_store_a8_sse2+0x7a>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,217                             // jne           1e1ca <_sk_store_a8_sse2+0x48>
+  .byte  117,217                             // jne           25806 <_sk_store_a8_sse2+0x48>
   .byte  102,65,15,197,192,4                 // pextrw        $0x4,%xmm8,%eax
   .byte  67,136,68,16,2                      // mov           %al,0x2(%r8,%r10,1)
-  .byte  102,68,15,219,5,59,211,0,0          // pand          0xd33b(%rip),%xmm8        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,68,15,219,5,127,211,0,0         // pand          0xd37f(%rip),%xmm8        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,69,15,103,192                   // packuswb      %xmm8,%xmm8
   .byte  102,69,15,103,192                   // packuswb      %xmm8,%xmm8
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  102,67,137,4,16                     // mov           %ax,(%r8,%r10,1)
-  .byte  235,175                             // jmp           1e1ca <_sk_store_a8_sse2+0x48>
+  .byte  235,175                             // jmp           25806 <_sk_store_a8_sse2+0x48>
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  67,136,4,16                         // mov           %al,(%r8,%r10,1)
-  .byte  235,164                             // jmp           1e1ca <_sk_store_a8_sse2+0x48>
+  .byte  235,164                             // jmp           25806 <_sk_store_a8_sse2+0x48>
 
 HIDDEN _sk_load_g8_sse2
 .globl _sk_load_g8_sse2
@@ -39026,27 +46152,27 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,49                              // jne           1e26f <_sk_load_g8_sse2+0x49>
+  .byte  117,49                              // jne           258ab <_sk_load_g8_sse2+0x49>
   .byte  102,67,15,110,4,16                  // movd          (%r8,%r10,1),%xmm0
   .byte  102,15,96,192                       // punpcklbw     %xmm0,%xmm0
   .byte  102,15,97,192                       // punpcklwd     %xmm0,%xmm0
-  .byte  102,15,219,5,236,210,0,0            // pand          0xd2ec(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,5,48,211,0,0             // pand          0xd330(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,50,212,0,0                  // mulps         0xd432(%rip),%xmm0        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,5,118,212,0,0                 // mulps         0xd476(%rip),%xmm0        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,41,210,0,0                 // movaps        0xd229(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,109,210,0,0                // movaps        0xd26d(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,54                              // je            1e2b2 <_sk_load_g8_sse2+0x8c>
+  .byte  116,54                              // je            258ee <_sk_load_g8_sse2+0x8c>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e29b <_sk_load_g8_sse2+0x75>
+  .byte  116,21                              // je            258d7 <_sk_load_g8_sse2+0x75>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,192                             // jne           1e24c <_sk_load_g8_sse2+0x26>
+  .byte  117,192                             // jne           25888 <_sk_load_g8_sse2+0x26>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,192,69                   // pshufd        $0x45,%xmm0,%xmm0
@@ -39055,10 +46181,10 @@
   .byte  102,15,96,200                       // punpcklbw     %xmm0,%xmm1
   .byte  102,15,97,200                       // punpcklwd     %xmm0,%xmm1
   .byte  242,15,16,193                       // movsd         %xmm1,%xmm0
-  .byte  235,154                             // jmp           1e24c <_sk_load_g8_sse2+0x26>
+  .byte  235,154                             // jmp           25888 <_sk_load_g8_sse2+0x26>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,143                             // jmp           1e24c <_sk_load_g8_sse2+0x26>
+  .byte  235,143                             // jmp           25888 <_sk_load_g8_sse2+0x26>
 
 HIDDEN _sk_load_g8_dst_sse2
 .globl _sk_load_g8_dst_sse2
@@ -39071,27 +46197,27 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,49                              // jne           1e306 <_sk_load_g8_dst_sse2+0x49>
+  .byte  117,49                              // jne           25942 <_sk_load_g8_dst_sse2+0x49>
   .byte  102,67,15,110,36,16                 // movd          (%r8,%r10,1),%xmm4
   .byte  102,15,96,224                       // punpcklbw     %xmm0,%xmm4
   .byte  102,15,97,224                       // punpcklwd     %xmm0,%xmm4
-  .byte  102,15,219,37,85,210,0,0            // pand          0xd255(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,219,37,153,210,0,0           // pand          0xd299(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,155,211,0,0                // mulps         0xd39b(%rip),%xmm4        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,37,223,211,0,0                // mulps         0xd3df(%rip),%xmm4        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,146,209,0,0                // movaps        0xd192(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,61,214,209,0,0                // movaps        0xd1d6(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,236                           // movaps        %xmm4,%xmm5
   .byte  15,40,244                           // movaps        %xmm4,%xmm6
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,54                              // je            1e349 <_sk_load_g8_dst_sse2+0x8c>
+  .byte  116,54                              // je            25985 <_sk_load_g8_dst_sse2+0x8c>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e332 <_sk_load_g8_dst_sse2+0x75>
+  .byte  116,21                              // je            2596e <_sk_load_g8_dst_sse2+0x75>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,192                             // jne           1e2e3 <_sk_load_g8_dst_sse2+0x26>
+  .byte  117,192                             // jne           2591f <_sk_load_g8_dst_sse2+0x26>
   .byte  67,15,182,68,16,2                   // movzbl        0x2(%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,228,69                   // pshufd        $0x45,%xmm4,%xmm4
@@ -39100,10 +46226,10 @@
   .byte  102,15,96,232                       // punpcklbw     %xmm0,%xmm5
   .byte  102,15,97,232                       // punpcklwd     %xmm0,%xmm5
   .byte  242,15,16,229                       // movsd         %xmm5,%xmm4
-  .byte  235,154                             // jmp           1e2e3 <_sk_load_g8_dst_sse2+0x26>
+  .byte  235,154                             // jmp           2591f <_sk_load_g8_dst_sse2+0x26>
   .byte  67,15,182,4,16                      // movzbl        (%r8,%r10,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,143                             // jmp           1e2e3 <_sk_load_g8_dst_sse2+0x26>
+  .byte  235,143                             // jmp           2591f <_sk_load_g8_dst_sse2+0x26>
 
 HIDDEN _sk_gather_g8_sse2
 .globl _sk_gather_g8_sse2
@@ -39156,9 +46282,9 @@
   .byte  102,65,15,96,192                    // punpcklbw     %xmm8,%xmm0
   .byte  102,65,15,97,192                    // punpcklwd     %xmm8,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,114,210,0,0                 // mulps         0xd272(%rip),%xmm0        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  15,89,5,182,210,0,0                 // mulps         0xd2b6(%rip),%xmm0        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,105,208,0,0                // movaps        0xd069(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,173,208,0,0                // movaps        0xd0ad(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
@@ -39175,42 +46301,42 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,83                              // jne           1e49d <_sk_load_565_sse2+0x6e>
+  .byte  117,83                              // jne           25ad9 <_sk_load_565_sse2+0x6e>
   .byte  243,67,15,126,20,80                 // movq          (%r8,%r10,2),%xmm2
   .byte  102,15,97,208                       // punpcklwd     %xmm0,%xmm2
-  .byte  102,15,111,5,68,210,0,0             // movdqa        0xd244(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,136,210,0,0            // movdqa        0xd288(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,70,210,0,0                  // mulps         0xd246(%rip),%xmm0        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,13,78,210,0,0            // movdqa        0xd24e(%rip),%xmm1        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,5,138,210,0,0                 // mulps         0xd28a(%rip),%xmm0        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,13,146,210,0,0           // movdqa        0xd292(%rip),%xmm1        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,80,210,0,0                 // mulps         0xd250(%rip),%xmm1        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,21,88,210,0,0            // pand          0xd258(%rip),%xmm2        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,13,148,210,0,0                // mulps         0xd294(%rip),%xmm1        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,21,156,210,0,0           // pand          0xd29c(%rip),%xmm2        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,94,210,0,0                 // mulps         0xd25e(%rip),%xmm2        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,21,162,210,0,0                // mulps         0xd2a2(%rip),%xmm2        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,245,207,0,0                // movaps        0xcff5(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,57,208,0,0                 // movaps        0xd039(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,51                              // je            1e4dd <_sk_load_565_sse2+0xae>
+  .byte  116,51                              // je            25b19 <_sk_load_565_sse2+0xae>
   .byte  102,15,239,210                      // pxor          %xmm2,%xmm2
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e4c9 <_sk_load_565_sse2+0x9a>
+  .byte  116,21                              // je            25b05 <_sk_load_565_sse2+0x9a>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,154                             // jne           1e454 <_sk_load_565_sse2+0x25>
+  .byte  117,154                             // jne           25a90 <_sk_load_565_sse2+0x25>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,208,69                   // pshufd        $0x45,%xmm0,%xmm2
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  242,15,112,192,212                  // pshuflw       $0xd4,%xmm0,%xmm0
   .byte  242,15,16,208                       // movsd         %xmm0,%xmm2
-  .byte  233,119,255,255,255                 // jmpq          1e454 <_sk_load_565_sse2+0x25>
+  .byte  233,119,255,255,255                 // jmpq          25a90 <_sk_load_565_sse2+0x25>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  233,105,255,255,255                 // jmpq          1e454 <_sk_load_565_sse2+0x25>
+  .byte  233,105,255,255,255                 // jmpq          25a90 <_sk_load_565_sse2+0x25>
 
 HIDDEN _sk_load_565_dst_sse2
 .globl _sk_load_565_dst_sse2
@@ -39224,42 +46350,42 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,83                              // jne           1e559 <_sk_load_565_dst_sse2+0x6e>
+  .byte  117,83                              // jne           25b95 <_sk_load_565_dst_sse2+0x6e>
   .byte  243,67,15,126,52,80                 // movq          (%r8,%r10,2),%xmm6
   .byte  102,15,97,240                       // punpcklwd     %xmm0,%xmm6
-  .byte  102,15,111,37,136,209,0,0           // movdqa        0xd188(%rip),%xmm4        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,37,204,209,0,0           // movdqa        0xd1cc(%rip),%xmm4        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,230                      // pand          %xmm6,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,138,209,0,0                // mulps         0xd18a(%rip),%xmm4        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,45,146,209,0,0           // movdqa        0xd192(%rip),%xmm5        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,37,206,209,0,0                // mulps         0xd1ce(%rip),%xmm4        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,45,214,209,0,0           // movdqa        0xd1d6(%rip),%xmm5        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,238                      // pand          %xmm6,%xmm5
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
-  .byte  15,89,45,148,209,0,0                // mulps         0xd194(%rip),%xmm5        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,53,156,209,0,0           // pand          0xd19c(%rip),%xmm6        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,45,216,209,0,0                // mulps         0xd1d8(%rip),%xmm5        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,53,224,209,0,0           // pand          0xd1e0(%rip),%xmm6        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
-  .byte  15,89,53,162,209,0,0                // mulps         0xd1a2(%rip),%xmm6        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,53,230,209,0,0                // mulps         0xd1e6(%rip),%xmm6        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,57,207,0,0                 // movaps        0xcf39(%rip),%xmm7        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,61,125,207,0,0                // movaps        0xcf7d(%rip),%xmm7        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,51                              // je            1e599 <_sk_load_565_dst_sse2+0xae>
+  .byte  116,51                              // je            25bd5 <_sk_load_565_dst_sse2+0xae>
   .byte  102,15,239,246                      // pxor          %xmm6,%xmm6
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e585 <_sk_load_565_dst_sse2+0x9a>
+  .byte  116,21                              // je            25bc1 <_sk_load_565_dst_sse2+0x9a>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,154                             // jne           1e510 <_sk_load_565_dst_sse2+0x25>
+  .byte  117,154                             // jne           25b4c <_sk_load_565_dst_sse2+0x25>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,244,69                   // pshufd        $0x45,%xmm4,%xmm6
   .byte  102,67,15,110,36,80                 // movd          (%r8,%r10,2),%xmm4
   .byte  242,15,112,228,212                  // pshuflw       $0xd4,%xmm4,%xmm4
   .byte  242,15,16,244                       // movsd         %xmm4,%xmm6
-  .byte  233,119,255,255,255                 // jmpq          1e510 <_sk_load_565_dst_sse2+0x25>
+  .byte  233,119,255,255,255                 // jmpq          25b4c <_sk_load_565_dst_sse2+0x25>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,240                      // movd          %eax,%xmm6
-  .byte  233,105,255,255,255                 // jmpq          1e510 <_sk_load_565_dst_sse2+0x25>
+  .byte  233,105,255,255,255                 // jmpq          25b4c <_sk_load_565_dst_sse2+0x25>
 
 HIDDEN _sk_gather_565_sse2
 .globl _sk_gather_565_sse2
@@ -39308,19 +46434,19 @@
   .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
   .byte  102,15,196,208,3                    // pinsrw        $0x3,%eax,%xmm2
   .byte  102,65,15,97,208                    // punpcklwd     %xmm8,%xmm2
-  .byte  102,15,111,5,55,208,0,0             // movdqa        0xd037(%rip),%xmm0        # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+  .byte  102,15,111,5,123,208,0,0            // movdqa        0xd07b(%rip),%xmm0        # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,57,208,0,0                  // mulps         0xd039(%rip),%xmm0        # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
-  .byte  102,15,111,13,65,208,0,0            // movdqa        0xd041(%rip),%xmm1        # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+  .byte  15,89,5,125,208,0,0                 // mulps         0xd07d(%rip),%xmm0        # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+  .byte  102,15,111,13,133,208,0,0           // movdqa        0xd085(%rip),%xmm1        # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
   .byte  102,15,219,202                      // pand          %xmm2,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,67,208,0,0                 // mulps         0xd043(%rip),%xmm1        # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
-  .byte  102,15,219,21,75,208,0,0            // pand          0xd04b(%rip),%xmm2        # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+  .byte  15,89,13,135,208,0,0                // mulps         0xd087(%rip),%xmm1        # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+  .byte  102,15,219,21,143,208,0,0           // pand          0xd08f(%rip),%xmm2        # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,81,208,0,0                 // mulps         0xd051(%rip),%xmm2        # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+  .byte  15,89,21,149,208,0,0                // mulps         0xd095(%rip),%xmm2        # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,232,205,0,0                // movaps        0xcde8(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,44,206,0,0                 // movaps        0xce2c(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
 
 HIDDEN _sk_store_565_sse2
@@ -39334,12 +46460,12 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
-  .byte  68,15,40,5,216,209,0,0              // movaps        0xd1d8(%rip),%xmm8        # 2b8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+  .byte  68,15,40,5,28,210,0,0               // movaps        0xd21c(%rip),%xmm8        # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
   .byte  102,65,15,114,241,11                // pslld         $0xb,%xmm9
-  .byte  68,15,40,21,205,209,0,0             // movaps        0xd1cd(%rip),%xmm10        # 2b8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+  .byte  68,15,40,21,17,210,0,0              // movaps        0xd211(%rip),%xmm10        # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
   .byte  68,15,89,209                        // mulps         %xmm1,%xmm10
   .byte  102,69,15,91,210                    // cvtps2dq      %xmm10,%xmm10
   .byte  102,65,15,114,242,5                 // pslld         $0x5,%xmm10
@@ -39351,7 +46477,7 @@
   .byte  102,65,15,114,224,16                // psrad         $0x10,%xmm8
   .byte  102,68,15,107,192                   // packssdw      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           1e725 <_sk_store_565_sse2+0x7b>
+  .byte  117,10                              // jne           25d61 <_sk_store_565_sse2+0x7b>
   .byte  102,71,15,214,4,80                  // movq          %xmm8,(%r8,%r10,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -39359,19 +46485,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,38                              // je            1e75d <_sk_store_565_sse2+0xb3>
+  .byte  116,38                              // je            25d99 <_sk_store_565_sse2+0xb3>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            1e74f <_sk_store_565_sse2+0xa5>
+  .byte  116,18                              // je            25d8b <_sk_store_565_sse2+0xa5>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,222                             // jne           1e721 <_sk_store_565_sse2+0x77>
+  .byte  117,222                             // jne           25d5d <_sk_store_565_sse2+0x77>
   .byte  102,65,15,197,192,4                 // pextrw        $0x4,%xmm8,%eax
   .byte  102,67,137,68,80,4                  // mov           %ax,0x4(%r8,%r10,2)
   .byte  242,69,15,112,192,232               // pshuflw       $0xe8,%xmm8,%xmm8
   .byte  102,71,15,126,4,80                  // movd          %xmm8,(%r8,%r10,2)
-  .byte  235,196                             // jmp           1e721 <_sk_store_565_sse2+0x77>
+  .byte  235,196                             // jmp           25d5d <_sk_store_565_sse2+0x77>
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  102,67,137,4,80                     // mov           %ax,(%r8,%r10,2)
-  .byte  235,184                             // jmp           1e721 <_sk_store_565_sse2+0x77>
+  .byte  235,184                             // jmp           25d5d <_sk_store_565_sse2+0x77>
 
 HIDDEN _sk_load_4444_sse2
 .globl _sk_load_4444_sse2
@@ -39385,45 +46511,45 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1e7e6 <_sk_load_4444_sse2+0x7d>
+  .byte  117,98                              // jne           25e22 <_sk_load_4444_sse2+0x7d>
   .byte  243,67,15,126,28,80                 // movq          (%r8,%r10,2),%xmm3
   .byte  102,15,97,216                       // punpcklwd     %xmm0,%xmm3
-  .byte  102,15,111,5,42,209,0,0             // movdqa        0xd12a(%rip),%xmm0        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,5,110,209,0,0            // movdqa        0xd16e(%rip),%xmm0        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,44,209,0,0                  // mulps         0xd12c(%rip),%xmm0        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,13,52,209,0,0            // movdqa        0xd134(%rip),%xmm1        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,5,112,209,0,0                 // mulps         0xd170(%rip),%xmm0        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,13,120,209,0,0           // movdqa        0xd178(%rip),%xmm1        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,54,209,0,0                 // mulps         0xd136(%rip),%xmm1        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,21,62,209,0,0            // movdqa        0xd13e(%rip),%xmm2        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,13,122,209,0,0                // mulps         0xd17a(%rip),%xmm1        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,21,130,209,0,0           // movdqa        0xd182(%rip),%xmm2        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,64,209,0,0                 // mulps         0xd140(%rip),%xmm2        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,29,72,209,0,0            // pand          0xd148(%rip),%xmm3        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,21,132,209,0,0                // mulps         0xd184(%rip),%xmm2        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,29,140,209,0,0           // pand          0xd18c(%rip),%xmm3        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,78,209,0,0                 // mulps         0xd14e(%rip),%xmm3        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,29,146,209,0,0                // mulps         0xd192(%rip),%xmm3        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,51                              // je            1e826 <_sk_load_4444_sse2+0xbd>
+  .byte  116,51                              // je            25e62 <_sk_load_4444_sse2+0xbd>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e812 <_sk_load_4444_sse2+0xa9>
+  .byte  116,21                              // je            25e4e <_sk_load_4444_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,139                             // jne           1e78e <_sk_load_4444_sse2+0x25>
+  .byte  117,139                             // jne           25dca <_sk_load_4444_sse2+0x25>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,112,216,69                   // pshufd        $0x45,%xmm0,%xmm3
   .byte  102,67,15,110,4,80                  // movd          (%r8,%r10,2),%xmm0
   .byte  242,15,112,192,212                  // pshuflw       $0xd4,%xmm0,%xmm0
   .byte  242,15,16,216                       // movsd         %xmm0,%xmm3
-  .byte  233,104,255,255,255                 // jmpq          1e78e <_sk_load_4444_sse2+0x25>
+  .byte  233,104,255,255,255                 // jmpq          25dca <_sk_load_4444_sse2+0x25>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  233,90,255,255,255                  // jmpq          1e78e <_sk_load_4444_sse2+0x25>
+  .byte  233,90,255,255,255                  // jmpq          25dca <_sk_load_4444_sse2+0x25>
 
 HIDDEN _sk_load_4444_dst_sse2
 .globl _sk_load_4444_dst_sse2
@@ -39437,45 +46563,45 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1e8b1 <_sk_load_4444_dst_sse2+0x7d>
+  .byte  117,98                              // jne           25eed <_sk_load_4444_dst_sse2+0x7d>
   .byte  243,67,15,126,60,80                 // movq          (%r8,%r10,2),%xmm7
   .byte  102,15,97,248                       // punpcklwd     %xmm0,%xmm7
-  .byte  102,15,111,37,95,208,0,0            // movdqa        0xd05f(%rip),%xmm4        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,37,163,208,0,0           // movdqa        0xd0a3(%rip),%xmm4        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,231                      // pand          %xmm7,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  15,89,37,97,208,0,0                 // mulps         0xd061(%rip),%xmm4        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,45,105,208,0,0           // movdqa        0xd069(%rip),%xmm5        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,37,165,208,0,0                // mulps         0xd0a5(%rip),%xmm4        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,45,173,208,0,0           // movdqa        0xd0ad(%rip),%xmm5        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,239                      // pand          %xmm7,%xmm5
   .byte  15,91,237                           // cvtdq2ps      %xmm5,%xmm5
-  .byte  15,89,45,107,208,0,0                // mulps         0xd06b(%rip),%xmm5        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,53,115,208,0,0           // movdqa        0xd073(%rip),%xmm6        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,45,175,208,0,0                // mulps         0xd0af(%rip),%xmm5        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,53,183,208,0,0           // movdqa        0xd0b7(%rip),%xmm6        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,247                      // pand          %xmm7,%xmm6
   .byte  15,91,246                           // cvtdq2ps      %xmm6,%xmm6
-  .byte  15,89,53,117,208,0,0                // mulps         0xd075(%rip),%xmm6        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,61,125,208,0,0           // pand          0xd07d(%rip),%xmm7        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,53,185,208,0,0                // mulps         0xd0b9(%rip),%xmm6        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,61,193,208,0,0           // pand          0xd0c1(%rip),%xmm7        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,255                           // cvtdq2ps      %xmm7,%xmm7
-  .byte  15,89,61,131,208,0,0                // mulps         0xd083(%rip),%xmm7        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,61,199,208,0,0                // mulps         0xd0c7(%rip),%xmm7        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,51                              // je            1e8f1 <_sk_load_4444_dst_sse2+0xbd>
+  .byte  116,51                              // je            25f2d <_sk_load_4444_dst_sse2+0xbd>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,21                              // je            1e8dd <_sk_load_4444_dst_sse2+0xa9>
+  .byte  116,21                              // je            25f19 <_sk_load_4444_dst_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,139                             // jne           1e859 <_sk_load_4444_dst_sse2+0x25>
+  .byte  117,139                             // jne           25e95 <_sk_load_4444_dst_sse2+0x25>
   .byte  67,15,183,68,80,4                   // movzwl        0x4(%r8,%r10,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,112,252,69                   // pshufd        $0x45,%xmm4,%xmm7
   .byte  102,67,15,110,36,80                 // movd          (%r8,%r10,2),%xmm4
   .byte  242,15,112,228,212                  // pshuflw       $0xd4,%xmm4,%xmm4
   .byte  242,15,16,252                       // movsd         %xmm4,%xmm7
-  .byte  233,104,255,255,255                 // jmpq          1e859 <_sk_load_4444_dst_sse2+0x25>
+  .byte  233,104,255,255,255                 // jmpq          25e95 <_sk_load_4444_dst_sse2+0x25>
   .byte  67,15,183,4,80                      // movzwl        (%r8,%r10,2),%eax
   .byte  102,15,110,248                      // movd          %eax,%xmm7
-  .byte  233,90,255,255,255                  // jmpq          1e859 <_sk_load_4444_dst_sse2+0x25>
+  .byte  233,90,255,255,255                  // jmpq          25e95 <_sk_load_4444_dst_sse2+0x25>
 
 HIDDEN _sk_gather_4444_sse2
 .globl _sk_gather_4444_sse2
@@ -39524,21 +46650,21 @@
   .byte  65,15,183,4,64                      // movzwl        (%r8,%rax,2),%eax
   .byte  102,15,196,216,3                    // pinsrw        $0x3,%eax,%xmm3
   .byte  102,65,15,97,216                    // punpcklwd     %xmm8,%xmm3
-  .byte  102,15,111,5,255,206,0,0            // movdqa        0xceff(%rip),%xmm0        # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+  .byte  102,15,111,5,67,207,0,0             // movdqa        0xcf43(%rip),%xmm0        # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
   .byte  102,15,219,195                      // pand          %xmm3,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  15,89,5,1,207,0,0                   // mulps         0xcf01(%rip),%xmm0        # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
-  .byte  102,15,111,13,9,207,0,0             // movdqa        0xcf09(%rip),%xmm1        # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+  .byte  15,89,5,69,207,0,0                  // mulps         0xcf45(%rip),%xmm0        # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+  .byte  102,15,111,13,77,207,0,0            // movdqa        0xcf4d(%rip),%xmm1        # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
   .byte  102,15,219,203                      // pand          %xmm3,%xmm1
   .byte  15,91,201                           // cvtdq2ps      %xmm1,%xmm1
-  .byte  15,89,13,11,207,0,0                 // mulps         0xcf0b(%rip),%xmm1        # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
-  .byte  102,15,111,21,19,207,0,0            // movdqa        0xcf13(%rip),%xmm2        # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+  .byte  15,89,13,79,207,0,0                 // mulps         0xcf4f(%rip),%xmm1        # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+  .byte  102,15,111,21,87,207,0,0            // movdqa        0xcf57(%rip),%xmm2        # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
   .byte  102,15,219,211                      // pand          %xmm3,%xmm2
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
-  .byte  15,89,21,21,207,0,0                 // mulps         0xcf15(%rip),%xmm2        # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
-  .byte  102,15,219,29,29,207,0,0            // pand          0xcf1d(%rip),%xmm3        # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+  .byte  15,89,21,89,207,0,0                 // mulps         0xcf59(%rip),%xmm2        # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+  .byte  102,15,219,29,97,207,0,0            // pand          0xcf61(%rip),%xmm3        # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
   .byte  15,91,219                           // cvtdq2ps      %xmm3,%xmm3
-  .byte  15,89,29,35,207,0,0                 // mulps         0xcf23(%rip),%xmm3        # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+  .byte  15,89,29,103,207,0,0                // mulps         0xcf67(%rip),%xmm3        # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
 
@@ -39553,7 +46679,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  76,99,210                           // movslq        %edx,%r10
-  .byte  68,15,40,5,17,207,0,0               // movaps        0xcf11(%rip),%xmm8        # 2b940 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+  .byte  68,15,40,5,85,207,0,0               // movaps        0xcf55(%rip),%xmm8        # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -39575,7 +46701,7 @@
   .byte  102,65,15,114,224,16                // psrad         $0x10,%xmm8
   .byte  102,68,15,107,192                   // packssdw      %xmm0,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           1eaa0 <_sk_store_4444_sse2+0x8f>
+  .byte  117,10                              // jne           260dc <_sk_store_4444_sse2+0x8f>
   .byte  102,71,15,214,4,80                  // movq          %xmm8,(%r8,%r10,2)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -39583,19 +46709,19 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,38                              // je            1ead8 <_sk_store_4444_sse2+0xc7>
+  .byte  116,38                              // je            26114 <_sk_store_4444_sse2+0xc7>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,18                              // je            1eaca <_sk_store_4444_sse2+0xb9>
+  .byte  116,18                              // je            26106 <_sk_store_4444_sse2+0xb9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,222                             // jne           1ea9c <_sk_store_4444_sse2+0x8b>
+  .byte  117,222                             // jne           260d8 <_sk_store_4444_sse2+0x8b>
   .byte  102,65,15,197,192,4                 // pextrw        $0x4,%xmm8,%eax
   .byte  102,67,137,68,80,4                  // mov           %ax,0x4(%r8,%r10,2)
   .byte  242,69,15,112,192,232               // pshuflw       $0xe8,%xmm8,%xmm8
   .byte  102,71,15,126,4,80                  // movd          %xmm8,(%r8,%r10,2)
-  .byte  235,196                             // jmp           1ea9c <_sk_store_4444_sse2+0x8b>
+  .byte  235,196                             // jmp           260d8 <_sk_store_4444_sse2+0x8b>
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  102,67,137,4,80                     // mov           %ax,(%r8,%r10,2)
-  .byte  235,184                             // jmp           1ea9c <_sk_store_4444_sse2+0x8b>
+  .byte  235,184                             // jmp           260d8 <_sk_store_4444_sse2+0x8b>
 
 HIDDEN _sk_load_8888_sse2
 .globl _sk_load_8888_sse2
@@ -39609,13 +46735,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1eb62 <_sk_load_8888_sse2+0x7e>
+  .byte  117,98                              // jne           2619e <_sk_load_8888_sse2+0x7e>
   .byte  243,69,15,111,12,128                // movdqu        (%r8,%rax,4),%xmm9
-  .byte  102,15,111,21,50,202,0,0            // movdqa        0xca32(%rip),%xmm2        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,21,118,202,0,0           // movdqa        0xca76(%rip),%xmm2        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,110,203,0,0              // movaps        0xcb6e(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,178,203,0,0              // movaps        0xcbb2(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -39635,18 +46761,18 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,41                              // je            1eb98 <_sk_load_8888_sse2+0xb4>
+  .byte  116,41                              // je            261d4 <_sk_load_8888_sse2+0xb4>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1eb8d <_sk_load_8888_sse2+0xa9>
+  .byte  116,19                              // je            261c9 <_sk_load_8888_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,134                             // jne           1eb06 <_sk_load_8888_sse2+0x22>
+  .byte  117,134                             // jne           26142 <_sk_load_8888_sse2+0x22>
   .byte  102,65,15,110,68,128,8              // movd          0x8(%r8,%rax,4),%xmm0
   .byte  102,68,15,112,200,69                // pshufd        $0x45,%xmm0,%xmm9
   .byte  102,69,15,18,12,128                 // movlpd        (%r8,%rax,4),%xmm9
-  .byte  233,110,255,255,255                 // jmpq          1eb06 <_sk_load_8888_sse2+0x22>
+  .byte  233,110,255,255,255                 // jmpq          26142 <_sk_load_8888_sse2+0x22>
   .byte  102,69,15,110,12,128                // movd          (%r8,%rax,4),%xmm9
-  .byte  233,99,255,255,255                  // jmpq          1eb06 <_sk_load_8888_sse2+0x22>
+  .byte  233,99,255,255,255                  // jmpq          26142 <_sk_load_8888_sse2+0x22>
 
 HIDDEN _sk_load_8888_dst_sse2
 .globl _sk_load_8888_dst_sse2
@@ -39660,13 +46786,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1ec21 <_sk_load_8888_dst_sse2+0x7e>
+  .byte  117,98                              // jne           2625d <_sk_load_8888_dst_sse2+0x7e>
   .byte  243,69,15,111,12,128                // movdqu        (%r8,%rax,4),%xmm9
-  .byte  102,15,111,53,115,201,0,0           // movdqa        0xc973(%rip),%xmm6        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,53,183,201,0,0           // movdqa        0xc9b7(%rip),%xmm6        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,225                   // movdqa        %xmm9,%xmm4
   .byte  102,15,219,230                      // pand          %xmm6,%xmm4
   .byte  15,91,228                           // cvtdq2ps      %xmm4,%xmm4
-  .byte  68,15,40,5,175,202,0,0              // movaps        0xcaaf(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,243,202,0,0              // movaps        0xcaf3(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,224                        // mulps         %xmm8,%xmm4
   .byte  102,65,15,111,233                   // movdqa        %xmm9,%xmm5
   .byte  102,15,114,213,8                    // psrld         $0x8,%xmm5
@@ -39686,18 +46812,18 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,41                              // je            1ec57 <_sk_load_8888_dst_sse2+0xb4>
+  .byte  116,41                              // je            26293 <_sk_load_8888_dst_sse2+0xb4>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1ec4c <_sk_load_8888_dst_sse2+0xa9>
+  .byte  116,19                              // je            26288 <_sk_load_8888_dst_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,134                             // jne           1ebc5 <_sk_load_8888_dst_sse2+0x22>
+  .byte  117,134                             // jne           26201 <_sk_load_8888_dst_sse2+0x22>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,68,15,112,204,69                // pshufd        $0x45,%xmm4,%xmm9
   .byte  102,69,15,18,12,128                 // movlpd        (%r8,%rax,4),%xmm9
-  .byte  233,110,255,255,255                 // jmpq          1ebc5 <_sk_load_8888_dst_sse2+0x22>
+  .byte  233,110,255,255,255                 // jmpq          26201 <_sk_load_8888_dst_sse2+0x22>
   .byte  102,69,15,110,12,128                // movd          (%r8,%rax,4),%xmm9
-  .byte  233,99,255,255,255                  // jmpq          1ebc5 <_sk_load_8888_dst_sse2+0x22>
+  .byte  233,99,255,255,255                  // jmpq          26201 <_sk_load_8888_dst_sse2+0x22>
 
 HIDDEN _sk_gather_8888_sse2
 .globl _sk_gather_8888_sse2
@@ -39743,11 +46869,11 @@
   .byte  102,67,15,110,12,136                // movd          (%r8,%r9,4),%xmm1
   .byte  102,15,98,200                       // punpckldq     %xmm0,%xmm1
   .byte  102,68,15,108,201                   // punpcklqdq    %xmm1,%xmm9
-  .byte  102,15,111,21,38,200,0,0            // movdqa        0xc826(%rip),%xmm2        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,21,106,200,0,0           // movdqa        0xc86a(%rip),%xmm2        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,219,194                      // pand          %xmm2,%xmm0
   .byte  15,91,192                           // cvtdq2ps      %xmm0,%xmm0
-  .byte  68,15,40,5,98,201,0,0               // movaps        0xc962(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,166,201,0,0              // movaps        0xc9a6(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -39776,7 +46902,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,227,199,0,0              // movaps        0xc7e3(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,39,200,0,0               // movaps        0xc827(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -39795,24 +46921,24 @@
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           1eded <_sk_store_8888_sse2+0x7f>
+  .byte  117,10                              // jne           26429 <_sk_store_8888_sse2+0x7f>
   .byte  243,69,15,127,4,128                 // movdqu        %xmm8,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,33                              // je            1ee1b <_sk_store_8888_sse2+0xad>
+  .byte  116,33                              // je            26457 <_sk_store_8888_sse2+0xad>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1ee13 <_sk_store_8888_sse2+0xa5>
+  .byte  116,19                              // je            2644f <_sk_store_8888_sse2+0xa5>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,227                             // jne           1ede9 <_sk_store_8888_sse2+0x7b>
+  .byte  117,227                             // jne           26425 <_sk_store_8888_sse2+0x7b>
   .byte  102,69,15,112,200,78                // pshufd        $0x4e,%xmm8,%xmm9
   .byte  102,69,15,126,76,128,8              // movd          %xmm9,0x8(%r8,%rax,4)
   .byte  102,69,15,214,4,128                 // movq          %xmm8,(%r8,%rax,4)
-  .byte  235,206                             // jmp           1ede9 <_sk_store_8888_sse2+0x7b>
+  .byte  235,206                             // jmp           26425 <_sk_store_8888_sse2+0x7b>
   .byte  102,69,15,126,4,128                 // movd          %xmm8,(%r8,%rax,4)
-  .byte  235,198                             // jmp           1ede9 <_sk_store_8888_sse2+0x7b>
+  .byte  235,198                             // jmp           26425 <_sk_store_8888_sse2+0x7b>
 
 HIDDEN _sk_load_bgra_sse2
 .globl _sk_load_bgra_sse2
@@ -39826,13 +46952,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1eea1 <_sk_load_bgra_sse2+0x7e>
+  .byte  117,98                              // jne           264dd <_sk_load_bgra_sse2+0x7e>
   .byte  243,69,15,111,12,128                // movdqu        (%r8,%rax,4),%xmm9
-  .byte  102,15,111,5,243,198,0,0            // movdqa        0xc6f3(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,55,199,0,0             // movdqa        0xc737(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,219,200                      // pand          %xmm0,%xmm1
   .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  68,15,40,5,47,200,0,0               // movaps        0xc82f(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,115,200,0,0              // movaps        0xc873(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -39852,18 +46978,18 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,41                              // je            1eed7 <_sk_load_bgra_sse2+0xb4>
+  .byte  116,41                              // je            26513 <_sk_load_bgra_sse2+0xb4>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1eecc <_sk_load_bgra_sse2+0xa9>
+  .byte  116,19                              // je            26508 <_sk_load_bgra_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,134                             // jne           1ee45 <_sk_load_bgra_sse2+0x22>
+  .byte  117,134                             // jne           26481 <_sk_load_bgra_sse2+0x22>
   .byte  102,65,15,110,68,128,8              // movd          0x8(%r8,%rax,4),%xmm0
   .byte  102,68,15,112,200,69                // pshufd        $0x45,%xmm0,%xmm9
   .byte  102,69,15,18,12,128                 // movlpd        (%r8,%rax,4),%xmm9
-  .byte  233,110,255,255,255                 // jmpq          1ee45 <_sk_load_bgra_sse2+0x22>
+  .byte  233,110,255,255,255                 // jmpq          26481 <_sk_load_bgra_sse2+0x22>
   .byte  102,69,15,110,12,128                // movd          (%r8,%rax,4),%xmm9
-  .byte  233,99,255,255,255                  // jmpq          1ee45 <_sk_load_bgra_sse2+0x22>
+  .byte  233,99,255,255,255                  // jmpq          26481 <_sk_load_bgra_sse2+0x22>
 
 HIDDEN _sk_load_bgra_dst_sse2
 .globl _sk_load_bgra_dst_sse2
@@ -39877,13 +47003,13 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,98                              // jne           1ef60 <_sk_load_bgra_dst_sse2+0x7e>
+  .byte  117,98                              // jne           2659c <_sk_load_bgra_dst_sse2+0x7e>
   .byte  243,69,15,111,12,128                // movdqu        (%r8,%rax,4),%xmm9
-  .byte  102,15,111,37,52,198,0,0            // movdqa        0xc634(%rip),%xmm4        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,37,120,198,0,0           // movdqa        0xc678(%rip),%xmm4        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,233                   // movdqa        %xmm9,%xmm5
   .byte  102,15,219,236                      // pand          %xmm4,%xmm5
   .byte  15,91,245                           // cvtdq2ps      %xmm5,%xmm6
-  .byte  68,15,40,5,112,199,0,0              // movaps        0xc770(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,180,199,0,0              // movaps        0xc7b4(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,240                        // mulps         %xmm8,%xmm6
   .byte  102,65,15,111,233                   // movdqa        %xmm9,%xmm5
   .byte  102,15,114,213,8                    // psrld         $0x8,%xmm5
@@ -39903,18 +47029,18 @@
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,41                              // je            1ef96 <_sk_load_bgra_dst_sse2+0xb4>
+  .byte  116,41                              // je            265d2 <_sk_load_bgra_dst_sse2+0xb4>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1ef8b <_sk_load_bgra_dst_sse2+0xa9>
+  .byte  116,19                              // je            265c7 <_sk_load_bgra_dst_sse2+0xa9>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,134                             // jne           1ef04 <_sk_load_bgra_dst_sse2+0x22>
+  .byte  117,134                             // jne           26540 <_sk_load_bgra_dst_sse2+0x22>
   .byte  102,65,15,110,100,128,8             // movd          0x8(%r8,%rax,4),%xmm4
   .byte  102,68,15,112,204,69                // pshufd        $0x45,%xmm4,%xmm9
   .byte  102,69,15,18,12,128                 // movlpd        (%r8,%rax,4),%xmm9
-  .byte  233,110,255,255,255                 // jmpq          1ef04 <_sk_load_bgra_dst_sse2+0x22>
+  .byte  233,110,255,255,255                 // jmpq          26540 <_sk_load_bgra_dst_sse2+0x22>
   .byte  102,69,15,110,12,128                // movd          (%r8,%rax,4),%xmm9
-  .byte  233,99,255,255,255                  // jmpq          1ef04 <_sk_load_bgra_dst_sse2+0x22>
+  .byte  233,99,255,255,255                  // jmpq          26540 <_sk_load_bgra_dst_sse2+0x22>
 
 HIDDEN _sk_gather_bgra_sse2
 .globl _sk_gather_bgra_sse2
@@ -39960,11 +47086,11 @@
   .byte  102,67,15,110,12,136                // movd          (%r8,%r9,4),%xmm1
   .byte  102,15,98,200                       // punpckldq     %xmm0,%xmm1
   .byte  102,68,15,108,201                   // punpcklqdq    %xmm1,%xmm9
-  .byte  102,15,111,5,231,196,0,0            // movdqa        0xc4e7(%rip),%xmm0        # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+  .byte  102,15,111,5,43,197,0,0             // movdqa        0xc52b(%rip),%xmm0        # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,219,200                      // pand          %xmm0,%xmm1
   .byte  15,91,209                           // cvtdq2ps      %xmm1,%xmm2
-  .byte  68,15,40,5,35,198,0,0               // movaps        0xc623(%rip),%xmm8        # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+  .byte  68,15,40,5,103,198,0,0              // movaps        0xc667(%rip),%xmm8        # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
   .byte  65,15,89,208                        // mulps         %xmm8,%xmm2
   .byte  102,65,15,111,201                   // movdqa        %xmm9,%xmm1
   .byte  102,15,114,209,8                    // psrld         $0x8,%xmm1
@@ -39993,7 +47119,7 @@
   .byte  73,193,224,2                        // shl           $0x2,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
-  .byte  68,15,40,5,164,196,0,0              // movaps        0xc4a4(%rip),%xmm8        # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+  .byte  68,15,40,5,232,196,0,0              // movaps        0xc4e8(%rip),%xmm8        # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
   .byte  68,15,40,202                        // movaps        %xmm2,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  102,69,15,91,201                    // cvtps2dq      %xmm9,%xmm9
@@ -40012,24 +47138,24 @@
   .byte  102,69,15,235,193                   // por           %xmm9,%xmm8
   .byte  102,69,15,235,194                   // por           %xmm10,%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,10                              // jne           1f12c <_sk_store_bgra_sse2+0x7f>
+  .byte  117,10                              // jne           26768 <_sk_store_bgra_sse2+0x7f>
   .byte  243,69,15,127,4,128                 // movdqu        %xmm8,(%r8,%rax,4)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,137,249                          // mov           %edi,%r9d
   .byte  65,128,225,3                        // and           $0x3,%r9b
   .byte  65,128,249,1                        // cmp           $0x1,%r9b
-  .byte  116,33                              // je            1f15a <_sk_store_bgra_sse2+0xad>
+  .byte  116,33                              // je            26796 <_sk_store_bgra_sse2+0xad>
   .byte  65,128,249,2                        // cmp           $0x2,%r9b
-  .byte  116,19                              // je            1f152 <_sk_store_bgra_sse2+0xa5>
+  .byte  116,19                              // je            2678e <_sk_store_bgra_sse2+0xa5>
   .byte  65,128,249,3                        // cmp           $0x3,%r9b
-  .byte  117,227                             // jne           1f128 <_sk_store_bgra_sse2+0x7b>
+  .byte  117,227                             // jne           26764 <_sk_store_bgra_sse2+0x7b>
   .byte  102,69,15,112,200,78                // pshufd        $0x4e,%xmm8,%xmm9
   .byte  102,69,15,126,76,128,8              // movd          %xmm9,0x8(%r8,%rax,4)
   .byte  102,69,15,214,4,128                 // movq          %xmm8,(%r8,%rax,4)
-  .byte  235,206                             // jmp           1f128 <_sk_store_bgra_sse2+0x7b>
+  .byte  235,206                             // jmp           26764 <_sk_store_bgra_sse2+0x7b>
   .byte  102,69,15,126,4,128                 // movd          %xmm8,(%r8,%rax,4)
-  .byte  235,198                             // jmp           1f128 <_sk_store_bgra_sse2+0x7b>
+  .byte  235,198                             // jmp           26764 <_sk_store_bgra_sse2+0x7b>
 
 HIDDEN _sk_load_f16_sse2
 .globl _sk_load_f16_sse2
@@ -40043,7 +47169,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,47,1,0,0                     // jne           1f2b1 <_sk_load_f16_sse2+0x14f>
+  .byte  15,133,47,1,0,0                     // jne           268ed <_sk_load_f16_sse2+0x14f>
   .byte  102,65,15,16,4,192                  // movupd        (%r8,%rax,8),%xmm0
   .byte  243,65,15,111,76,192,16             // movdqu        0x10(%r8,%rax,8),%xmm1
   .byte  102,68,15,40,192                    // movapd        %xmm0,%xmm8
@@ -40055,18 +47181,18 @@
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,97,202                    // punpcklwd     %xmm10,%xmm1
-  .byte  102,68,15,111,13,142,199,0,0        // movdqa        0xc78e(%rip),%xmm9        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,13,210,199,0,0        // movdqa        0xc7d2(%rip),%xmm9        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,68,15,111,225                   // movdqa        %xmm1,%xmm12
   .byte  102,69,15,219,225                   // pand          %xmm9,%xmm12
-  .byte  102,68,15,111,29,139,199,0,0        // movdqa        0xc78b(%rip),%xmm11        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,29,207,199,0,0        // movdqa        0xc7cf(%rip),%xmm11        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,203                   // pand          %xmm11,%xmm1
-  .byte  102,15,111,29,142,199,0,0           // movdqa        0xc78e(%rip),%xmm3        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,29,210,199,0,0           // movdqa        0xc7d2(%rip),%xmm3        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,65,15,114,244,16                // pslld         $0x10,%xmm12
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
   .byte  102,15,102,193                      // pcmpgtd       %xmm1,%xmm0
   .byte  102,15,114,241,13                   // pslld         $0xd,%xmm1
   .byte  102,65,15,235,204                   // por           %xmm12,%xmm1
-  .byte  102,68,15,111,37,125,199,0,0        // movdqa        0xc77d(%rip),%xmm12        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,37,193,199,0,0        // movdqa        0xc7c1(%rip),%xmm12        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,204                   // paddd         %xmm12,%xmm1
   .byte  102,15,223,193                      // pandn         %xmm1,%xmm0
   .byte  102,65,15,105,210                   // punpckhwd     %xmm10,%xmm2
@@ -40105,16 +47231,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,4,192                  // movsd         (%r8,%rax,8),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1f2ca <_sk_load_f16_sse2+0x168>
+  .byte  117,13                              // jne           26906 <_sk_load_f16_sse2+0x168>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,197,254,255,255                 // jmpq          1f18f <_sk_load_f16_sse2+0x2d>
+  .byte  233,197,254,255,255                 // jmpq          267cb <_sk_load_f16_sse2+0x2d>
   .byte  102,65,15,22,68,192,8               // movhpd        0x8(%r8,%rax,8),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,176,254,255,255              // jb            1f18f <_sk_load_f16_sse2+0x2d>
+  .byte  15,130,176,254,255,255              // jb            267cb <_sk_load_f16_sse2+0x2d>
   .byte  243,65,15,126,76,192,16             // movq          0x10(%r8,%rax,8),%xmm1
-  .byte  233,164,254,255,255                 // jmpq          1f18f <_sk_load_f16_sse2+0x2d>
+  .byte  233,164,254,255,255                 // jmpq          267cb <_sk_load_f16_sse2+0x2d>
 
 HIDDEN _sk_load_f16_dst_sse2
 .globl _sk_load_f16_dst_sse2
@@ -40128,7 +47254,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,47,1,0,0                     // jne           1f43a <_sk_load_f16_dst_sse2+0x14f>
+  .byte  15,133,47,1,0,0                     // jne           26a76 <_sk_load_f16_dst_sse2+0x14f>
   .byte  102,65,15,16,36,192                 // movupd        (%r8,%rax,8),%xmm4
   .byte  243,65,15,111,108,192,16            // movdqu        0x10(%r8,%rax,8),%xmm5
   .byte  102,68,15,40,196                    // movapd        %xmm4,%xmm8
@@ -40140,18 +47266,18 @@
   .byte  102,69,15,239,210                   // pxor          %xmm10,%xmm10
   .byte  102,15,111,238                      // movdqa        %xmm6,%xmm5
   .byte  102,65,15,97,234                    // punpcklwd     %xmm10,%xmm5
-  .byte  102,68,15,111,13,5,198,0,0          // movdqa        0xc605(%rip),%xmm9        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,13,73,198,0,0         // movdqa        0xc649(%rip),%xmm9        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,68,15,111,229                   // movdqa        %xmm5,%xmm12
   .byte  102,69,15,219,225                   // pand          %xmm9,%xmm12
-  .byte  102,68,15,111,29,2,198,0,0          // movdqa        0xc602(%rip),%xmm11        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,29,70,198,0,0         // movdqa        0xc646(%rip),%xmm11        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,235                   // pand          %xmm11,%xmm5
-  .byte  102,15,111,61,5,198,0,0             // movdqa        0xc605(%rip),%xmm7        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,61,73,198,0,0            // movdqa        0xc649(%rip),%xmm7        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,65,15,114,244,16                // pslld         $0x10,%xmm12
   .byte  102,15,111,231                      // movdqa        %xmm7,%xmm4
   .byte  102,15,102,229                      // pcmpgtd       %xmm5,%xmm4
   .byte  102,15,114,245,13                   // pslld         $0xd,%xmm5
   .byte  102,65,15,235,236                   // por           %xmm12,%xmm5
-  .byte  102,68,15,111,37,244,197,0,0        // movdqa        0xc5f4(%rip),%xmm12        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,37,56,198,0,0         // movdqa        0xc638(%rip),%xmm12        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,236                   // paddd         %xmm12,%xmm5
   .byte  102,15,223,229                      // pandn         %xmm5,%xmm4
   .byte  102,65,15,105,242                   // punpckhwd     %xmm10,%xmm6
@@ -40190,16 +47316,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,36,192                 // movsd         (%r8,%rax,8),%xmm4
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1f453 <_sk_load_f16_dst_sse2+0x168>
+  .byte  117,13                              // jne           26a8f <_sk_load_f16_dst_sse2+0x168>
   .byte  243,15,126,228                      // movq          %xmm4,%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
-  .byte  233,197,254,255,255                 // jmpq          1f318 <_sk_load_f16_dst_sse2+0x2d>
+  .byte  233,197,254,255,255                 // jmpq          26954 <_sk_load_f16_dst_sse2+0x2d>
   .byte  102,65,15,22,100,192,8              // movhpd        0x8(%r8,%rax,8),%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,176,254,255,255              // jb            1f318 <_sk_load_f16_dst_sse2+0x2d>
+  .byte  15,130,176,254,255,255              // jb            26954 <_sk_load_f16_dst_sse2+0x2d>
   .byte  243,65,15,126,108,192,16            // movq          0x10(%r8,%rax,8),%xmm5
-  .byte  233,164,254,255,255                 // jmpq          1f318 <_sk_load_f16_dst_sse2+0x2d>
+  .byte  233,164,254,255,255                 // jmpq          26954 <_sk_load_f16_dst_sse2+0x2d>
 
 HIDDEN _sk_gather_f16_sse2
 .globl _sk_gather_f16_sse2
@@ -40253,18 +47379,18 @@
   .byte  102,68,15,105,201                   // punpckhwd     %xmm1,%xmm9
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,65,15,97,200                    // punpcklwd     %xmm8,%xmm1
-  .byte  102,68,15,111,21,3,196,0,0          // movdqa        0xc403(%rip),%xmm10        # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+  .byte  102,68,15,111,21,71,196,0,0         // movdqa        0xc447(%rip),%xmm10        # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
   .byte  102,68,15,111,225                   // movdqa        %xmm1,%xmm12
   .byte  102,69,15,219,226                   // pand          %xmm10,%xmm12
-  .byte  102,68,15,111,29,0,196,0,0          // movdqa        0xc400(%rip),%xmm11        # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+  .byte  102,68,15,111,29,68,196,0,0         // movdqa        0xc444(%rip),%xmm11        # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
   .byte  102,65,15,219,203                   // pand          %xmm11,%xmm1
-  .byte  102,15,111,29,3,196,0,0             // movdqa        0xc403(%rip),%xmm3        # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+  .byte  102,15,111,29,71,196,0,0            // movdqa        0xc447(%rip),%xmm3        # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
   .byte  102,65,15,114,244,16                // pslld         $0x10,%xmm12
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
   .byte  102,15,102,193                      // pcmpgtd       %xmm1,%xmm0
   .byte  102,15,114,241,13                   // pslld         $0xd,%xmm1
   .byte  102,65,15,235,204                   // por           %xmm12,%xmm1
-  .byte  102,68,15,111,37,242,195,0,0        // movdqa        0xc3f2(%rip),%xmm12        # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+  .byte  102,68,15,111,37,54,196,0,0         // movdqa        0xc436(%rip),%xmm12        # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
   .byte  102,65,15,254,204                   // paddd         %xmm12,%xmm1
   .byte  102,15,223,193                      // pandn         %xmm1,%xmm0
   .byte  102,65,15,105,208                   // punpckhwd     %xmm8,%xmm2
@@ -40307,19 +47433,19 @@
 FUNCTION(_sk_store_f16_sse2)
 _sk_store_f16_sse2:
   .byte  15,41,124,36,232                    // movaps        %xmm7,-0x18(%rsp)
-  .byte  102,68,15,111,29,70,195,0,0         // movdqa        0xc346(%rip),%xmm11        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+  .byte  102,68,15,111,29,138,195,0,0        // movdqa        0xc38a(%rip),%xmm11        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
   .byte  102,69,15,219,195                   // pand          %xmm11,%xmm8
-  .byte  102,68,15,111,21,67,195,0,0         // movdqa        0xc343(%rip),%xmm10        # 2b9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+  .byte  102,68,15,111,21,135,195,0,0        // movdqa        0xc387(%rip),%xmm10        # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
   .byte  102,68,15,111,240                   // movdqa        %xmm0,%xmm14
   .byte  102,69,15,219,242                   // pand          %xmm10,%xmm14
-  .byte  102,15,111,61,65,195,0,0            // movdqa        0xc341(%rip),%xmm7        # 2b9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
-  .byte  102,68,15,111,37,232,196,0,0        // movdqa        0xc4e8(%rip),%xmm12        # 2bb60 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+  .byte  102,15,111,61,133,195,0,0           // movdqa        0xc385(%rip),%xmm7        # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+  .byte  102,68,15,111,37,44,197,0,0         // movdqa        0xc52c(%rip),%xmm12        # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
   .byte  102,68,15,111,248                   // movdqa        %xmm0,%xmm15
   .byte  102,65,15,114,247,3                 // pslld         $0x3,%xmm15
   .byte  102,69,15,219,252                   // pand          %xmm12,%xmm15
   .byte  102,69,15,254,248                   // paddd         %xmm8,%xmm15
-  .byte  102,68,15,111,45,154,191,0,0        // movdqa        0xbf9a(%rip),%xmm13        # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+  .byte  102,68,15,111,45,222,191,0,0        // movdqa        0xbfde(%rip),%xmm13        # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
   .byte  102,69,15,254,253                   // paddd         %xmm13,%xmm15
   .byte  102,65,15,114,231,16                // psrad         $0x10,%xmm15
   .byte  102,68,15,111,199                   // movdqa        %xmm7,%xmm8
@@ -40375,7 +47501,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  72,99,194                           // movslq        %edx,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,37                              // jne           1f7c8 <_sk_store_f16_sse2+0x18c>
+  .byte  117,37                              // jne           26e04 <_sk_store_f16_sse2+0x18c>
   .byte  102,65,15,111,248                   // movdqa        %xmm8,%xmm7
   .byte  102,65,15,98,254                    // punpckldq     %xmm14,%xmm7
   .byte  243,65,15,127,60,192                // movdqu        %xmm7,(%r8,%rax,8)
@@ -40388,13 +47514,13 @@
   .byte  102,69,15,98,206                    // punpckldq     %xmm14,%xmm9
   .byte  102,69,15,214,12,192                // movq          %xmm9,(%r8,%rax,8)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,225                             // je            1f7bf <_sk_store_f16_sse2+0x183>
+  .byte  116,225                             // je            26dfb <_sk_store_f16_sse2+0x183>
   .byte  102,69,15,23,76,192,8               // movhpd        %xmm9,0x8(%r8,%rax,8)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,212                             // jb            1f7bf <_sk_store_f16_sse2+0x183>
+  .byte  114,212                             // jb            26dfb <_sk_store_f16_sse2+0x183>
   .byte  102,69,15,106,198                   // punpckhdq     %xmm14,%xmm8
   .byte  102,69,15,214,68,192,16             // movq          %xmm8,0x10(%r8,%rax,8)
-  .byte  235,198                             // jmp           1f7bf <_sk_store_f16_sse2+0x183>
+  .byte  235,198                             // jmp           26dfb <_sk_store_f16_sse2+0x183>
 
 HIDDEN _sk_load_u16_be_sse2
 .globl _sk_load_u16_be_sse2
@@ -40409,7 +47535,7 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,190,0,0,0                    // jne           1f8de <_sk_load_u16_be_sse2+0xe5>
+  .byte  15,133,190,0,0,0                    // jne           26f1a <_sk_load_u16_be_sse2+0xe5>
   .byte  102,65,15,16,4,64                   // movupd        (%r8,%rax,2),%xmm0
   .byte  243,65,15,111,76,64,16              // movdqu        0x10(%r8,%rax,2),%xmm1
   .byte  102,15,40,208                       // movapd        %xmm0,%xmm2
@@ -40426,7 +47552,7 @@
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,65,15,97,201                    // punpcklwd     %xmm9,%xmm1
   .byte  15,91,193                           // cvtdq2ps      %xmm1,%xmm0
-  .byte  68,15,40,5,175,190,0,0              // movaps        0xbeaf(%rip),%xmm8        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  68,15,40,5,243,190,0,0              // movaps        0xbef3(%rip),%xmm8        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -40454,16 +47580,16 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  242,65,15,16,4,64                   // movsd         (%r8,%rax,2),%xmm0
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1f8f7 <_sk_load_u16_be_sse2+0xfe>
+  .byte  117,13                              // jne           26f33 <_sk_load_u16_be_sse2+0xfe>
   .byte  243,15,126,192                      // movq          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
-  .byte  233,54,255,255,255                  // jmpq          1f82d <_sk_load_u16_be_sse2+0x34>
+  .byte  233,54,255,255,255                  // jmpq          26e69 <_sk_load_u16_be_sse2+0x34>
   .byte  102,65,15,22,68,64,8                // movhpd        0x8(%r8,%rax,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  15,130,33,255,255,255               // jb            1f82d <_sk_load_u16_be_sse2+0x34>
+  .byte  15,130,33,255,255,255               // jb            26e69 <_sk_load_u16_be_sse2+0x34>
   .byte  243,65,15,126,76,64,16              // movq          0x10(%r8,%rax,2),%xmm1
-  .byte  233,21,255,255,255                  // jmpq          1f82d <_sk_load_u16_be_sse2+0x34>
+  .byte  233,21,255,255,255                  // jmpq          26e69 <_sk_load_u16_be_sse2+0x34>
 
 HIDDEN _sk_load_rgb_u16_be_sse2
 .globl _sk_load_rgb_u16_be_sse2
@@ -40480,7 +47606,7 @@
   .byte  72,141,4,64                         // lea           (%rax,%rax,2),%rax
   .byte  72,193,248,32                       // sar           $0x20,%rax
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  15,133,175,0,0,0                    // jne           1f9f2 <_sk_load_rgb_u16_be_sse2+0xda>
+  .byte  15,133,175,0,0,0                    // jne           2702e <_sk_load_rgb_u16_be_sse2+0xda>
   .byte  243,65,15,111,20,64                 // movdqu        (%r8,%rax,2),%xmm2
   .byte  243,65,15,111,92,64,8               // movdqu        0x8(%r8,%rax,2),%xmm3
   .byte  102,15,115,219,4                    // psrldq        $0x4,%xmm3
@@ -40501,7 +47627,7 @@
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  102,65,15,97,200                    // punpcklwd     %xmm8,%xmm1
   .byte  15,91,193                           // cvtdq2ps      %xmm1,%xmm0
-  .byte  68,15,40,13,121,189,0,0             // movaps        0xbd79(%rip),%xmm9        # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+  .byte  68,15,40,13,189,189,0,0             // movaps        0xbdbd(%rip),%xmm9        # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
   .byte  65,15,89,193                        // mulps         %xmm9,%xmm0
   .byte  102,15,111,203                      // movdqa        %xmm3,%xmm1
   .byte  102,15,113,241,8                    // psllw         $0x8,%xmm1
@@ -40518,27 +47644,27 @@
   .byte  15,91,210                           // cvtdq2ps      %xmm2,%xmm2
   .byte  65,15,89,209                        // mulps         %xmm9,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,160,186,0,0                // movaps        0xbaa0(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,228,186,0,0                // movaps        0xbae4(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,20,64                 // movd          (%r8,%rax,2),%xmm2
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,84,64,4,2             // pinsrw        $0x2,0x4(%r8,%rax,2),%xmm2
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,13                              // jne           1fa17 <_sk_load_rgb_u16_be_sse2+0xff>
+  .byte  117,13                              // jne           27053 <_sk_load_rgb_u16_be_sse2+0xff>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
-  .byte  233,80,255,255,255                  // jmpq          1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+  .byte  233,80,255,255,255                  // jmpq          26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
   .byte  102,65,15,110,68,64,6               // movd          0x6(%r8,%rax,2),%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,68,64,10,2            // pinsrw        $0x2,0xa(%r8,%rax,2),%xmm0
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,24                              // jb            1fa48 <_sk_load_rgb_u16_be_sse2+0x130>
+  .byte  114,24                              // jb            27084 <_sk_load_rgb_u16_be_sse2+0x130>
   .byte  102,65,15,110,92,64,12              // movd          0xc(%r8,%rax,2),%xmm3
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,92,64,16,2            // pinsrw        $0x2,0x10(%r8,%rax,2),%xmm3
-  .byte  233,31,255,255,255                  // jmpq          1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+  .byte  233,31,255,255,255                  // jmpq          26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
-  .byte  233,22,255,255,255                  // jmpq          1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+  .byte  233,22,255,255,255                  // jmpq          26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
 
 HIDDEN _sk_store_u16_be_sse2
 .globl _sk_store_u16_be_sse2
@@ -40552,7 +47678,7 @@
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  73,99,193                           // movslq        %r9d,%rax
-  .byte  68,15,40,21,89,191,0,0              // movaps        0xbf59(%rip),%xmm10        # 2b9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+  .byte  68,15,40,21,157,191,0,0             // movaps        0xbf9d(%rip),%xmm10        # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
   .byte  68,15,40,192                        // movaps        %xmm0,%xmm8
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
   .byte  102,69,15,91,192                    // cvtps2dq      %xmm8,%xmm8
@@ -40597,7 +47723,7 @@
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
   .byte  102,69,15,98,209                    // punpckldq     %xmm9,%xmm10
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,21                              // jne           1fb71 <_sk_store_u16_be_sse2+0x120>
+  .byte  117,21                              // jne           271ad <_sk_store_u16_be_sse2+0x120>
   .byte  69,15,17,20,64                      // movups        %xmm10,(%r8,%rax,2)
   .byte  102,69,15,106,193                   // punpckhdq     %xmm9,%xmm8
   .byte  243,69,15,127,68,64,16              // movdqu        %xmm8,0x10(%r8,%rax,2)
@@ -40605,13 +47731,13 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,214,20,64                 // movq          %xmm10,(%r8,%rax,2)
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,240                             // je            1fb6d <_sk_store_u16_be_sse2+0x11c>
+  .byte  116,240                             // je            271a9 <_sk_store_u16_be_sse2+0x11c>
   .byte  102,69,15,23,84,64,8                // movhpd        %xmm10,0x8(%r8,%rax,2)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,227                             // jb            1fb6d <_sk_store_u16_be_sse2+0x11c>
+  .byte  114,227                             // jb            271a9 <_sk_store_u16_be_sse2+0x11c>
   .byte  102,69,15,106,193                   // punpckhdq     %xmm9,%xmm8
   .byte  102,69,15,214,68,64,16              // movq          %xmm8,0x10(%r8,%rax,2)
-  .byte  235,213                             // jmp           1fb6d <_sk_store_u16_be_sse2+0x11c>
+  .byte  235,213                             // jmp           271a9 <_sk_store_u16_be_sse2+0x11c>
 
 HIDDEN _sk_load_f32_sse2
 .globl _sk_load_f32_sse2
@@ -40627,7 +47753,7 @@
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  69,15,16,4,128                      // movups        (%r8,%rax,4),%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,66                              // jne           1fc03 <_sk_load_f32_sse2+0x6b>
+  .byte  117,66                              // jne           2723f <_sk_load_f32_sse2+0x6b>
   .byte  65,15,16,68,128,16                  // movups        0x10(%r8,%rax,4),%xmm0
   .byte  65,15,16,92,128,32                  // movups        0x20(%r8,%rax,4),%xmm3
   .byte  69,15,16,76,128,48                  // movups        0x30(%r8,%rax,4),%xmm9
@@ -40647,17 +47773,17 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,8                               // jne           1fc15 <_sk_load_f32_sse2+0x7d>
+  .byte  117,8                               // jne           27251 <_sk_load_f32_sse2+0x7d>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
-  .byte  235,190                             // jmp           1fbd3 <_sk_load_f32_sse2+0x3b>
+  .byte  235,190                             // jmp           2720f <_sk_load_f32_sse2+0x3b>
   .byte  65,15,16,68,128,16                  // movups        0x10(%r8,%rax,4),%xmm0
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,8                               // jb            1fc29 <_sk_load_f32_sse2+0x91>
+  .byte  114,8                               // jb            27265 <_sk_load_f32_sse2+0x91>
   .byte  65,15,16,92,128,32                  // movups        0x20(%r8,%rax,4),%xmm3
-  .byte  235,170                             // jmp           1fbd3 <_sk_load_f32_sse2+0x3b>
+  .byte  235,170                             // jmp           2720f <_sk_load_f32_sse2+0x3b>
   .byte  15,87,219                           // xorps         %xmm3,%xmm3
-  .byte  235,165                             // jmp           1fbd3 <_sk_load_f32_sse2+0x3b>
+  .byte  235,165                             // jmp           2720f <_sk_load_f32_sse2+0x3b>
 
 HIDDEN _sk_load_f32_dst_sse2
 .globl _sk_load_f32_dst_sse2
@@ -40673,7 +47799,7 @@
   .byte  73,99,193                           // movslq        %r9d,%rax
   .byte  69,15,16,4,128                      // movups        (%r8,%rax,4),%xmm8
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,66                              // jne           1fc99 <_sk_load_f32_dst_sse2+0x6b>
+  .byte  117,66                              // jne           272d5 <_sk_load_f32_dst_sse2+0x6b>
   .byte  65,15,16,100,128,16                 // movups        0x10(%r8,%rax,4),%xmm4
   .byte  65,15,16,124,128,32                 // movups        0x20(%r8,%rax,4),%xmm7
   .byte  69,15,16,76,128,48                  // movups        0x30(%r8,%rax,4),%xmm9
@@ -40693,17 +47819,17 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  69,15,87,201                        // xorps         %xmm9,%xmm9
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  117,8                               // jne           1fcab <_sk_load_f32_dst_sse2+0x7d>
+  .byte  117,8                               // jne           272e7 <_sk_load_f32_dst_sse2+0x7d>
   .byte  15,87,255                           // xorps         %xmm7,%xmm7
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
-  .byte  235,190                             // jmp           1fc69 <_sk_load_f32_dst_sse2+0x3b>
+  .byte  235,190                             // jmp           272a5 <_sk_load_f32_dst_sse2+0x3b>
   .byte  65,15,16,100,128,16                 // movups        0x10(%r8,%rax,4),%xmm4
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,8                               // jb            1fcbf <_sk_load_f32_dst_sse2+0x91>
+  .byte  114,8                               // jb            272fb <_sk_load_f32_dst_sse2+0x91>
   .byte  65,15,16,124,128,32                 // movups        0x20(%r8,%rax,4),%xmm7
-  .byte  235,170                             // jmp           1fc69 <_sk_load_f32_dst_sse2+0x3b>
+  .byte  235,170                             // jmp           272a5 <_sk_load_f32_dst_sse2+0x3b>
   .byte  15,87,255                           // xorps         %xmm7,%xmm7
-  .byte  235,165                             // jmp           1fc69 <_sk_load_f32_dst_sse2+0x3b>
+  .byte  235,165                             // jmp           272a5 <_sk_load_f32_dst_sse2+0x3b>
 
 HIDDEN _sk_store_f32_sse2
 .globl _sk_store_f32_sse2
@@ -40732,7 +47858,7 @@
   .byte  102,69,15,20,203                    // unpcklpd      %xmm11,%xmm9
   .byte  102,69,15,17,36,128                 // movupd        %xmm12,(%r8,%rax,4)
   .byte  72,133,255                          // test          %rdi,%rdi
-  .byte  117,29                              // jne           1fd41 <_sk_store_f32_sse2+0x7d>
+  .byte  117,29                              // jne           2737d <_sk_store_f32_sse2+0x7d>
   .byte  102,69,15,21,211                    // unpckhpd      %xmm11,%xmm10
   .byte  69,15,17,68,128,16                  // movups        %xmm8,0x10(%r8,%rax,4)
   .byte  102,69,15,17,76,128,32              // movupd        %xmm9,0x20(%r8,%rax,4)
@@ -40740,12 +47866,12 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  72,131,255,1                        // cmp           $0x1,%rdi
-  .byte  116,246                             // je            1fd3d <_sk_store_f32_sse2+0x79>
+  .byte  116,246                             // je            27379 <_sk_store_f32_sse2+0x79>
   .byte  69,15,17,68,128,16                  // movups        %xmm8,0x10(%r8,%rax,4)
   .byte  72,131,255,3                        // cmp           $0x3,%rdi
-  .byte  114,234                             // jb            1fd3d <_sk_store_f32_sse2+0x79>
+  .byte  114,234                             // jb            27379 <_sk_store_f32_sse2+0x79>
   .byte  102,69,15,17,76,128,32              // movupd        %xmm9,0x20(%r8,%rax,4)
-  .byte  235,225                             // jmp           1fd3d <_sk_store_f32_sse2+0x79>
+  .byte  235,225                             // jmp           27379 <_sk_store_f32_sse2+0x79>
 
 HIDDEN _sk_repeat_x_sse2
 .globl _sk_repeat_x_sse2
@@ -40759,7 +47885,7 @@
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,84,13,8,183,0,0               // andps         0xb708(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,76,183,0,0              // andps         0xb74c(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
@@ -40779,7 +47905,7 @@
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,84,13,199,182,0,0             // andps         0xb6c7(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,11,183,0,0              // andps         0xb70b(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  69,15,89,194                        // mulps         %xmm10,%xmm8
@@ -40799,13 +47925,13 @@
   .byte  65,15,92,194                        // subps         %xmm10,%xmm0
   .byte  243,69,15,88,192                    // addss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  243,68,15,89,13,121,180,0,0         // mulss         0xb479(%rip),%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,13,189,180,0,0         // mulss         0xb4bd(%rip),%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
   .byte  243,69,15,91,217                    // cvttps2dq     %xmm9,%xmm11
   .byte  69,15,91,219                        // cvtdq2ps      %xmm11,%xmm11
   .byte  69,15,194,203,1                     // cmpltps       %xmm11,%xmm9
-  .byte  68,15,84,13,102,182,0,0             // andps         0xb666(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,170,182,0,0             // andps         0xb6aa(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,87,228                        // xorps         %xmm12,%xmm12
   .byte  69,15,92,217                        // subps         %xmm9,%xmm11
   .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
@@ -40828,13 +47954,13 @@
   .byte  65,15,92,202                        // subps         %xmm10,%xmm1
   .byte  243,69,15,88,192                    // addss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
-  .byte  243,68,15,89,13,13,180,0,0          // mulss         0xb40d(%rip),%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,13,81,180,0,0          // mulss         0xb451(%rip),%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,89,201                        // mulps         %xmm1,%xmm9
   .byte  243,69,15,91,217                    // cvttps2dq     %xmm9,%xmm11
   .byte  69,15,91,219                        // cvtdq2ps      %xmm11,%xmm11
   .byte  69,15,194,203,1                     // cmpltps       %xmm11,%xmm9
-  .byte  68,15,84,13,250,181,0,0             // andps         0xb5fa(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,62,182,0,0              // andps         0xb63e(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,87,228                        // xorps         %xmm12,%xmm12
   .byte  69,15,92,217                        // subps         %xmm9,%xmm11
   .byte  69,15,89,216                        // mulps         %xmm8,%xmm11
@@ -40851,7 +47977,7 @@
 _sk_clamp_x_1_sse2:
   .byte  69,15,87,192                        // xorps         %xmm8,%xmm8
   .byte  68,15,95,192                        // maxps         %xmm0,%xmm8
-  .byte  68,15,93,5,202,181,0,0              // minps         0xb5ca(%rip),%xmm8        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,93,5,14,182,0,0               // minps         0xb60e(%rip),%xmm8        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  65,15,40,192                        // movaps        %xmm8,%xmm0
   .byte  255,224                             // jmpq          *%rax
@@ -40864,7 +47990,7 @@
   .byte  69,15,91,192                        // cvtdq2ps      %xmm8,%xmm8
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,194,200,1                     // cmpltps       %xmm8,%xmm9
-  .byte  68,15,84,13,168,181,0,0             // andps         0xb5a8(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,236,181,0,0             // andps         0xb5ec(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,193                        // subps         %xmm9,%xmm8
   .byte  65,15,92,192                        // subps         %xmm8,%xmm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -40874,14 +48000,14 @@
 .globl _sk_mirror_x_1_sse2
 FUNCTION(_sk_mirror_x_1_sse2)
 _sk_mirror_x_1_sse2:
-  .byte  68,15,40,5,244,181,0,0              // movaps        0xb5f4(%rip),%xmm8        # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+  .byte  68,15,40,5,56,182,0,0               // movaps        0xb638(%rip),%xmm8        # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,40,13,120,181,0,0             // movaps        0xb578(%rip),%xmm9        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,13,188,181,0,0             // movaps        0xb5bc(%rip),%xmm9        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,89,200                        // mulps         %xmm0,%xmm9
   .byte  243,69,15,91,209                    // cvttps2dq     %xmm9,%xmm10
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,84,13,110,181,0,0             // andps         0xb56e(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,84,13,178,181,0,0             // andps         0xb5b2(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,87,219                        // xorps         %xmm11,%xmm11
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,88,210                        // addps         %xmm10,%xmm10
@@ -40897,10 +48023,10 @@
 FUNCTION(_sk_luminance_to_alpha_sse2)
 _sk_luminance_to_alpha_sse2:
   .byte  15,40,218                           // movaps        %xmm2,%xmm3
-  .byte  15,89,5,148,186,0,0                 // mulps         0xba94(%rip),%xmm0        # 2b9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
-  .byte  15,89,13,157,186,0,0                // mulps         0xba9d(%rip),%xmm1        # 2b9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+  .byte  15,89,5,216,186,0,0                 // mulps         0xbad8(%rip),%xmm0        # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+  .byte  15,89,13,225,186,0,0                // mulps         0xbae1(%rip),%xmm1        # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
   .byte  15,88,200                           // addps         %xmm0,%xmm1
-  .byte  15,89,29,163,186,0,0                // mulps         0xbaa3(%rip),%xmm3        # 2ba00 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
+  .byte  15,89,29,231,186,0,0                // mulps         0xbae7(%rip),%xmm3        # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
   .byte  15,88,217                           // addps         %xmm1,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -41212,9 +48338,9 @@
   .byte  72,139,24                           // mov           (%rax),%rbx
   .byte  76,139,112,8                        // mov           0x8(%rax),%r14
   .byte  72,255,203                          // dec           %rbx
-  .byte  120,7                               // js            203fd <_sk_evenly_spaced_gradient_sse2+0x18>
+  .byte  120,7                               // js            27a39 <_sk_evenly_spaced_gradient_sse2+0x18>
   .byte  243,72,15,42,203                    // cvtsi2ss      %rbx,%xmm1
-  .byte  235,21                              // jmp           20412 <_sk_evenly_spaced_gradient_sse2+0x2d>
+  .byte  235,21                              // jmp           27a4e <_sk_evenly_spaced_gradient_sse2+0x2d>
   .byte  73,137,216                          // mov           %rbx,%r8
   .byte  73,209,232                          // shr           %r8
   .byte  131,227,1                           // and           $0x1,%ebx
@@ -41312,15 +48438,15 @@
 .globl _sk_gauss_a_to_rgba_sse2
 FUNCTION(_sk_gauss_a_to_rgba_sse2)
 _sk_gauss_a_to_rgba_sse2:
-  .byte  15,40,5,107,180,0,0                 // movaps        0xb46b(%rip),%xmm0        # 2ba10 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+  .byte  15,40,5,175,180,0,0                 // movaps        0xb4af(%rip),%xmm0        # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,113,180,0,0                 // addps         0xb471(%rip),%xmm0        # 2ba20 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+  .byte  15,88,5,181,180,0,0                 // addps         0xb4b5(%rip),%xmm0        # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,119,180,0,0                 // addps         0xb477(%rip),%xmm0        # 2ba30 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+  .byte  15,88,5,187,180,0,0                 // addps         0xb4bb(%rip),%xmm0        # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,125,180,0,0                 // addps         0xb47d(%rip),%xmm0        # 2ba40 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+  .byte  15,88,5,193,180,0,0                 // addps         0xb4c1(%rip),%xmm0        # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
   .byte  15,89,195                           // mulps         %xmm3,%xmm0
-  .byte  15,88,5,131,180,0,0                 // addps         0xb483(%rip),%xmm0        # 2ba50 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+  .byte  15,88,5,199,180,0,0                 // addps         0xb4c7(%rip),%xmm0        # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
@@ -41335,7 +48461,7 @@
   .byte  76,139,0                            // mov           (%rax),%r8
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  73,131,248,2                        // cmp           $0x2,%r8
-  .byte  114,41                              // jb            20612 <_sk_gradient_sse2+0x38>
+  .byte  114,41                              // jb            27c4e <_sk_gradient_sse2+0x38>
   .byte  76,139,72,72                        // mov           0x48(%rax),%r9
   .byte  73,255,200                          // dec           %r8
   .byte  73,131,193,4                        // add           $0x4,%r9
@@ -41346,7 +48472,7 @@
   .byte  102,15,250,202                      // psubd         %xmm2,%xmm1
   .byte  73,131,193,4                        // add           $0x4,%r9
   .byte  73,255,200                          // dec           %r8
-  .byte  117,230                             // jne           205f8 <_sk_gradient_sse2+0x1e>
+  .byte  117,230                             // jne           27c34 <_sk_gradient_sse2+0x1e>
   .byte  65,86                               // push          %r14
   .byte  83                                  // push          %rbx
   .byte  102,15,112,209,78                   // pshufd        $0x4e,%xmm1,%xmm2
@@ -41486,29 +48612,29 @@
   .byte  69,15,94,220                        // divps         %xmm12,%xmm11
   .byte  69,15,40,227                        // movaps        %xmm11,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
-  .byte  68,15,40,45,19,178,0,0              // movaps        0xb213(%rip),%xmm13        # 2ba60 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+  .byte  68,15,40,45,87,178,0,0              // movaps        0xb257(%rip),%xmm13        # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
   .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
-  .byte  68,15,88,45,23,178,0,0              // addps         0xb217(%rip),%xmm13        # 2ba70 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+  .byte  68,15,88,45,91,178,0,0              // addps         0xb25b(%rip),%xmm13        # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
   .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
-  .byte  68,15,88,45,27,178,0,0              // addps         0xb21b(%rip),%xmm13        # 2ba80 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+  .byte  68,15,88,45,95,178,0,0              // addps         0xb25f(%rip),%xmm13        # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
   .byte  69,15,89,236                        // mulps         %xmm12,%xmm13
-  .byte  68,15,88,45,31,178,0,0              // addps         0xb21f(%rip),%xmm13        # 2ba90 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+  .byte  68,15,88,45,99,178,0,0              // addps         0xb263(%rip),%xmm13        # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
   .byte  69,15,89,235                        // mulps         %xmm11,%xmm13
   .byte  69,15,194,202,1                     // cmpltps       %xmm10,%xmm9
-  .byte  68,15,40,21,30,178,0,0              // movaps        0xb21e(%rip),%xmm10        # 2baa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+  .byte  68,15,40,21,98,178,0,0              // movaps        0xb262(%rip),%xmm10        # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
   .byte  69,15,92,213                        // subps         %xmm13,%xmm10
   .byte  69,15,84,209                        // andps         %xmm9,%xmm10
   .byte  69,15,85,205                        // andnps        %xmm13,%xmm9
   .byte  69,15,86,202                        // orps          %xmm10,%xmm9
   .byte  68,15,194,192,1                     // cmpltps       %xmm0,%xmm8
-  .byte  68,15,40,21,225,171,0,0             // movaps        0xabe1(%rip),%xmm10        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,21,37,172,0,0              // movaps        0xac25(%rip),%xmm10        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,92,209                        // subps         %xmm9,%xmm10
   .byte  69,15,84,208                        // andps         %xmm8,%xmm10
   .byte  69,15,85,193                        // andnps        %xmm9,%xmm8
   .byte  69,15,86,194                        // orps          %xmm10,%xmm8
   .byte  68,15,40,201                        // movaps        %xmm1,%xmm9
   .byte  68,15,194,200,1                     // cmpltps       %xmm0,%xmm9
-  .byte  68,15,40,21,208,171,0,0             // movaps        0xabd0(%rip),%xmm10        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,21,20,172,0,0              // movaps        0xac14(%rip),%xmm10        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,208                        // subps         %xmm8,%xmm10
   .byte  69,15,84,209                        // andps         %xmm9,%xmm10
   .byte  69,15,85,200                        // andnps        %xmm8,%xmm9
@@ -41543,7 +48669,7 @@
   .byte  243,69,15,89,203                    // mulss         %xmm11,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,135,177,0,0             // mulps         0xb187(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,203,177,0,0             // mulps         0xb1cb(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
@@ -41551,7 +48677,7 @@
   .byte  243,69,15,89,219                    // mulss         %xmm11,%xmm11
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,89,21,114,177,0,0             // mulps         0xb172(%rip),%xmm10        # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+  .byte  68,15,89,21,182,177,0,0             // mulps         0xb1b6(%rip),%xmm10        # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
   .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
@@ -41560,8 +48686,8 @@
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,92,193                        // subps         %xmm9,%xmm0
-  .byte  68,15,87,13,26,176,0,0              // xorps         0xb01a(%rip),%xmm9        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
-  .byte  68,15,89,5,2,171,0,0                // mulps         0xab02(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,87,13,94,176,0,0              // xorps         0xb05e(%rip),%xmm9        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+  .byte  68,15,89,5,70,171,0,0               // mulps         0xab46(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
@@ -41582,7 +48708,7 @@
   .byte  243,69,15,89,203                    // mulss         %xmm11,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,233,176,0,0             // mulps         0xb0e9(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,45,177,0,0              // mulps         0xb12d(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,225                        // movaps        %xmm1,%xmm12
   .byte  69,15,89,228                        // mulps         %xmm12,%xmm12
@@ -41590,7 +48716,7 @@
   .byte  243,69,15,89,219                    // mulss         %xmm11,%xmm11
   .byte  69,15,198,219,0                     // shufps        $0x0,%xmm11,%xmm11
   .byte  69,15,92,227                        // subps         %xmm11,%xmm12
-  .byte  68,15,89,21,212,176,0,0             // mulps         0xb0d4(%rip),%xmm10        # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+  .byte  68,15,89,21,24,177,0,0              // mulps         0xb118(%rip),%xmm10        # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
   .byte  69,15,89,212                        // mulps         %xmm12,%xmm10
   .byte  65,15,40,193                        // movaps        %xmm9,%xmm0
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
@@ -41599,8 +48725,8 @@
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,40,194                        // movaps        %xmm10,%xmm0
   .byte  65,15,92,193                        // subps         %xmm9,%xmm0
-  .byte  68,15,87,13,124,175,0,0             // xorps         0xaf7c(%rip),%xmm9        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
-  .byte  68,15,89,5,100,170,0,0              // mulps         0xaa64(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,87,13,192,175,0,0             // xorps         0xafc0(%rip),%xmm9        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+  .byte  68,15,89,5,168,170,0,0              // mulps         0xaaa8(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  65,15,89,192                        // mulps         %xmm8,%xmm0
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
@@ -41618,7 +48744,7 @@
   .byte  243,69,15,89,200                    // mulss         %xmm8,%xmm9
   .byte  69,15,198,201,0                     // shufps        $0x0,%xmm9,%xmm9
   .byte  68,15,88,200                        // addps         %xmm0,%xmm9
-  .byte  68,15,89,13,92,176,0,0              // mulps         0xb05c(%rip),%xmm9        # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+  .byte  68,15,89,13,160,176,0,0             // mulps         0xb0a0(%rip),%xmm9        # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
   .byte  15,89,192                           // mulps         %xmm0,%xmm0
   .byte  68,15,40,209                        // movaps        %xmm1,%xmm10
   .byte  69,15,89,210                        // mulps         %xmm10,%xmm10
@@ -41626,7 +48752,7 @@
   .byte  243,69,15,89,192                    // mulss         %xmm8,%xmm8
   .byte  69,15,198,192,0                     // shufps        $0x0,%xmm8,%xmm8
   .byte  65,15,92,192                        // subps         %xmm8,%xmm0
-  .byte  15,87,5,24,175,0,0                  // xorps         0xaf18(%rip),%xmm0        # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+  .byte  15,87,5,92,175,0,0                  // xorps         0xaf5c(%rip),%xmm0        # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
   .byte  65,15,94,193                        // divps         %xmm9,%xmm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41672,7 +48798,7 @@
 FUNCTION(_sk_save_xy_sse2)
 _sk_save_xy_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,143,169,0,0              // movaps        0xa98f(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,211,169,0,0              // movaps        0xa9d3(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,17,0                             // movups        %xmm0,(%rax)
   .byte  68,15,40,200                        // movaps        %xmm0,%xmm9
   .byte  69,15,88,200                        // addps         %xmm8,%xmm9
@@ -41680,7 +48806,7 @@
   .byte  69,15,91,210                        // cvtdq2ps      %xmm10,%xmm10
   .byte  69,15,40,217                        // movaps        %xmm9,%xmm11
   .byte  69,15,194,218,1                     // cmpltps       %xmm10,%xmm11
-  .byte  68,15,40,37,122,169,0,0             // movaps        0xa97a(%rip),%xmm12        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  68,15,40,37,190,169,0,0             // movaps        0xa9be(%rip),%xmm12        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,84,220                        // andps         %xmm12,%xmm11
   .byte  69,15,92,211                        // subps         %xmm11,%xmm10
   .byte  69,15,92,202                        // subps         %xmm10,%xmm9
@@ -41727,8 +48853,8 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,35,175,0,0                  // addps         0xaf23(%rip),%xmm0        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,219,168,0,0             // movaps        0xa8db(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,103,175,0,0                 // addps         0xaf67(%rip),%xmm0        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,31,169,0,0              // movaps        0xa91f(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -41741,7 +48867,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,170,168,0,0                 // addps         0xa8aa(%rip),%xmm0        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,5,238,168,0,0                 // addps         0xa8ee(%rip),%xmm0        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41753,8 +48879,8 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,220,174,0,0                // addps         0xaedc(%rip),%xmm1        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,148,168,0,0             // movaps        0xa894(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,32,175,0,0                 // addps         0xaf20(%rip),%xmm1        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,216,168,0,0             // movaps        0xa8d8(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -41767,7 +48893,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,98,168,0,0                 // addps         0xa862(%rip),%xmm1        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  15,88,13,166,168,0,0                // addps         0xa8a6(%rip),%xmm1        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41779,13 +48905,13 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,165,174,0,0                 // addps         0xaea5(%rip),%xmm0        # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
-  .byte  68,15,40,13,77,168,0,0              // movaps        0xa84d(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,233,174,0,0                 // addps         0xaee9(%rip),%xmm0        # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+  .byte  68,15,40,13,145,168,0,0             // movaps        0xa891(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  68,15,89,13,153,174,0,0             // mulps         0xae99(%rip),%xmm9        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,13,33,170,0,0              // addps         0xaa21(%rip),%xmm9        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,13,221,174,0,0             // mulps         0xaedd(%rip),%xmm9        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,13,101,170,0,0             // addps         0xaa65(%rip),%xmm9        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,128,0,0,0              // movups        %xmm9,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -41798,16 +48924,16 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,80,174,0,0                  // addps         0xae50(%rip),%xmm0        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,8,168,0,0               // movaps        0xa808(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,5,148,174,0,0                 // addps         0xae94(%rip),%xmm0        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,76,168,0,0              // movaps        0xa84c(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
-  .byte  68,15,40,5,108,174,0,0              // movaps        0xae6c(%rip),%xmm8        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,5,176,174,0,0              // movaps        0xaeb0(%rip),%xmm8        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,112,174,0,0              // addps         0xae70(%rip),%xmm8        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,5,180,174,0,0              // addps         0xaeb4(%rip),%xmm8        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,212,167,0,0              // addps         0xa7d4(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,88,5,24,168,0,0               // addps         0xa818(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,104,174,0,0              // addps         0xae68(%rip),%xmm8        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,5,172,174,0,0              // addps         0xaeac(%rip),%xmm8        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41817,17 +48943,17 @@
 FUNCTION(_sk_bicubic_p1x_sse2)
 _sk_bicubic_p1x_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,178,167,0,0              // movaps        0xa7b2(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,246,167,0,0              // movaps        0xa7f6(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,72,64                      // movups        0x40(%rax),%xmm9
   .byte  65,15,88,192                        // addps         %xmm8,%xmm0
-  .byte  68,15,40,21,30,174,0,0              // movaps        0xae1e(%rip),%xmm10        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,21,98,174,0,0              // movaps        0xae62(%rip),%xmm10        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,34,174,0,0              // addps         0xae22(%rip),%xmm10        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,21,102,174,0,0             // addps         0xae66(%rip),%xmm10        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,30,174,0,0              // addps         0xae1e(%rip),%xmm10        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,21,98,174,0,0              // addps         0xae62(%rip),%xmm10        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,144,128,0,0,0              // movups        %xmm10,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41839,11 +48965,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,0                             // movups        (%rax),%xmm0
   .byte  68,15,16,64,64                      // movups        0x40(%rax),%xmm8
-  .byte  15,88,5,241,173,0,0                 // addps         0xadf1(%rip),%xmm0        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  15,88,5,53,174,0,0                  // addps         0xae35(%rip),%xmm0        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  68,15,89,5,193,173,0,0              // mulps         0xadc1(%rip),%xmm8        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,5,73,169,0,0               // addps         0xa949(%rip),%xmm8        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,5,5,174,0,0                // mulps         0xae05(%rip),%xmm8        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,5,141,169,0,0              // addps         0xa98d(%rip),%xmm8        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,128,0,0,0              // movups        %xmm8,0x80(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -41856,13 +48982,13 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,135,173,0,0                // addps         0xad87(%rip),%xmm1        # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
-  .byte  68,15,40,13,47,167,0,0              // movaps        0xa72f(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,203,173,0,0                // addps         0xadcb(%rip),%xmm1        # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+  .byte  68,15,40,13,115,167,0,0             // movaps        0xa773(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
   .byte  69,15,40,193                        // movaps        %xmm9,%xmm8
   .byte  69,15,89,192                        // mulps         %xmm8,%xmm8
-  .byte  68,15,89,13,123,173,0,0             // mulps         0xad7b(%rip),%xmm9        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,13,3,169,0,0               // addps         0xa903(%rip),%xmm9        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,13,191,173,0,0             // mulps         0xadbf(%rip),%xmm9        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,13,71,169,0,0              // addps         0xa947(%rip),%xmm9        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,200                        // mulps         %xmm8,%xmm9
   .byte  68,15,17,136,160,0,0,0              // movups        %xmm9,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -41875,16 +49001,16 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,49,173,0,0                 // addps         0xad31(%rip),%xmm1        # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
-  .byte  68,15,40,13,233,166,0,0             // movaps        0xa6e9(%rip),%xmm9        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,88,13,117,173,0,0                // addps         0xad75(%rip),%xmm1        # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+  .byte  68,15,40,13,45,167,0,0              // movaps        0xa72d(%rip),%xmm9        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  69,15,92,200                        // subps         %xmm8,%xmm9
-  .byte  68,15,40,5,77,173,0,0               // movaps        0xad4d(%rip),%xmm8        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,5,145,173,0,0              // movaps        0xad91(%rip),%xmm8        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,81,173,0,0               // addps         0xad51(%rip),%xmm8        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,5,149,173,0,0              // addps         0xad95(%rip),%xmm8        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,181,166,0,0              // addps         0xa6b5(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,88,5,249,166,0,0              // addps         0xa6f9(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
-  .byte  68,15,88,5,73,173,0,0               // addps         0xad49(%rip),%xmm8        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,5,141,173,0,0              // addps         0xad8d(%rip),%xmm8        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41894,17 +49020,17 @@
 FUNCTION(_sk_bicubic_p1y_sse2)
 _sk_bicubic_p1y_sse2:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  68,15,40,5,147,166,0,0              // movaps        0xa693(%rip),%xmm8        # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+  .byte  68,15,40,5,215,166,0,0              // movaps        0xa6d7(%rip),%xmm8        # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,72,96                      // movups        0x60(%rax),%xmm9
   .byte  65,15,88,200                        // addps         %xmm8,%xmm1
-  .byte  68,15,40,21,254,172,0,0             // movaps        0xacfe(%rip),%xmm10        # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+  .byte  68,15,40,21,66,173,0,0              // movaps        0xad42(%rip),%xmm10        # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,2,173,0,0               // addps         0xad02(%rip),%xmm10        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  68,15,88,21,70,173,0,0              // addps         0xad46(%rip),%xmm10        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
   .byte  69,15,88,208                        // addps         %xmm8,%xmm10
   .byte  69,15,89,209                        // mulps         %xmm9,%xmm10
-  .byte  68,15,88,21,254,172,0,0             // addps         0xacfe(%rip),%xmm10        # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+  .byte  68,15,88,21,66,173,0,0              // addps         0xad42(%rip),%xmm10        # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
   .byte  68,15,17,144,160,0,0,0              // movups        %xmm10,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -41916,11 +49042,11 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,16,72,32                         // movups        0x20(%rax),%xmm1
   .byte  68,15,16,64,96                      // movups        0x60(%rax),%xmm8
-  .byte  15,88,13,208,172,0,0                // addps         0xacd0(%rip),%xmm1        # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+  .byte  15,88,13,20,173,0,0                 // addps         0xad14(%rip),%xmm1        # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
   .byte  69,15,40,200                        // movaps        %xmm8,%xmm9
   .byte  69,15,89,201                        // mulps         %xmm9,%xmm9
-  .byte  68,15,89,5,160,172,0,0              // mulps         0xaca0(%rip),%xmm8        # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
-  .byte  68,15,88,5,40,168,0,0               // addps         0xa828(%rip),%xmm8        # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+  .byte  68,15,89,5,228,172,0,0              // mulps         0xace4(%rip),%xmm8        # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+  .byte  68,15,88,5,108,168,0,0              // addps         0xa86c(%rip),%xmm8        # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
   .byte  69,15,89,193                        // mulps         %xmm9,%xmm8
   .byte  68,15,17,128,160,0,0,0              // movups        %xmm8,0xa0(%rax)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -42065,7 +49191,7 @@
   .byte  102,65,15,254,205                   // paddd         %xmm13,%xmm1
   .byte  102,68,15,127,108,36,208            // movdqa        %xmm13,-0x30(%rsp)
   .byte  102,15,254,217                      // paddd         %xmm1,%xmm3
-  .byte  102,68,15,111,5,231,170,0,0         // movdqa        0xaae7(%rip),%xmm8        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,68,15,111,5,43,171,0,0          // movdqa        0xab2b(%rip),%xmm8        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,112,195,245                  // pshufd        $0xf5,%xmm3,%xmm0
   .byte  102,65,15,244,216                   // pmuludq       %xmm8,%xmm3
   .byte  102,65,15,244,192                   // pmuludq       %xmm8,%xmm0
@@ -42104,7 +49230,7 @@
   .byte  243,66,15,16,44,139                 // movss         (%rbx,%r9,4),%xmm5
   .byte  15,20,236                           // unpcklps      %xmm4,%xmm5
   .byte  102,15,20,221                       // unpcklpd      %xmm5,%xmm3
-  .byte  102,68,15,111,37,174,163,0,0        // movdqa        0xa3ae(%rip),%xmm12        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,37,242,163,0,0        // movdqa        0xa3f2(%rip),%xmm12        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,196                   // paddd         %xmm12,%xmm0
   .byte  102,15,112,224,78                   // pshufd        $0x4e,%xmm0,%xmm4
   .byte  102,73,15,126,224                   // movq          %xmm4,%r8
@@ -42120,7 +49246,7 @@
   .byte  243,66,15,16,36,139                 // movss         (%rbx,%r9,4),%xmm4
   .byte  15,20,224                           // unpcklps      %xmm0,%xmm4
   .byte  102,15,20,236                       // unpcklpd      %xmm4,%xmm5
-  .byte  15,40,37,211,169,0,0                // movaps        0xa9d3(%rip),%xmm4        # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+  .byte  15,40,37,23,170,0,0                 // movaps        0xaa17(%rip),%xmm4        # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
   .byte  68,15,88,220                        // addps         %xmm4,%xmm11
   .byte  68,15,41,92,36,192                  // movaps        %xmm11,-0x40(%rsp)
   .byte  68,15,40,223                        // movaps        %xmm7,%xmm11
@@ -42156,7 +49282,7 @@
   .byte  15,20,249                           // unpcklps      %xmm1,%xmm7
   .byte  102,15,20,252                       // unpcklpd      %xmm4,%xmm7
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
-  .byte  102,15,250,13,72,169,0,0            // psubd         0xa948(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,140,169,0,0           // psubd         0xa98c(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,225,78                   // pshufd        $0x4e,%xmm1,%xmm4
   .byte  102,73,15,126,224                   // movq          %xmm4,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -42246,7 +49372,7 @@
   .byte  243,15,16,44,131                    // movss         (%rbx,%rax,4),%xmm5
   .byte  15,20,233                           // unpcklps      %xmm1,%xmm5
   .byte  102,15,20,221                       // unpcklpd      %xmm5,%xmm3
-  .byte  102,68,15,111,45,32,161,0,0         // movdqa        0xa120(%rip),%xmm13        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,45,100,161,0,0        // movdqa        0xa164(%rip),%xmm13        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,197                   // paddd         %xmm13,%xmm0
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,73,15,126,200                   // movq          %xmm1,%r8
@@ -42343,7 +49469,7 @@
   .byte  102,15,111,206                      // movdqa        %xmm6,%xmm1
   .byte  102,65,15,254,202                   // paddd         %xmm10,%xmm1
   .byte  102,15,112,209,245                  // pshufd        $0xf5,%xmm1,%xmm2
-  .byte  102,15,111,29,227,165,0,0           // movdqa        0xa5e3(%rip),%xmm3        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,29,39,166,0,0            // movdqa        0xa627(%rip),%xmm3        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,203                      // pmuludq       %xmm3,%xmm1
   .byte  102,15,244,211                      // pmuludq       %xmm3,%xmm2
   .byte  102,15,111,251                      // movdqa        %xmm3,%xmm7
@@ -42381,7 +49507,7 @@
   .byte  243,15,16,44,131                    // movss         (%rbx,%rax,4),%xmm5
   .byte  15,20,236                           // unpcklps      %xmm4,%xmm5
   .byte  102,15,20,213                       // unpcklpd      %xmm5,%xmm2
-  .byte  102,15,111,5,179,158,0,0            // movdqa        0x9eb3(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,111,5,247,158,0,0            // movdqa        0x9ef7(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,254,216                      // paddd         %xmm0,%xmm3
   .byte  102,15,112,227,78                   // pshufd        $0x4e,%xmm3,%xmm4
   .byte  102,73,15,126,224                   // movq          %xmm4,%r8
@@ -42462,7 +49588,7 @@
   .byte  102,15,111,214                      // movdqa        %xmm6,%xmm2
   .byte  102,65,15,254,212                   // paddd         %xmm12,%xmm2
   .byte  102,15,112,194,245                  // pshufd        $0xf5,%xmm2,%xmm0
-  .byte  102,15,111,13,192,163,0,0           // movdqa        0xa3c0(%rip),%xmm1        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,13,4,164,0,0             // movdqa        0xa404(%rip),%xmm1        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,209                      // pmuludq       %xmm1,%xmm2
   .byte  102,15,244,193                      // pmuludq       %xmm1,%xmm0
   .byte  102,15,111,241                      // movdqa        %xmm1,%xmm6
@@ -42484,7 +49610,7 @@
   .byte  68,15,20,209                        // unpcklps      %xmm1,%xmm10
   .byte  102,68,15,20,210                    // unpcklpd      %xmm2,%xmm10
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
-  .byte  102,15,250,13,101,163,0,0           // psubd         0xa365(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,169,163,0,0           // psubd         0xa3a9(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,209,78                   // pshufd        $0x4e,%xmm1,%xmm2
   .byte  102,73,15,126,208                   // movq          %xmm2,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -42499,7 +49625,7 @@
   .byte  243,15,16,20,131                    // movss         (%rbx,%rax,4),%xmm2
   .byte  15,20,209                           // unpcklps      %xmm1,%xmm2
   .byte  102,15,20,226                       // unpcklpd      %xmm2,%xmm4
-  .byte  102,15,254,5,144,156,0,0            // paddd         0x9c90(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,5,212,156,0,0            // paddd         0x9cd4(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,73,15,126,200                   // movq          %xmm1,%r8
   .byte  102,72,15,126,192                   // movq          %xmm0,%rax
@@ -42536,7 +49662,7 @@
   .byte  15,20,199                           // unpcklps      %xmm7,%xmm0
   .byte  102,15,20,193                       // unpcklpd      %xmm1,%xmm0
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
-  .byte  102,15,250,13,111,162,0,0           // psubd         0xa26f(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,179,162,0,0           // psubd         0xa2b3(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,249,78                   // pshufd        $0x4e,%xmm1,%xmm7
   .byte  102,73,15,126,248                   // movq          %xmm7,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -42551,7 +49677,7 @@
   .byte  243,15,16,52,131                    // movss         (%rbx,%rax,4),%xmm6
   .byte  15,20,247                           // unpcklps      %xmm7,%xmm6
   .byte  102,15,20,206                       // unpcklpd      %xmm6,%xmm1
-  .byte  102,15,254,21,154,155,0,0           // paddd         0x9b9a(%rip),%xmm2        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,21,222,155,0,0           // paddd         0x9bde(%rip),%xmm2        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,242,78                   // pshufd        $0x4e,%xmm2,%xmm6
   .byte  102,73,15,126,240                   // movq          %xmm6,%r8
   .byte  102,72,15,126,208                   // movq          %xmm2,%rax
@@ -42697,7 +49823,7 @@
   .byte  102,65,15,254,210                   // paddd         %xmm10,%xmm2
   .byte  102,15,111,220                      // movdqa        %xmm4,%xmm3
   .byte  102,15,254,218                      // paddd         %xmm2,%xmm3
-  .byte  102,15,111,37,178,159,0,0           // movdqa        0x9fb2(%rip),%xmm4        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,37,246,159,0,0           // movdqa        0x9ff6(%rip),%xmm4        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,112,195,245                  // pshufd        $0xf5,%xmm3,%xmm0
   .byte  102,15,244,220                      // pmuludq       %xmm4,%xmm3
   .byte  102,15,244,196                      // pmuludq       %xmm4,%xmm0
@@ -42736,7 +49862,7 @@
   .byte  243,66,15,16,52,139                 // movss         (%rbx,%r9,4),%xmm6
   .byte  15,20,244                           // unpcklps      %xmm4,%xmm6
   .byte  102,15,20,238                       // unpcklpd      %xmm6,%xmm5
-  .byte  102,15,254,5,124,152,0,0            // paddd         0x987c(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,5,192,152,0,0            // paddd         0x98c0(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,224,78                   // pshufd        $0x4e,%xmm0,%xmm4
   .byte  102,73,15,126,224                   // movq          %xmm4,%r8
   .byte  102,73,15,126,193                   // movq          %xmm0,%r9
@@ -42751,7 +49877,7 @@
   .byte  243,66,15,16,52,139                 // movss         (%rbx,%r9,4),%xmm6
   .byte  15,20,244                           // unpcklps      %xmm4,%xmm6
   .byte  102,15,20,222                       // unpcklpd      %xmm6,%xmm3
-  .byte  15,40,53,166,158,0,0                // movaps        0x9ea6(%rip),%xmm6        # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+  .byte  15,40,53,234,158,0,0                // movaps        0x9eea(%rip),%xmm6        # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
   .byte  68,15,88,198                        // addps         %xmm6,%xmm8
   .byte  68,15,41,68,36,176                  // movaps        %xmm8,-0x50(%rsp)
   .byte  68,15,88,254                        // addps         %xmm6,%xmm15
@@ -42769,7 +49895,7 @@
   .byte  102,65,15,254,215                   // paddd         %xmm15,%xmm2
   .byte  102,68,15,127,124,36,224            // movdqa        %xmm15,-0x20(%rsp)
   .byte  102,15,112,194,245                  // pshufd        $0xf5,%xmm2,%xmm0
-  .byte  102,15,111,13,92,158,0,0            // movdqa        0x9e5c(%rip),%xmm1        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,13,160,158,0,0           // movdqa        0x9ea0(%rip),%xmm1        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,209                      // pmuludq       %xmm1,%xmm2
   .byte  102,15,244,193                      // pmuludq       %xmm1,%xmm0
   .byte  102,15,112,192,232                  // pshufd        $0xe8,%xmm0,%xmm0
@@ -42790,7 +49916,7 @@
   .byte  15,20,240                           // unpcklps      %xmm0,%xmm6
   .byte  102,15,20,242                       // unpcklpd      %xmm2,%xmm6
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
-  .byte  102,15,250,5,7,158,0,0              // psubd         0x9e07(%rip),%xmm0        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,5,75,158,0,0             // psubd         0x9e4b(%rip),%xmm0        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,208,78                   // pshufd        $0x4e,%xmm0,%xmm2
   .byte  102,73,15,126,208                   // movq          %xmm2,%r8
   .byte  102,72,15,126,192                   // movq          %xmm0,%rax
@@ -42805,7 +49931,7 @@
   .byte  243,68,15,16,28,131                 // movss         (%rbx,%rax,4),%xmm11
   .byte  68,15,20,216                        // unpcklps      %xmm0,%xmm11
   .byte  102,65,15,20,211                    // unpcklpd      %xmm11,%xmm2
-  .byte  102,15,254,13,47,151,0,0            // paddd         0x972f(%rip),%xmm1        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,13,115,151,0,0           // paddd         0x9773(%rip),%xmm1        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,193,78                   // pshufd        $0x4e,%xmm1,%xmm0
   .byte  102,73,15,126,192                   // movq          %xmm0,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -42843,7 +49969,7 @@
   .byte  102,65,15,111,194                   // movdqa        %xmm10,%xmm0
   .byte  102,15,254,68,36,160                // paddd         -0x60(%rsp),%xmm0
   .byte  102,15,112,216,245                  // pshufd        $0xf5,%xmm0,%xmm3
-  .byte  102,15,111,37,6,157,0,0             // movdqa        0x9d06(%rip),%xmm4        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,37,74,157,0,0            // movdqa        0x9d4a(%rip),%xmm4        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,196                      // pmuludq       %xmm4,%xmm0
   .byte  102,15,244,220                      // pmuludq       %xmm4,%xmm3
   .byte  102,68,15,111,220                   // movdqa        %xmm4,%xmm11
@@ -42881,7 +50007,7 @@
   .byte  243,15,16,60,131                    // movss         (%rbx,%rax,4),%xmm7
   .byte  15,20,253                           // unpcklps      %xmm5,%xmm7
   .byte  102,15,20,199                       // unpcklpd      %xmm7,%xmm0
-  .byte  102,68,15,111,5,210,149,0,0         // movdqa        0x95d2(%rip),%xmm8        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,5,22,150,0,0          // movdqa        0x9616(%rip),%xmm8        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,224                   // paddd         %xmm8,%xmm4
   .byte  102,15,112,236,78                   // pshufd        $0x4e,%xmm4,%xmm5
   .byte  102,73,15,126,232                   // movq          %xmm5,%r8
@@ -43027,7 +50153,7 @@
   .byte  243,15,16,36,131                    // movss         (%rbx,%rax,4),%xmm4
   .byte  15,20,226                           // unpcklps      %xmm2,%xmm4
   .byte  102,15,20,252                       // unpcklpd      %xmm4,%xmm7
-  .byte  102,68,15,111,61,44,147,0,0         // movdqa        0x932c(%rip),%xmm15        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,61,112,147,0,0        // movdqa        0x9370(%rip),%xmm15        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,207                   // paddd         %xmm15,%xmm1
   .byte  102,15,112,209,78                   // pshufd        $0x4e,%xmm1,%xmm2
   .byte  102,73,15,126,208                   // movq          %xmm2,%r8
@@ -43110,7 +50236,7 @@
   .byte  102,65,15,111,217                   // movdqa        %xmm9,%xmm3
   .byte  102,65,15,254,216                   // paddd         %xmm8,%xmm3
   .byte  102,15,112,211,245                  // pshufd        $0xf5,%xmm3,%xmm2
-  .byte  102,15,111,45,59,152,0,0            // movdqa        0x983b(%rip),%xmm5        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,45,127,152,0,0           // movdqa        0x987f(%rip),%xmm5        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,221                      // pmuludq       %xmm5,%xmm3
   .byte  102,15,244,213                      // pmuludq       %xmm5,%xmm2
   .byte  102,15,112,234,232                  // pshufd        $0xe8,%xmm2,%xmm5
@@ -43131,7 +50257,7 @@
   .byte  68,15,20,198                        // unpcklps      %xmm6,%xmm8
   .byte  102,68,15,20,197                    // unpcklpd      %xmm5,%xmm8
   .byte  102,15,111,234                      // movdqa        %xmm2,%xmm5
-  .byte  102,15,250,45,228,151,0,0           // psubd         0x97e4(%rip),%xmm5        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,45,40,152,0,0            // psubd         0x9828(%rip),%xmm5        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,245,78                   // pshufd        $0x4e,%xmm5,%xmm6
   .byte  102,73,15,126,240                   // movq          %xmm6,%r8
   .byte  102,72,15,126,232                   // movq          %xmm5,%rax
@@ -43163,7 +50289,7 @@
   .byte  102,15,20,214                       // unpcklpd      %xmm6,%xmm2
   .byte  102,69,15,254,205                   // paddd         %xmm13,%xmm9
   .byte  102,65,15,112,233,245               // pshufd        $0xf5,%xmm9,%xmm5
-  .byte  102,15,111,29,66,151,0,0            // movdqa        0x9742(%rip),%xmm3        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,29,134,151,0,0           // movdqa        0x9786(%rip),%xmm3        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,68,15,244,203                   // pmuludq       %xmm3,%xmm9
   .byte  102,15,244,235                      // pmuludq       %xmm3,%xmm5
   .byte  102,15,112,237,232                  // pshufd        $0xe8,%xmm5,%xmm5
@@ -43184,7 +50310,7 @@
   .byte  69,15,20,233                        // unpcklps      %xmm9,%xmm13
   .byte  102,68,15,20,237                    // unpcklpd      %xmm5,%xmm13
   .byte  102,65,15,111,239                   // movdqa        %xmm15,%xmm5
-  .byte  102,15,250,45,226,150,0,0           // psubd         0x96e2(%rip),%xmm5        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,45,38,151,0,0            // psubd         0x9726(%rip),%xmm5        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,221,78                   // pshufd        $0x4e,%xmm5,%xmm3
   .byte  102,73,15,126,216                   // movq          %xmm3,%r8
   .byte  102,72,15,126,232                   // movq          %xmm5,%rax
@@ -43199,7 +50325,7 @@
   .byte  243,15,16,44,131                    // movss         (%rbx,%rax,4),%xmm5
   .byte  15,20,235                           // unpcklps      %xmm3,%xmm5
   .byte  102,15,20,245                       // unpcklpd      %xmm5,%xmm6
-  .byte  102,68,15,111,13,12,144,0,0         // movdqa        0x900c(%rip),%xmm9        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,13,80,144,0,0         // movdqa        0x9050(%rip),%xmm9        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,69,15,254,249                   // paddd         %xmm9,%xmm15
   .byte  102,65,15,112,223,78                // pshufd        $0x4e,%xmm15,%xmm3
   .byte  102,73,15,126,216                   // movq          %xmm3,%r8
@@ -43261,7 +50387,7 @@
   .byte  102,65,15,111,195                   // movdqa        %xmm11,%xmm0
   .byte  102,15,254,195                      // paddd         %xmm3,%xmm0
   .byte  102,15,112,200,245                  // pshufd        $0xf5,%xmm0,%xmm1
-  .byte  102,15,111,21,125,149,0,0           // movdqa        0x957d(%rip),%xmm2        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,21,193,149,0,0           // movdqa        0x95c1(%rip),%xmm2        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,194                      // pmuludq       %xmm2,%xmm0
   .byte  102,15,244,202                      // pmuludq       %xmm2,%xmm1
   .byte  102,68,15,111,234                   // movdqa        %xmm2,%xmm13
@@ -43454,7 +50580,7 @@
   .byte  68,15,20,238                        // unpcklps      %xmm6,%xmm13
   .byte  102,68,15,20,234                    // unpcklpd      %xmm2,%xmm13
   .byte  102,15,111,212                      // movdqa        %xmm4,%xmm2
-  .byte  102,15,250,21,25,146,0,0            // psubd         0x9219(%rip),%xmm2        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,21,93,146,0,0            // psubd         0x925d(%rip),%xmm2        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,242,78                   // pshufd        $0x4e,%xmm2,%xmm6
   .byte  102,73,15,126,240                   // movq          %xmm6,%r8
   .byte  102,72,15,126,208                   // movq          %xmm2,%rax
@@ -43514,7 +50640,7 @@
   .byte  102,68,15,111,116,36,160            // movdqa        -0x60(%rsp),%xmm14
   .byte  102,65,15,254,198                   // paddd         %xmm14,%xmm0
   .byte  102,15,112,200,245                  // pshufd        $0xf5,%xmm0,%xmm1
-  .byte  102,68,15,111,5,248,144,0,0         // movdqa        0x90f8(%rip),%xmm8        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,68,15,111,5,60,145,0,0          // movdqa        0x913c(%rip),%xmm8        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,65,15,244,192                   // pmuludq       %xmm8,%xmm0
   .byte  102,65,15,244,200                   // pmuludq       %xmm8,%xmm1
   .byte  102,65,15,111,240                   // movdqa        %xmm8,%xmm6
@@ -43552,7 +50678,7 @@
   .byte  243,15,16,44,131                    // movss         (%rbx,%rax,4),%xmm5
   .byte  15,20,235                           // unpcklps      %xmm3,%xmm5
   .byte  102,15,20,205                       // unpcklpd      %xmm5,%xmm1
-  .byte  102,68,15,111,5,198,137,0,0         // movdqa        0x89c6(%rip),%xmm8        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,68,15,111,5,10,138,0,0          // movdqa        0x8a0a(%rip),%xmm8        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,65,15,254,208                   // paddd         %xmm8,%xmm2
   .byte  102,15,112,218,78                   // pshufd        $0x4e,%xmm2,%xmm3
   .byte  102,73,15,126,216                   // movq          %xmm3,%r8
@@ -43635,7 +50761,7 @@
   .byte  102,15,254,208                      // paddd         %xmm0,%xmm2
   .byte  102,15,111,240                      // movdqa        %xmm0,%xmm6
   .byte  102,15,112,194,245                  // pshufd        $0xf5,%xmm2,%xmm0
-  .byte  102,15,111,37,210,142,0,0           // movdqa        0x8ed2(%rip),%xmm4        # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+  .byte  102,15,111,37,22,143,0,0            // movdqa        0x8f16(%rip),%xmm4        # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
   .byte  102,15,244,212                      // pmuludq       %xmm4,%xmm2
   .byte  102,15,244,196                      // pmuludq       %xmm4,%xmm0
   .byte  102,15,112,200,232                  // pshufd        $0xe8,%xmm0,%xmm1
@@ -43656,7 +50782,7 @@
   .byte  68,15,20,193                        // unpcklps      %xmm1,%xmm8
   .byte  102,68,15,20,194                    // unpcklpd      %xmm2,%xmm8
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
-  .byte  102,15,250,13,123,142,0,0           // psubd         0x8e7b(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,191,142,0,0           // psubd         0x8ebf(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,209,78                   // pshufd        $0x4e,%xmm1,%xmm2
   .byte  102,73,15,126,208                   // movq          %xmm2,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -43671,7 +50797,7 @@
   .byte  243,15,16,20,131                    // movss         (%rbx,%rax,4),%xmm2
   .byte  15,20,209                           // unpcklps      %xmm1,%xmm2
   .byte  102,68,15,20,242                    // unpcklpd      %xmm2,%xmm14
-  .byte  102,15,254,5,164,135,0,0            // paddd         0x87a4(%rip),%xmm0        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,5,232,135,0,0            // paddd         0x87e8(%rip),%xmm0        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,73,15,126,200                   // movq          %xmm1,%r8
   .byte  102,72,15,126,192                   // movq          %xmm0,%rax
@@ -43709,7 +50835,7 @@
   .byte  15,20,198                           // unpcklps      %xmm6,%xmm0
   .byte  102,15,20,193                       // unpcklpd      %xmm1,%xmm0
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
-  .byte  102,15,250,13,131,141,0,0           // psubd         0x8d83(%rip),%xmm1        # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+  .byte  102,15,250,13,199,141,0,0           // psubd         0x8dc7(%rip),%xmm1        # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
   .byte  102,15,112,241,78                   // pshufd        $0x4e,%xmm1,%xmm6
   .byte  102,73,15,126,240                   // movq          %xmm6,%r8
   .byte  102,72,15,126,200                   // movq          %xmm1,%rax
@@ -43724,7 +50850,7 @@
   .byte  243,15,16,36,131                    // movss         (%rbx,%rax,4),%xmm4
   .byte  15,20,230                           // unpcklps      %xmm6,%xmm4
   .byte  102,15,20,204                       // unpcklpd      %xmm4,%xmm1
-  .byte  102,15,254,21,174,134,0,0           // paddd         0x86ae(%rip),%xmm2        # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+  .byte  102,15,254,21,242,134,0,0           // paddd         0x86f2(%rip),%xmm2        # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
   .byte  102,15,112,226,78                   // pshufd        $0x4e,%xmm2,%xmm4
   .byte  102,73,15,126,224                   // movq          %xmm4,%r8
   .byte  102,72,15,126,208                   // movq          %xmm2,%rax
@@ -43783,7 +50909,7 @@
   .byte  15,89,212                           // mulps         %xmm4,%xmm2
   .byte  65,15,88,215                        // addps         %xmm15,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,154,133,0,0                // movaps        0x859a(%rip),%xmm3        # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+  .byte  15,40,29,222,133,0,0                // movaps        0x85de(%rip),%xmm3        # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
   .byte  15,40,100,36,96                     // movaps        0x60(%rsp),%xmm4
   .byte  15,40,108,36,112                    // movaps        0x70(%rsp),%xmm5
   .byte  15,40,180,36,128,0,0,0              // movaps        0x80(%rsp),%xmm6
@@ -43815,13 +50941,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,151,0,0,0                    // jae           22fe6 <_sk_start_pipeline_hsw_lowp+0xca>
+  .byte  15,131,151,0,0,0                    // jae           2a622 <_sk_start_pipeline_hsw_lowp+0xca>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,16                        // lea           0x10(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
-  .byte  119,67                              // ja            22fa8 <_sk_start_pipeline_hsw_lowp+0x8c>
+  .byte  119,67                              // ja            2a5e4 <_sk_start_pipeline_hsw_lowp+0x8c>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
@@ -43840,10 +50966,10 @@
   .byte  73,131,196,32                       // add           $0x20,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,193                             // jbe           22f69 <_sk_start_pipeline_hsw_lowp+0x4d>
+  .byte  118,193                             // jbe           2a5a5 <_sk_start_pipeline_hsw_lowp+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,41                              // je            22fd9 <_sk_start_pipeline_hsw_lowp+0xbd>
+  .byte  116,41                              // je            2a615 <_sk_start_pipeline_hsw_lowp+0xbd>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -43857,7 +50983,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  15,133,117,255,255,255              // jne           22f5b <_sk_start_pipeline_hsw_lowp+0x3f>
+  .byte  15,133,117,255,255,255              // jne           2a597 <_sk_start_pipeline_hsw_lowp+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -43891,7 +51017,7 @@
 FUNCTION(_sk_black_color_hsw_lowp)
 _sk_black_color_hsw_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,29,62,129,0,0       // vpbroadcastw  0x813e(%rip),%ymm3        # 2b160 <_sk_srcover_rgba_8888_sse2_lowp+0x720>
+  .byte  196,226,125,121,29,130,129,0,0      // vpbroadcastw  0x8182(%rip),%ymm3        # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
   .byte  197,252,87,192                      // vxorps        %ymm0,%ymm0,%ymm0
   .byte  197,244,87,201                      // vxorps        %ymm1,%ymm1,%ymm1
   .byte  197,236,87,210                      // vxorps        %ymm2,%ymm2,%ymm2
@@ -43902,7 +51028,7 @@
 FUNCTION(_sk_white_color_hsw_lowp)
 _sk_white_color_hsw_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,5,39,129,0,0        // vpbroadcastw  0x8127(%rip),%ymm0        # 2b162 <_sk_srcover_rgba_8888_sse2_lowp+0x722>
+  .byte  196,226,125,121,5,107,129,0,0       // vpbroadcastw  0x816b(%rip),%ymm0        # 327e2 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
   .byte  197,253,111,200                     // vmovdqa       %ymm0,%ymm1
   .byte  197,253,111,208                     // vmovdqa       %ymm0,%ymm2
   .byte  197,253,111,216                     // vmovdqa       %ymm0,%ymm3
@@ -43913,8 +51039,8 @@
 FUNCTION(_sk_set_rgb_hsw_lowp)
 _sk_set_rgb_hsw_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  197,122,16,5,49,130,0,0             // vmovss        0x8231(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
-  .byte  197,250,16,21,89,130,0,0            // vmovss        0x8259(%rip),%xmm2        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  197,122,16,5,117,130,0,0            // vmovss        0x8275(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+  .byte  197,250,16,21,157,130,0,0           // vmovss        0x829d(%rip),%xmm2        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  197,250,16,0                        // vmovss        (%rax),%xmm0
   .byte  196,226,57,153,194                  // vfmadd132ss   %xmm2,%xmm8,%xmm0
   .byte  197,122,44,192                      // vcvttss2si    %xmm0,%r8d
@@ -43937,7 +51063,7 @@
 FUNCTION(_sk_premul_hsw_lowp)
 _sk_premul_hsw_lowp:
   .byte  197,229,213,192                     // vpmullw       %ymm0,%ymm3,%ymm0
-  .byte  196,98,125,121,5,182,128,0,0        // vpbroadcastw  0x80b6(%rip),%ymm8        # 2b164 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
+  .byte  196,98,125,121,5,250,128,0,0        // vpbroadcastw  0x80fa(%rip),%ymm8        # 327e4 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,229,213,201                     // vpmullw       %ymm1,%ymm3,%ymm1
@@ -43985,7 +51111,7 @@
 .globl _sk_invert_hsw_lowp
 FUNCTION(_sk_invert_hsw_lowp)
 _sk_invert_hsw_lowp:
-  .byte  196,98,125,121,5,77,128,0,0         // vpbroadcastw  0x804d(%rip),%ymm8        # 2b166 <_sk_srcover_rgba_8888_sse2_lowp+0x726>
+  .byte  196,98,125,121,5,145,128,0,0        // vpbroadcastw  0x8091(%rip),%ymm8        # 327e6 <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
   .byte  197,189,249,201                     // vpsubw        %ymm1,%ymm8,%ymm1
   .byte  197,189,249,210                     // vpsubw        %ymm2,%ymm8,%ymm2
@@ -44009,7 +51135,7 @@
 FUNCTION(_sk_srcatop_hsw_lowp)
 _sk_srcatop_hsw_lowp:
   .byte  197,197,213,192                     // vpmullw       %ymm0,%ymm7,%ymm0
-  .byte  196,98,125,121,5,26,128,0,0         // vpbroadcastw  0x801a(%rip),%ymm8        # 2b168 <_sk_srcover_rgba_8888_sse2_lowp+0x728>
+  .byte  196,98,125,121,5,94,128,0,0         // vpbroadcastw  0x805e(%rip),%ymm8        # 327e8 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
   .byte  197,189,249,219                     // vpsubw        %ymm3,%ymm8,%ymm3
   .byte  197,101,213,204                     // vpmullw       %ymm4,%ymm3,%ymm9
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
@@ -44036,7 +51162,7 @@
 FUNCTION(_sk_dstatop_hsw_lowp)
 _sk_dstatop_hsw_lowp:
   .byte  197,93,213,195                      // vpmullw       %ymm3,%ymm4,%ymm8
-  .byte  196,98,125,121,13,186,127,0,0       // vpbroadcastw  0x7fba(%rip),%ymm9        # 2b16a <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
+  .byte  196,98,125,121,13,254,127,0,0       // vpbroadcastw  0x7ffe(%rip),%ymm9        # 327ea <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
   .byte  197,53,249,215                      // vpsubw        %ymm7,%ymm9,%ymm10
   .byte  197,173,213,192                     // vpmullw       %ymm0,%ymm10,%ymm0
   .byte  196,65,61,253,193                   // vpaddw        %ymm9,%ymm8,%ymm8
@@ -44063,7 +51189,7 @@
 FUNCTION(_sk_srcin_hsw_lowp)
 _sk_srcin_hsw_lowp:
   .byte  197,197,213,192                     // vpmullw       %ymm0,%ymm7,%ymm0
-  .byte  196,98,125,121,5,87,127,0,0         // vpbroadcastw  0x7f57(%rip),%ymm8        # 2b16c <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
+  .byte  196,98,125,121,5,155,127,0,0        // vpbroadcastw  0x7f9b(%rip),%ymm8        # 327ec <_sk_srcover_rgba_8888_sse2_lowp+0x770>
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,197,213,201                     // vpmullw       %ymm1,%ymm7,%ymm1
@@ -44083,7 +51209,7 @@
 FUNCTION(_sk_dstin_hsw_lowp)
 _sk_dstin_hsw_lowp:
   .byte  197,221,213,195                     // vpmullw       %ymm3,%ymm4,%ymm0
-  .byte  196,98,125,121,5,20,127,0,0         // vpbroadcastw  0x7f14(%rip),%ymm8        # 2b16e <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
+  .byte  196,98,125,121,5,88,127,0,0         // vpbroadcastw  0x7f58(%rip),%ymm8        # 327ee <_sk_srcover_rgba_8888_sse2_lowp+0x772>
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,213,213,203                     // vpmullw       %ymm3,%ymm5,%ymm1
@@ -44102,7 +51228,7 @@
 .globl _sk_srcout_hsw_lowp
 FUNCTION(_sk_srcout_hsw_lowp)
 _sk_srcout_hsw_lowp:
-  .byte  196,98,125,121,5,213,126,0,0        // vpbroadcastw  0x7ed5(%rip),%ymm8        # 2b170 <_sk_srcover_rgba_8888_sse2_lowp+0x730>
+  .byte  196,98,125,121,5,25,127,0,0         // vpbroadcastw  0x7f19(%rip),%ymm8        # 327f0 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
   .byte  197,61,249,207                      // vpsubw        %ymm7,%ymm8,%ymm9
   .byte  197,181,213,192                     // vpmullw       %ymm0,%ymm9,%ymm0
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
@@ -44123,7 +51249,7 @@
 .globl _sk_dstout_hsw_lowp
 FUNCTION(_sk_dstout_hsw_lowp)
 _sk_dstout_hsw_lowp:
-  .byte  196,98,125,121,5,142,126,0,0        // vpbroadcastw  0x7e8e(%rip),%ymm8        # 2b172 <_sk_srcover_rgba_8888_sse2_lowp+0x732>
+  .byte  196,98,125,121,5,210,126,0,0        // vpbroadcastw  0x7ed2(%rip),%ymm8        # 327f2 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
   .byte  197,189,249,219                     // vpsubw        %ymm3,%ymm8,%ymm3
   .byte  197,229,213,196                     // vpmullw       %ymm4,%ymm3,%ymm0
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
@@ -44144,7 +51270,7 @@
 .globl _sk_srcover_hsw_lowp
 FUNCTION(_sk_srcover_hsw_lowp)
 _sk_srcover_hsw_lowp:
-  .byte  196,98,125,121,5,71,126,0,0         // vpbroadcastw  0x7e47(%rip),%ymm8        # 2b174 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
+  .byte  196,98,125,121,5,139,126,0,0        // vpbroadcastw  0x7e8b(%rip),%ymm8        # 327f4 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
   .byte  197,61,249,203                      // vpsubw        %ymm3,%ymm8,%ymm9
   .byte  197,53,213,212                      // vpmullw       %ymm4,%ymm9,%ymm10
   .byte  196,65,45,253,208                   // vpaddw        %ymm8,%ymm10,%ymm10
@@ -44169,7 +51295,7 @@
 .globl _sk_dstover_hsw_lowp
 FUNCTION(_sk_dstover_hsw_lowp)
 _sk_dstover_hsw_lowp:
-  .byte  196,98,125,121,5,236,125,0,0        // vpbroadcastw  0x7dec(%rip),%ymm8        # 2b176 <_sk_srcover_rgba_8888_sse2_lowp+0x736>
+  .byte  196,98,125,121,5,48,126,0,0         // vpbroadcastw  0x7e30(%rip),%ymm8        # 327f6 <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
   .byte  197,61,249,207                      // vpsubw        %ymm7,%ymm8,%ymm9
   .byte  197,181,213,192                     // vpmullw       %ymm0,%ymm9,%ymm0
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
@@ -44195,7 +51321,7 @@
 FUNCTION(_sk_modulate_hsw_lowp)
 _sk_modulate_hsw_lowp:
   .byte  197,221,213,192                     // vpmullw       %ymm0,%ymm4,%ymm0
-  .byte  196,98,125,121,5,145,125,0,0        // vpbroadcastw  0x7d91(%rip),%ymm8        # 2b178 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
+  .byte  196,98,125,121,5,213,125,0,0        // vpbroadcastw  0x7dd5(%rip),%ymm8        # 327f8 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,213,213,201                     // vpmullw       %ymm1,%ymm5,%ymm1
@@ -44214,7 +51340,7 @@
 .globl _sk_multiply_hsw_lowp
 FUNCTION(_sk_multiply_hsw_lowp)
 _sk_multiply_hsw_lowp:
-  .byte  196,98,125,121,5,82,125,0,0         // vpbroadcastw  0x7d52(%rip),%ymm8        # 2b17a <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
+  .byte  196,98,125,121,5,150,125,0,0        // vpbroadcastw  0x7d96(%rip),%ymm8        # 327fa <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
   .byte  197,61,249,203                      // vpsubw        %ymm3,%ymm8,%ymm9
   .byte  197,53,213,212                      // vpmullw       %ymm4,%ymm9,%ymm10
   .byte  196,65,93,253,216                   // vpaddw        %ymm8,%ymm4,%ymm11
@@ -44250,7 +51376,7 @@
 FUNCTION(_sk_plus__hsw_lowp)
 _sk_plus__hsw_lowp:
   .byte  197,221,253,192                     // vpaddw        %ymm0,%ymm4,%ymm0
-  .byte  196,98,125,121,5,200,124,0,0        // vpbroadcastw  0x7cc8(%rip),%ymm8        # 2b17c <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
+  .byte  196,98,125,121,5,12,125,0,0         // vpbroadcastw  0x7d0c(%rip),%ymm8        # 327fc <_sk_srcover_rgba_8888_sse2_lowp+0x780>
   .byte  196,194,125,58,192                  // vpminuw       %ymm8,%ymm0,%ymm0
   .byte  197,213,253,201                     // vpaddw        %ymm1,%ymm5,%ymm1
   .byte  196,194,117,58,200                  // vpminuw       %ymm8,%ymm1,%ymm1
@@ -44267,7 +51393,7 @@
 _sk_screen_hsw_lowp:
   .byte  197,93,253,192                      // vpaddw        %ymm0,%ymm4,%ymm8
   .byte  197,221,213,192                     // vpmullw       %ymm0,%ymm4,%ymm0
-  .byte  196,98,125,121,13,149,124,0,0       // vpbroadcastw  0x7c95(%rip),%ymm9        # 2b17e <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
+  .byte  196,98,125,121,13,217,124,0,0       // vpbroadcastw  0x7cd9(%rip),%ymm9        # 327fe <_sk_srcover_rgba_8888_sse2_lowp+0x782>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
@@ -44293,7 +51419,7 @@
 .globl _sk_xor__hsw_lowp
 FUNCTION(_sk_xor__hsw_lowp)
 _sk_xor__hsw_lowp:
-  .byte  196,98,125,121,5,58,124,0,0         // vpbroadcastw  0x7c3a(%rip),%ymm8        # 2b180 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
+  .byte  196,98,125,121,5,126,124,0,0        // vpbroadcastw  0x7c7e(%rip),%ymm8        # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
   .byte  197,61,249,207                      // vpsubw        %ymm7,%ymm8,%ymm9
   .byte  197,181,213,192                     // vpmullw       %ymm0,%ymm9,%ymm0
   .byte  197,61,249,211                      // vpsubw        %ymm3,%ymm8,%ymm10
@@ -44327,7 +51453,7 @@
   .byte  197,197,213,192                     // vpmullw       %ymm0,%ymm7,%ymm0
   .byte  197,93,213,203                      // vpmullw       %ymm3,%ymm4,%ymm9
   .byte  196,194,125,62,193                  // vpmaxuw       %ymm9,%ymm0,%ymm0
-  .byte  196,98,125,121,13,190,123,0,0       // vpbroadcastw  0x7bbe(%rip),%ymm9        # 2b182 <_sk_srcover_rgba_8888_sse2_lowp+0x742>
+  .byte  196,98,125,121,13,2,124,0,0         // vpbroadcastw  0x7c02(%rip),%ymm9        # 32802 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
@@ -44361,7 +51487,7 @@
   .byte  197,197,213,192                     // vpmullw       %ymm0,%ymm7,%ymm0
   .byte  197,93,213,203                      // vpmullw       %ymm3,%ymm4,%ymm9
   .byte  196,194,125,58,193                  // vpminuw       %ymm9,%ymm0,%ymm0
-  .byte  196,98,125,121,13,63,123,0,0        // vpbroadcastw  0x7b3f(%rip),%ymm9        # 2b184 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
+  .byte  196,98,125,121,13,131,123,0,0       // vpbroadcastw  0x7b83(%rip),%ymm9        # 32804 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
@@ -44395,10 +51521,10 @@
   .byte  197,197,213,192                     // vpmullw       %ymm0,%ymm7,%ymm0
   .byte  197,93,213,203                      // vpmullw       %ymm3,%ymm4,%ymm9
   .byte  196,194,125,58,193                  // vpminuw       %ymm9,%ymm0,%ymm0
-  .byte  196,98,125,121,13,192,122,0,0       // vpbroadcastw  0x7ac0(%rip),%ymm9        # 2b186 <_sk_srcover_rgba_8888_sse2_lowp+0x746>
+  .byte  196,98,125,121,13,4,123,0,0         // vpbroadcastw  0x7b04(%rip),%ymm9        # 32806 <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,7                   // vpsrlw        $0x7,%ymm0,%ymm0
-  .byte  196,98,125,121,21,175,122,0,0       // vpbroadcastw  0x7aaf(%rip),%ymm10        # 2b188 <_sk_srcover_rgba_8888_sse2_lowp+0x748>
+  .byte  196,98,125,121,21,243,122,0,0       // vpbroadcastw  0x7af3(%rip),%ymm10        # 32808 <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
   .byte  196,193,125,219,194                 // vpand         %ymm10,%ymm0,%ymm0
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
   .byte  197,85,253,193                      // vpaddw        %ymm1,%ymm5,%ymm8
@@ -44431,10 +51557,10 @@
 _sk_exclusion_hsw_lowp:
   .byte  197,93,253,192                      // vpaddw        %ymm0,%ymm4,%ymm8
   .byte  197,221,213,192                     // vpmullw       %ymm0,%ymm4,%ymm0
-  .byte  196,98,125,121,13,52,122,0,0        // vpbroadcastw  0x7a34(%rip),%ymm9        # 2b18a <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
+  .byte  196,98,125,121,13,120,122,0,0       // vpbroadcastw  0x7a78(%rip),%ymm9        # 3280a <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,7                   // vpsrlw        $0x7,%ymm0,%ymm0
-  .byte  196,98,125,121,21,35,122,0,0        // vpbroadcastw  0x7a23(%rip),%ymm10        # 2b18c <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
+  .byte  196,98,125,121,21,103,122,0,0       // vpbroadcastw  0x7a67(%rip),%ymm10        # 3280c <_sk_srcover_rgba_8888_sse2_lowp+0x790>
   .byte  196,193,125,219,194                 // vpand         %ymm10,%ymm0,%ymm0
   .byte  197,189,249,192                     // vpsubw        %ymm0,%ymm8,%ymm0
   .byte  197,85,253,193                      // vpaddw        %ymm1,%ymm5,%ymm8
@@ -44462,7 +51588,7 @@
 FUNCTION(_sk_hardlight_hsw_lowp)
 _sk_hardlight_hsw_lowp:
   .byte  197,125,253,192                     // vpaddw        %ymm0,%ymm0,%ymm8
-  .byte  196,98,125,121,13,192,121,0,0       // vpbroadcastw  0x79c0(%rip),%ymm9        # 2b190 <_sk_srcover_rgba_8888_sse2_lowp+0x750>
+  .byte  196,98,125,121,13,4,122,0,0         // vpbroadcastw  0x7a04(%rip),%ymm9        # 32810 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
   .byte  196,65,101,239,209                  // vpxor         %ymm9,%ymm3,%ymm10
   .byte  196,65,61,239,217                   // vpxor         %ymm9,%ymm8,%ymm11
   .byte  196,65,37,101,218                   // vpcmpgtw      %ymm10,%ymm11,%ymm11
@@ -44490,7 +51616,7 @@
   .byte  197,101,249,210                     // vpsubw        %ymm2,%ymm3,%ymm10
   .byte  197,69,249,246                      // vpsubw        %ymm6,%ymm7,%ymm14
   .byte  196,65,45,213,214                   // vpmullw       %ymm14,%ymm10,%ymm10
-  .byte  196,98,125,121,53,55,121,0,0        // vpbroadcastw  0x7937(%rip),%ymm14        # 2b18e <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
+  .byte  196,98,125,121,53,123,121,0,0       // vpbroadcastw  0x797b(%rip),%ymm14        # 3280e <_sk_srcover_rgba_8888_sse2_lowp+0x792>
   .byte  196,65,45,253,210                   // vpaddw        %ymm10,%ymm10,%ymm10
   .byte  196,65,61,249,194                   // vpsubw        %ymm10,%ymm8,%ymm8
   .byte  197,13,249,215                      // vpsubw        %ymm7,%ymm14,%ymm10
@@ -44527,7 +51653,7 @@
 FUNCTION(_sk_overlay_hsw_lowp)
 _sk_overlay_hsw_lowp:
   .byte  197,93,253,196                      // vpaddw        %ymm4,%ymm4,%ymm8
-  .byte  196,98,125,121,13,172,120,0,0       // vpbroadcastw  0x78ac(%rip),%ymm9        # 2b194 <_sk_srcover_rgba_8888_sse2_lowp+0x754>
+  .byte  196,98,125,121,13,240,120,0,0       // vpbroadcastw  0x78f0(%rip),%ymm9        # 32814 <_sk_srcover_rgba_8888_sse2_lowp+0x798>
   .byte  196,65,69,239,209                   // vpxor         %ymm9,%ymm7,%ymm10
   .byte  196,65,61,239,193                   // vpxor         %ymm9,%ymm8,%ymm8
   .byte  196,65,61,101,218                   // vpcmpgtw      %ymm10,%ymm8,%ymm11
@@ -44551,7 +51677,7 @@
   .byte  196,65,21,253,237                   // vpaddw        %ymm13,%ymm13,%ymm13
   .byte  196,65,61,249,237                   // vpsubw        %ymm13,%ymm8,%ymm13
   .byte  196,67,13,76,229,192                // vpblendvb     %ymm12,%ymm13,%ymm14,%ymm12
-  .byte  196,98,125,121,45,52,120,0,0        // vpbroadcastw  0x7834(%rip),%ymm13        # 2b192 <_sk_srcover_rgba_8888_sse2_lowp+0x752>
+  .byte  196,98,125,121,45,120,120,0,0       // vpbroadcastw  0x7878(%rip),%ymm13        # 32812 <_sk_srcover_rgba_8888_sse2_lowp+0x796>
   .byte  197,77,253,246                      // vpaddw        %ymm6,%ymm6,%ymm14
   .byte  196,65,13,239,201                   // vpxor         %ymm9,%ymm14,%ymm9
   .byte  196,65,53,101,202                   // vpcmpgtw      %ymm10,%ymm9,%ymm9
@@ -44603,10 +51729,10 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,55                              // ja            23a54 <_sk_load_8888_hsw_lowp+0x52>
+  .byte  119,55                              // ja            2b090 <_sk_load_8888_hsw_lowp+0x52>
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,161,1,0,0                 // lea           0x1a1(%rip),%r9        # 23bcc <_sk_load_8888_hsw_lowp+0x1ca>
+  .byte  76,141,13,161,1,0,0                 // lea           0x1a1(%rip),%r9        # 2b208 <_sk_load_8888_hsw_lowp+0x1ca>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -44616,10 +51742,10 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,12,144              // vmovd         (%r8,%rdx,4),%xmm1
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
-  .byte  233,39,1,0,0                        // jmpq          23b7b <_sk_load_8888_hsw_lowp+0x179>
+  .byte  233,39,1,0,0                        // jmpq          2b1b7 <_sk_load_8888_hsw_lowp+0x179>
   .byte  196,193,126,111,12,144              // vmovdqu       (%r8,%rdx,4),%ymm1
   .byte  196,193,126,111,68,144,32           // vmovdqu       0x20(%r8,%rdx,4),%ymm0
-  .byte  233,21,1,0,0                        // jmpq          23b7b <_sk_load_8888_hsw_lowp+0x179>
+  .byte  233,21,1,0,0                        // jmpq          2b1b7 <_sk_load_8888_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,8            // vmovd         0x8(%r8,%rdx,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
@@ -44628,7 +51754,7 @@
   .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
   .byte  196,227,125,2,201,3                 // vpblendd      $0x3,%ymm1,%ymm0,%ymm1
   .byte  197,253,111,195                     // vmovdqa       %ymm3,%ymm0
-  .byte  233,229,0,0,0                       // jmpq          23b7b <_sk_load_8888_hsw_lowp+0x179>
+  .byte  233,229,0,0,0                       // jmpq          2b1b7 <_sk_load_8888_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,24           // vmovd         0x18(%r8,%rdx,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -44644,7 +51770,7 @@
   .byte  196,193,122,111,12,144              // vmovdqu       (%r8,%rdx,4),%xmm1
   .byte  196,227,117,2,200,240               // vpblendd      $0xf0,%ymm0,%ymm1,%ymm1
   .byte  197,125,127,192                     // vmovdqa       %ymm8,%ymm0
-  .byte  233,138,0,0,0                       // jmpq          23b7b <_sk_load_8888_hsw_lowp+0x179>
+  .byte  233,138,0,0,0                       // jmpq          2b1b7 <_sk_load_8888_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,40           // vmovd         0x28(%r8,%rdx,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -44654,7 +51780,7 @@
   .byte  196,193,121,110,76,144,32           // vmovd         0x20(%r8,%rdx,4),%xmm1
   .byte  196,227,125,2,193,1                 // vpblendd      $0x1,%ymm1,%ymm0,%ymm0
   .byte  196,193,126,111,12,144              // vmovdqu       (%r8,%rdx,4),%ymm1
-  .byte  235,81                              // jmp           23b7b <_sk_load_8888_hsw_lowp+0x179>
+  .byte  235,81                              // jmp           2b1b7 <_sk_load_8888_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,56           // vmovd         0x38(%r8,%rdx,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -44674,7 +51800,7 @@
   .byte  196,227,101,14,200,170              // vpblendw      $0xaa,%ymm0,%ymm3,%ymm1
   .byte  196,227,109,14,192,170              // vpblendw      $0xaa,%ymm0,%ymm2,%ymm0
   .byte  196,226,125,43,201                  // vpackusdw     %ymm1,%ymm0,%ymm1
-  .byte  197,125,111,5,252,117,0,0           // vmovdqa       0x75fc(%rip),%ymm8        # 2b1a0 <_sk_srcover_rgba_8888_sse2_lowp+0x760>
+  .byte  197,125,111,5,64,118,0,0            // vmovdqa       0x7640(%rip),%ymm8        # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
   .byte  196,193,117,219,192                 // vpand         %ymm8,%ymm1,%ymm0
   .byte  197,245,113,209,8                   // vpsrlw        $0x8,%ymm1,%ymm1
   .byte  197,229,114,211,16                  // vpsrld        $0x10,%ymm3,%ymm3
@@ -44685,7 +51811,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  144                                 // nop
-  .byte  121,254                             // jns           23bcc <_sk_load_8888_hsw_lowp+0x1ca>
+  .byte  121,254                             // jns           2b208 <_sk_load_8888_hsw_lowp+0x1ca>
   .byte  255                                 // (bad)
   .byte  255,176,254,255,255,154             // pushq         -0x65000002(%rax)
   .byte  254                                 // (bad)
@@ -44710,7 +51836,7 @@
   .byte  255                                 // (bad)
   .byte  59,255                              // cmp           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,37,255,255,255,156              // jmpq          *-0x63000001(%rip)        # ffffffff9d023bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
+  .byte  255,37,255,255,255,156              // jmpq          *-0x63000001(%rip)        # ffffffff9d02b234 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,136,255,255,255,116             // decl          0x74ffffff(%rax)
@@ -44733,10 +51859,10 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,55                              // ja            23c5a <_sk_load_8888_dst_hsw_lowp+0x52>
+  .byte  119,55                              // ja            2b296 <_sk_load_8888_dst_hsw_lowp+0x52>
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 23dd4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -44746,10 +51872,10 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,44,144              // vmovd         (%r8,%rdx,4),%xmm5
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
-  .byte  233,39,1,0,0                        // jmpq          23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+  .byte  233,39,1,0,0                        // jmpq          2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
   .byte  196,193,126,111,44,144              // vmovdqu       (%r8,%rdx,4),%ymm5
   .byte  196,193,126,111,100,144,32          // vmovdqu       0x20(%r8,%rdx,4),%ymm4
-  .byte  233,21,1,0,0                        // jmpq          23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+  .byte  233,21,1,0,0                        // jmpq          2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,8           // vmovd         0x8(%r8,%rdx,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
@@ -44758,7 +51884,7 @@
   .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
   .byte  196,227,93,2,237,3                  // vpblendd      $0x3,%ymm5,%ymm4,%ymm5
   .byte  197,253,111,231                     // vmovdqa       %ymm7,%ymm4
-  .byte  233,229,0,0,0                       // jmpq          23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+  .byte  233,229,0,0,0                       // jmpq          2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,24          // vmovd         0x18(%r8,%rdx,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -44774,7 +51900,7 @@
   .byte  196,193,122,111,44,144              // vmovdqu       (%r8,%rdx,4),%xmm5
   .byte  196,227,85,2,236,240                // vpblendd      $0xf0,%ymm4,%ymm5,%ymm5
   .byte  197,125,127,196                     // vmovdqa       %ymm8,%ymm4
-  .byte  233,138,0,0,0                       // jmpq          23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+  .byte  233,138,0,0,0                       // jmpq          2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,40          // vmovd         0x28(%r8,%rdx,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -44784,7 +51910,7 @@
   .byte  196,193,121,110,108,144,32          // vmovd         0x20(%r8,%rdx,4),%xmm5
   .byte  196,227,93,2,229,1                  // vpblendd      $0x1,%ymm5,%ymm4,%ymm4
   .byte  196,193,126,111,44,144              // vmovdqu       (%r8,%rdx,4),%ymm5
-  .byte  235,81                              // jmp           23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+  .byte  235,81                              // jmp           2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,56          // vmovd         0x38(%r8,%rdx,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -44804,7 +51930,7 @@
   .byte  196,227,69,14,236,170               // vpblendw      $0xaa,%ymm4,%ymm7,%ymm5
   .byte  196,227,77,14,228,170               // vpblendw      $0xaa,%ymm4,%ymm6,%ymm4
   .byte  196,226,93,43,237                   // vpackusdw     %ymm5,%ymm4,%ymm5
-  .byte  197,125,111,5,22,116,0,0            // vmovdqa       0x7416(%rip),%ymm8        # 2b1c0 <_sk_srcover_rgba_8888_sse2_lowp+0x780>
+  .byte  197,125,111,5,90,116,0,0            // vmovdqa       0x745a(%rip),%ymm8        # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
   .byte  196,193,85,219,224                  // vpand         %ymm8,%ymm5,%ymm4
   .byte  197,213,113,213,8                   // vpsrlw        $0x8,%ymm5,%ymm5
   .byte  197,197,114,215,16                  // vpsrld        $0x10,%ymm7,%ymm7
@@ -44815,7 +51941,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  119,254                             // ja            23dd4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+  .byte  119,254                             // ja            2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
   .byte  255                                 // (bad)
   .byte  255,174,254,255,255,152             // ljmp          *-0x67000002(%rsi)
   .byte  254                                 // (bad)
@@ -44876,20 +52002,20 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,30                              // ja            23e91 <_sk_store_8888_hsw_lowp+0x81>
+  .byte  119,30                              // ja            2b4cd <_sk_store_8888_hsw_lowp+0x81>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 23f40 <_sk_store_8888_hsw_lowp+0x130>
+  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 2b57c <_sk_store_8888_hsw_lowp+0x130>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,126,4,144                // vmovd         %xmm8,(%r8,%rdx,4)
-  .byte  233,171,0,0,0                       // jmpq          23f3c <_sk_store_8888_hsw_lowp+0x12c>
+  .byte  233,171,0,0,0                       // jmpq          2b578 <_sk_store_8888_hsw_lowp+0x12c>
   .byte  196,65,126,127,4,144                // vmovdqu       %ymm8,(%r8,%rdx,4)
   .byte  196,65,126,127,76,144,32            // vmovdqu       %ymm9,0x20(%r8,%rdx,4)
-  .byte  233,153,0,0,0                       // jmpq          23f3c <_sk_store_8888_hsw_lowp+0x12c>
+  .byte  233,153,0,0,0                       // jmpq          2b578 <_sk_store_8888_hsw_lowp+0x12c>
   .byte  196,67,121,22,68,144,8,2            // vpextrd       $0x2,%xmm8,0x8(%r8,%rdx,4)
   .byte  196,65,121,214,4,144                // vmovq         %xmm8,(%r8,%rdx,4)
-  .byte  233,134,0,0,0                       // jmpq          23f3c <_sk_store_8888_hsw_lowp+0x12c>
+  .byte  233,134,0,0,0                       // jmpq          2b578 <_sk_store_8888_hsw_lowp+0x12c>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,22,76,144,24,2           // vpextrd       $0x2,%xmm9,0x18(%r8,%rdx,4)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -44897,12 +52023,12 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,65,121,126,76,144,16            // vmovd         %xmm9,0x10(%r8,%rdx,4)
   .byte  196,65,122,127,4,144                // vmovdqu       %xmm8,(%r8,%rdx,4)
-  .byte  235,85                              // jmp           23f3c <_sk_store_8888_hsw_lowp+0x12c>
+  .byte  235,85                              // jmp           2b578 <_sk_store_8888_hsw_lowp+0x12c>
   .byte  196,67,121,22,76,144,40,2           // vpextrd       $0x2,%xmm9,0x28(%r8,%rdx,4)
   .byte  196,67,121,22,76,144,36,1           // vpextrd       $0x1,%xmm9,0x24(%r8,%rdx,4)
   .byte  196,65,121,126,76,144,32            // vmovd         %xmm9,0x20(%r8,%rdx,4)
   .byte  196,65,126,127,4,144                // vmovdqu       %ymm8,(%r8,%rdx,4)
-  .byte  235,54                              // jmp           23f3c <_sk_store_8888_hsw_lowp+0x12c>
+  .byte  235,54                              // jmp           2b578 <_sk_store_8888_hsw_lowp+0x12c>
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
   .byte  196,67,121,22,84,144,56,2           // vpextrd       $0x2,%xmm10,0x38(%r8,%rdx,4)
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
@@ -44959,10 +52085,10 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,55                              // ja            23fce <_sk_load_bgra_hsw_lowp+0x52>
+  .byte  119,55                              // ja            2b60a <_sk_load_bgra_hsw_lowp+0x52>
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 24148 <_sk_load_bgra_hsw_lowp+0x1cc>
+  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -44972,10 +52098,10 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,12,144              // vmovd         (%r8,%rdx,4),%xmm1
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
-  .byte  233,39,1,0,0                        // jmpq          240f5 <_sk_load_bgra_hsw_lowp+0x179>
+  .byte  233,39,1,0,0                        // jmpq          2b731 <_sk_load_bgra_hsw_lowp+0x179>
   .byte  196,193,126,111,12,144              // vmovdqu       (%r8,%rdx,4),%ymm1
   .byte  196,193,126,111,68,144,32           // vmovdqu       0x20(%r8,%rdx,4),%ymm0
-  .byte  233,21,1,0,0                        // jmpq          240f5 <_sk_load_bgra_hsw_lowp+0x179>
+  .byte  233,21,1,0,0                        // jmpq          2b731 <_sk_load_bgra_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,8            // vmovd         0x8(%r8,%rdx,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,229,239,219                     // vpxor         %ymm3,%ymm3,%ymm3
@@ -44984,7 +52110,7 @@
   .byte  197,249,112,201,232                 // vpshufd       $0xe8,%xmm1,%xmm1
   .byte  196,227,125,2,201,3                 // vpblendd      $0x3,%ymm1,%ymm0,%ymm1
   .byte  197,253,111,195                     // vmovdqa       %ymm3,%ymm0
-  .byte  233,229,0,0,0                       // jmpq          240f5 <_sk_load_bgra_hsw_lowp+0x179>
+  .byte  233,229,0,0,0                       // jmpq          2b731 <_sk_load_bgra_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,24           // vmovd         0x18(%r8,%rdx,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -45000,7 +52126,7 @@
   .byte  196,193,122,111,12,144              // vmovdqu       (%r8,%rdx,4),%xmm1
   .byte  196,227,117,2,200,240               // vpblendd      $0xf0,%ymm0,%ymm1,%ymm1
   .byte  197,125,127,192                     // vmovdqa       %ymm8,%ymm0
-  .byte  233,138,0,0,0                       // jmpq          240f5 <_sk_load_bgra_hsw_lowp+0x179>
+  .byte  233,138,0,0,0                       // jmpq          2b731 <_sk_load_bgra_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,40           // vmovd         0x28(%r8,%rdx,4),%xmm0
   .byte  196,226,121,89,192                  // vpbroadcastq  %xmm0,%xmm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -45010,7 +52136,7 @@
   .byte  196,193,121,110,76,144,32           // vmovd         0x20(%r8,%rdx,4),%xmm1
   .byte  196,227,125,2,193,1                 // vpblendd      $0x1,%ymm1,%ymm0,%ymm0
   .byte  196,193,126,111,12,144              // vmovdqu       (%r8,%rdx,4),%ymm1
-  .byte  235,81                              // jmp           240f5 <_sk_load_bgra_hsw_lowp+0x179>
+  .byte  235,81                              // jmp           2b731 <_sk_load_bgra_hsw_lowp+0x179>
   .byte  196,193,121,110,68,144,56           // vmovd         0x38(%r8,%rdx,4),%xmm0
   .byte  196,226,125,89,192                  // vpbroadcastq  %xmm0,%ymm0
   .byte  197,245,239,201                     // vpxor         %ymm1,%ymm1,%ymm1
@@ -45030,7 +52156,7 @@
   .byte  196,227,125,14,209,170              // vpblendw      $0xaa,%ymm1,%ymm0,%ymm2
   .byte  196,227,101,14,201,170              // vpblendw      $0xaa,%ymm1,%ymm3,%ymm1
   .byte  196,226,117,43,202                  // vpackusdw     %ymm2,%ymm1,%ymm1
-  .byte  197,125,111,5,194,112,0,0           // vmovdqa       0x70c2(%rip),%ymm8        # 2b1e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7a0>
+  .byte  197,125,111,5,6,113,0,0             // vmovdqa       0x7106(%rip),%ymm8        # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
   .byte  196,193,117,219,208                 // vpand         %ymm8,%ymm1,%ymm2
   .byte  197,245,113,209,8                   // vpsrlw        $0x8,%ymm1,%ymm1
   .byte  197,253,114,208,16                  // vpsrld        $0x10,%ymm0,%ymm0
@@ -45041,7 +52167,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  119,254                             // ja            24148 <_sk_load_bgra_hsw_lowp+0x1cc>
+  .byte  119,254                             // ja            2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
   .byte  255                                 // (bad)
   .byte  255,174,254,255,255,152             // ljmp          *-0x67000002(%rsi)
   .byte  254                                 // (bad)
@@ -45088,10 +52214,10 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,55                              // ja            241d6 <_sk_load_bgra_dst_hsw_lowp+0x52>
+  .byte  119,55                              // ja            2b812 <_sk_load_bgra_dst_hsw_lowp+0x52>
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 24350 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+  .byte  76,141,13,163,1,0,0                 // lea           0x1a3(%rip),%r9        # 2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -45101,10 +52227,10 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,44,144              // vmovd         (%r8,%rdx,4),%xmm5
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
-  .byte  233,39,1,0,0                        // jmpq          242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+  .byte  233,39,1,0,0                        // jmpq          2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
   .byte  196,193,126,111,44,144              // vmovdqu       (%r8,%rdx,4),%ymm5
   .byte  196,193,126,111,100,144,32          // vmovdqu       0x20(%r8,%rdx,4),%ymm4
-  .byte  233,21,1,0,0                        // jmpq          242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+  .byte  233,21,1,0,0                        // jmpq          2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,8           // vmovd         0x8(%r8,%rdx,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
@@ -45113,7 +52239,7 @@
   .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
   .byte  196,227,93,2,237,3                  // vpblendd      $0x3,%ymm5,%ymm4,%ymm5
   .byte  197,253,111,231                     // vmovdqa       %ymm7,%ymm4
-  .byte  233,229,0,0,0                       // jmpq          242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+  .byte  233,229,0,0,0                       // jmpq          2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,24          // vmovd         0x18(%r8,%rdx,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -45129,7 +52255,7 @@
   .byte  196,193,122,111,44,144              // vmovdqu       (%r8,%rdx,4),%xmm5
   .byte  196,227,85,2,236,240                // vpblendd      $0xf0,%ymm4,%ymm5,%ymm5
   .byte  197,125,127,196                     // vmovdqa       %ymm8,%ymm4
-  .byte  233,138,0,0,0                       // jmpq          242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+  .byte  233,138,0,0,0                       // jmpq          2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,40          // vmovd         0x28(%r8,%rdx,4),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -45139,7 +52265,7 @@
   .byte  196,193,121,110,108,144,32          // vmovd         0x20(%r8,%rdx,4),%xmm5
   .byte  196,227,93,2,229,1                  // vpblendd      $0x1,%ymm5,%ymm4,%ymm4
   .byte  196,193,126,111,44,144              // vmovdqu       (%r8,%rdx,4),%ymm5
-  .byte  235,81                              // jmp           242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+  .byte  235,81                              // jmp           2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
   .byte  196,193,121,110,100,144,56          // vmovd         0x38(%r8,%rdx,4),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -45159,7 +52285,7 @@
   .byte  196,227,93,14,245,170               // vpblendw      $0xaa,%ymm5,%ymm4,%ymm6
   .byte  196,227,69,14,237,170               // vpblendw      $0xaa,%ymm5,%ymm7,%ymm5
   .byte  196,226,85,43,238                   // vpackusdw     %ymm6,%ymm5,%ymm5
-  .byte  197,125,111,5,218,110,0,0           // vmovdqa       0x6eda(%rip),%ymm8        # 2b200 <_sk_srcover_rgba_8888_sse2_lowp+0x7c0>
+  .byte  197,125,111,5,30,111,0,0            // vmovdqa       0x6f1e(%rip),%ymm8        # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
   .byte  196,193,85,219,240                  // vpand         %ymm8,%ymm5,%ymm6
   .byte  197,213,113,213,8                   // vpsrlw        $0x8,%ymm5,%ymm5
   .byte  197,221,114,212,16                  // vpsrld        $0x10,%ymm4,%ymm4
@@ -45170,7 +52296,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  119,254                             // ja            24350 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+  .byte  119,254                             // ja            2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
   .byte  255                                 // (bad)
   .byte  255,174,254,255,255,152             // ljmp          *-0x67000002(%rsi)
   .byte  254                                 // (bad)
@@ -45231,20 +52357,20 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,30                              // ja            2440d <_sk_store_bgra_hsw_lowp+0x81>
+  .byte  119,30                              // ja            2ba49 <_sk_store_bgra_hsw_lowp+0x81>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 244bc <_sk_store_bgra_hsw_lowp+0x130>
+  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 2baf8 <_sk_store_bgra_hsw_lowp+0x130>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,126,4,144                // vmovd         %xmm8,(%r8,%rdx,4)
-  .byte  233,171,0,0,0                       // jmpq          244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+  .byte  233,171,0,0,0                       // jmpq          2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
   .byte  196,65,126,127,4,144                // vmovdqu       %ymm8,(%r8,%rdx,4)
   .byte  196,65,126,127,76,144,32            // vmovdqu       %ymm9,0x20(%r8,%rdx,4)
-  .byte  233,153,0,0,0                       // jmpq          244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+  .byte  233,153,0,0,0                       // jmpq          2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
   .byte  196,67,121,22,68,144,8,2            // vpextrd       $0x2,%xmm8,0x8(%r8,%rdx,4)
   .byte  196,65,121,214,4,144                // vmovq         %xmm8,(%r8,%rdx,4)
-  .byte  233,134,0,0,0                       // jmpq          244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+  .byte  233,134,0,0,0                       // jmpq          2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,22,76,144,24,2           // vpextrd       $0x2,%xmm9,0x18(%r8,%rdx,4)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -45252,12 +52378,12 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,65,121,126,76,144,16            // vmovd         %xmm9,0x10(%r8,%rdx,4)
   .byte  196,65,122,127,4,144                // vmovdqu       %xmm8,(%r8,%rdx,4)
-  .byte  235,85                              // jmp           244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+  .byte  235,85                              // jmp           2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
   .byte  196,67,121,22,76,144,40,2           // vpextrd       $0x2,%xmm9,0x28(%r8,%rdx,4)
   .byte  196,67,121,22,76,144,36,1           // vpextrd       $0x1,%xmm9,0x24(%r8,%rdx,4)
   .byte  196,65,121,126,76,144,32            // vmovd         %xmm9,0x20(%r8,%rdx,4)
   .byte  196,65,126,127,4,144                // vmovdqu       %ymm8,(%r8,%rdx,4)
-  .byte  235,54                              // jmp           244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+  .byte  235,54                              // jmp           2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
   .byte  196,67,121,22,84,144,56,2           // vpextrd       $0x2,%xmm10,0x38(%r8,%rdx,4)
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
@@ -45314,24 +52440,24 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            24537 <_sk_load_565_hsw_lowp+0x3f>
+  .byte  119,37                              // ja            2bb73 <_sk_load_565_hsw_lowp+0x3f>
   .byte  197,253,239,192                     // vpxor         %ymm0,%ymm0,%ymm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,132,1,0,0                 // lea           0x184(%rip),%r9        # 246a4 <_sk_load_565_hsw_lowp+0x1ac>
+  .byte  76,141,13,132,1,0,0                 // lea           0x184(%rip),%r9        # 2bce0 <_sk_load_565_hsw_lowp+0x1ac>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,8,1,0,0                         // jmpq          2463f <_sk_load_565_hsw_lowp+0x147>
+  .byte  233,8,1,0,0                         // jmpq          2bc7b <_sk_load_565_hsw_lowp+0x147>
   .byte  196,193,126,111,4,80                // vmovdqu       (%r8,%rdx,2),%ymm0
-  .byte  233,253,0,0,0                       // jmpq          2463f <_sk_load_565_hsw_lowp+0x147>
+  .byte  233,253,0,0,0                       // jmpq          2bc7b <_sk_load_565_hsw_lowp+0x147>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,193,121,196,76,80,4,2           // vpinsrw       $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
   .byte  196,227,117,56,192,1                // vinserti128   $0x1,%xmm0,%ymm1,%ymm0
   .byte  196,193,121,110,12,80               // vmovd         (%r8,%rdx,2),%xmm1
   .byte  196,227,125,2,193,1                 // vpblendd      $0x1,%ymm1,%ymm0,%ymm0
-  .byte  233,218,0,0,0                       // jmpq          2463f <_sk_load_565_hsw_lowp+0x147>
+  .byte  233,218,0,0,0                       // jmpq          2bc7b <_sk_load_565_hsw_lowp+0x147>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,193,121,196,76,80,12,6          // vpinsrw       $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
   .byte  196,227,117,56,192,1                // vinserti128   $0x1,%xmm0,%ymm1,%ymm0
@@ -45341,7 +52467,7 @@
   .byte  196,227,125,2,193,15                // vpblendd      $0xf,%ymm1,%ymm0,%ymm0
   .byte  196,193,122,126,12,80               // vmovq         (%r8,%rdx,2),%xmm1
   .byte  196,227,125,2,193,3                 // vpblendd      $0x3,%ymm1,%ymm0,%ymm0
-  .byte  233,155,0,0,0                       // jmpq          2463f <_sk_load_565_hsw_lowp+0x147>
+  .byte  233,155,0,0,0                       // jmpq          2bc7b <_sk_load_565_hsw_lowp+0x147>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,193,121,196,76,80,20,2          // vpinsrw       $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
   .byte  196,227,125,56,193,1                // vinserti128   $0x1,%xmm1,%ymm0,%ymm0
@@ -45353,7 +52479,7 @@
   .byte  196,227,125,56,193,1                // vinserti128   $0x1,%xmm1,%ymm0,%ymm0
   .byte  196,193,122,111,12,80               // vmovdqu       (%r8,%rdx,2),%xmm1
   .byte  196,227,117,2,192,240               // vpblendd      $0xf0,%ymm0,%ymm1,%ymm0
-  .byte  235,83                              // jmp           2463f <_sk_load_565_hsw_lowp+0x147>
+  .byte  235,83                              // jmp           2bc7b <_sk_load_565_hsw_lowp+0x147>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,193,121,196,76,80,28,6          // vpinsrw       $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
   .byte  196,227,125,56,193,1                // vinserti128   $0x1,%xmm1,%ymm0,%ymm0
@@ -45367,13 +52493,13 @@
   .byte  196,193,122,111,20,80               // vmovdqu       (%r8,%rdx,2),%xmm2
   .byte  196,227,109,56,201,1                // vinserti128   $0x1,%xmm1,%ymm2,%ymm1
   .byte  196,227,117,2,192,192               // vpblendd      $0xc0,%ymm0,%ymm1,%ymm0
-  .byte  196,226,125,121,13,216,107,0,0      // vpbroadcastw  0x6bd8(%rip),%ymm1        # 2b220 <_sk_srcover_rgba_8888_sse2_lowp+0x7e0>
+  .byte  196,226,125,121,13,28,108,0,0       // vpbroadcastw  0x6c1c(%rip),%ymm1        # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
   .byte  197,237,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm2
   .byte  197,237,219,201                     // vpand         %ymm1,%ymm2,%ymm1
   .byte  197,237,113,208,5                   // vpsrlw        $0x5,%ymm0,%ymm2
-  .byte  196,226,125,121,29,195,107,0,0      // vpbroadcastw  0x6bc3(%rip),%ymm3        # 2b222 <_sk_srcover_rgba_8888_sse2_lowp+0x7e2>
+  .byte  196,226,125,121,29,7,108,0,0        // vpbroadcastw  0x6c07(%rip),%ymm3        # 328a2 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
   .byte  197,237,219,211                     // vpand         %ymm3,%ymm2,%ymm2
-  .byte  196,226,125,121,29,184,107,0,0      // vpbroadcastw  0x6bb8(%rip),%ymm3        # 2b224 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
+  .byte  196,226,125,121,29,252,107,0,0      // vpbroadcastw  0x6bfc(%rip),%ymm3        # 328a4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
   .byte  197,253,219,219                     // vpand         %ymm3,%ymm0,%ymm3
   .byte  197,253,113,208,13                  // vpsrlw        $0xd,%ymm0,%ymm0
   .byte  197,245,235,192                     // vpor          %ymm0,%ymm1,%ymm0
@@ -45384,7 +52510,7 @@
   .byte  197,229,113,211,2                   // vpsrlw        $0x2,%ymm3,%ymm3
   .byte  197,237,235,211                     // vpor          %ymm3,%ymm2,%ymm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,29,134,107,0,0      // vpbroadcastw  0x6b86(%rip),%ymm3        # 2b226 <_sk_srcover_rgba_8888_sse2_lowp+0x7e6>
+  .byte  196,226,125,121,29,202,107,0,0      // vpbroadcastw  0x6bca(%rip),%ymm3        # 328a6 <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
   .byte  255,224                             // jmpq          *%rax
   .byte  102,144                             // xchg          %ax,%ax
   .byte  133,254                             // test          %edi,%esi
@@ -45439,24 +52565,24 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            2471f <_sk_load_565_dst_hsw_lowp+0x3f>
+  .byte  119,37                              // ja            2bd5b <_sk_load_565_dst_hsw_lowp+0x3f>
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,132,1,0,0                 // lea           0x184(%rip),%r9        # 2488c <_sk_load_565_dst_hsw_lowp+0x1ac>
+  .byte  76,141,13,132,1,0,0                 // lea           0x184(%rip),%r9        # 2bec8 <_sk_load_565_dst_hsw_lowp+0x1ac>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,8,1,0,0                         // jmpq          24827 <_sk_load_565_dst_hsw_lowp+0x147>
+  .byte  233,8,1,0,0                         // jmpq          2be63 <_sk_load_565_dst_hsw_lowp+0x147>
   .byte  196,193,126,111,36,80               // vmovdqu       (%r8,%rdx,2),%ymm4
-  .byte  233,253,0,0,0                       // jmpq          24827 <_sk_load_565_dst_hsw_lowp+0x147>
+  .byte  233,253,0,0,0                       // jmpq          2be63 <_sk_load_565_dst_hsw_lowp+0x147>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,193,89,196,108,80,4,2           // vpinsrw       $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
   .byte  196,227,85,56,228,1                 // vinserti128   $0x1,%xmm4,%ymm5,%ymm4
   .byte  196,193,121,110,44,80               // vmovd         (%r8,%rdx,2),%xmm5
   .byte  196,227,93,2,229,1                  // vpblendd      $0x1,%ymm5,%ymm4,%ymm4
-  .byte  233,218,0,0,0                       // jmpq          24827 <_sk_load_565_dst_hsw_lowp+0x147>
+  .byte  233,218,0,0,0                       // jmpq          2be63 <_sk_load_565_dst_hsw_lowp+0x147>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,193,89,196,108,80,12,6          // vpinsrw       $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
   .byte  196,227,85,56,228,1                 // vinserti128   $0x1,%xmm4,%ymm5,%ymm4
@@ -45466,7 +52592,7 @@
   .byte  196,227,93,2,229,15                 // vpblendd      $0xf,%ymm5,%ymm4,%ymm4
   .byte  196,193,122,126,44,80               // vmovq         (%r8,%rdx,2),%xmm5
   .byte  196,227,93,2,229,3                  // vpblendd      $0x3,%ymm5,%ymm4,%ymm4
-  .byte  233,155,0,0,0                       // jmpq          24827 <_sk_load_565_dst_hsw_lowp+0x147>
+  .byte  233,155,0,0,0                       // jmpq          2be63 <_sk_load_565_dst_hsw_lowp+0x147>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,193,89,196,108,80,20,2          // vpinsrw       $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
   .byte  196,227,93,56,229,1                 // vinserti128   $0x1,%xmm5,%ymm4,%ymm4
@@ -45478,7 +52604,7 @@
   .byte  196,227,93,56,229,1                 // vinserti128   $0x1,%xmm5,%ymm4,%ymm4
   .byte  196,193,122,111,44,80               // vmovdqu       (%r8,%rdx,2),%xmm5
   .byte  196,227,85,2,228,240                // vpblendd      $0xf0,%ymm4,%ymm5,%ymm4
-  .byte  235,83                              // jmp           24827 <_sk_load_565_dst_hsw_lowp+0x147>
+  .byte  235,83                              // jmp           2be63 <_sk_load_565_dst_hsw_lowp+0x147>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,193,89,196,108,80,28,6          // vpinsrw       $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
   .byte  196,227,93,56,229,1                 // vinserti128   $0x1,%xmm5,%ymm4,%ymm4
@@ -45492,13 +52618,13 @@
   .byte  196,193,122,111,52,80               // vmovdqu       (%r8,%rdx,2),%xmm6
   .byte  196,227,77,56,237,1                 // vinserti128   $0x1,%xmm5,%ymm6,%ymm5
   .byte  196,227,85,2,228,192                // vpblendd      $0xc0,%ymm4,%ymm5,%ymm4
-  .byte  196,226,125,121,45,248,105,0,0      // vpbroadcastw  0x69f8(%rip),%ymm5        # 2b228 <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
+  .byte  196,226,125,121,45,60,106,0,0       // vpbroadcastw  0x6a3c(%rip),%ymm5        # 328a8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
   .byte  197,205,113,212,8                   // vpsrlw        $0x8,%ymm4,%ymm6
   .byte  197,205,219,237                     // vpand         %ymm5,%ymm6,%ymm5
   .byte  197,205,113,212,5                   // vpsrlw        $0x5,%ymm4,%ymm6
-  .byte  196,226,125,121,61,227,105,0,0      // vpbroadcastw  0x69e3(%rip),%ymm7        # 2b22a <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
+  .byte  196,226,125,121,61,39,106,0,0       // vpbroadcastw  0x6a27(%rip),%ymm7        # 328aa <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
   .byte  197,205,219,247                     // vpand         %ymm7,%ymm6,%ymm6
-  .byte  196,226,125,121,61,216,105,0,0      // vpbroadcastw  0x69d8(%rip),%ymm7        # 2b22c <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
+  .byte  196,226,125,121,61,28,106,0,0       // vpbroadcastw  0x6a1c(%rip),%ymm7        # 328ac <_sk_srcover_rgba_8888_sse2_lowp+0x830>
   .byte  197,221,219,255                     // vpand         %ymm7,%ymm4,%ymm7
   .byte  197,221,113,212,13                  // vpsrlw        $0xd,%ymm4,%ymm4
   .byte  197,213,235,228                     // vpor          %ymm4,%ymm5,%ymm4
@@ -45509,7 +52635,7 @@
   .byte  197,197,113,215,2                   // vpsrlw        $0x2,%ymm7,%ymm7
   .byte  197,205,235,247                     // vpor          %ymm7,%ymm6,%ymm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,61,166,105,0,0      // vpbroadcastw  0x69a6(%rip),%ymm7        # 2b22e <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
+  .byte  196,226,125,121,61,234,105,0,0      // vpbroadcastw  0x69ea(%rip),%ymm7        # 328ae <_sk_srcover_rgba_8888_sse2_lowp+0x832>
   .byte  255,224                             // jmpq          *%rax
   .byte  102,144                             // xchg          %ax,%ax
   .byte  133,254                             // test          %edi,%esi
@@ -45560,10 +52686,10 @@
   .byte  76,15,175,193                       // imul          %rcx,%r8
   .byte  77,1,192                            // add           %r8,%r8
   .byte  76,3,0                              // add           (%rax),%r8
-  .byte  196,98,125,121,5,79,105,0,0         // vpbroadcastw  0x694f(%rip),%ymm8        # 2b230 <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
+  .byte  196,98,125,121,5,147,105,0,0        // vpbroadcastw  0x6993(%rip),%ymm8        # 328b0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
   .byte  197,181,113,240,8                   // vpsllw        $0x8,%ymm0,%ymm9
   .byte  196,65,53,219,192                   // vpand         %ymm8,%ymm9,%ymm8
-  .byte  196,98,125,121,13,62,105,0,0        // vpbroadcastw  0x693e(%rip),%ymm9        # 2b232 <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
+  .byte  196,98,125,121,13,130,105,0,0       // vpbroadcastw  0x6982(%rip),%ymm9        # 328b2 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
   .byte  197,173,113,241,3                   // vpsllw        $0x3,%ymm1,%ymm10
   .byte  196,65,45,219,201                   // vpand         %ymm9,%ymm10,%ymm9
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
@@ -45573,31 +52699,31 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,31                              // ja            24936 <_sk_store_565_hsw_lowp+0x6e>
+  .byte  119,31                              // ja            2bf72 <_sk_store_565_hsw_lowp+0x6e>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 249e4 <_sk_store_565_hsw_lowp+0x11c>
+  .byte  76,141,13,195,0,0,0                 // lea           0xc3(%rip),%r9        # 2c020 <_sk_store_565_hsw_lowp+0x11c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,67,121,21,4,80,0                // vpextrw       $0x0,%xmm8,(%r8,%rdx,2)
-  .byte  233,167,0,0,0                       // jmpq          249dd <_sk_store_565_hsw_lowp+0x115>
+  .byte  233,167,0,0,0                       // jmpq          2c019 <_sk_store_565_hsw_lowp+0x115>
   .byte  196,65,126,127,4,80                 // vmovdqu       %ymm8,(%r8,%rdx,2)
-  .byte  233,156,0,0,0                       // jmpq          249dd <_sk_store_565_hsw_lowp+0x115>
+  .byte  233,156,0,0,0                       // jmpq          2c019 <_sk_store_565_hsw_lowp+0x115>
   .byte  196,67,121,21,68,80,4,2             // vpextrw       $0x2,%xmm8,0x4(%r8,%rdx,2)
   .byte  196,65,121,126,4,80                 // vmovd         %xmm8,(%r8,%rdx,2)
-  .byte  233,137,0,0,0                       // jmpq          249dd <_sk_store_565_hsw_lowp+0x115>
+  .byte  233,137,0,0,0                       // jmpq          2c019 <_sk_store_565_hsw_lowp+0x115>
   .byte  196,67,121,21,68,80,12,6            // vpextrw       $0x6,%xmm8,0xc(%r8,%rdx,2)
   .byte  196,67,121,21,68,80,10,5            // vpextrw       $0x5,%xmm8,0xa(%r8,%rdx,2)
   .byte  196,67,121,21,68,80,8,4             // vpextrw       $0x4,%xmm8,0x8(%r8,%rdx,2)
   .byte  196,65,121,214,4,80                 // vmovq         %xmm8,(%r8,%rdx,2)
-  .byte  235,105                             // jmp           249dd <_sk_store_565_hsw_lowp+0x115>
+  .byte  235,105                             // jmp           2c019 <_sk_store_565_hsw_lowp+0x115>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,21,76,80,20,2            // vpextrw       $0x2,%xmm9,0x14(%r8,%rdx,2)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,21,76,80,18,1            // vpextrw       $0x1,%xmm9,0x12(%r8,%rdx,2)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,21,76,80,16,0            // vpextrw       $0x0,%xmm9,0x10(%r8,%rdx,2)
-  .byte  235,55                              // jmp           249d7 <_sk_store_565_hsw_lowp+0x10f>
+  .byte  235,55                              // jmp           2c013 <_sk_store_565_hsw_lowp+0x10f>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,21,76,80,28,6            // vpextrw       $0x6,%xmm9,0x1c(%r8,%rdx,2)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -45620,7 +52746,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  120,255                             // js            249f9 <_sk_store_565_hsw_lowp+0x131>
+  .byte  120,255                             // js            2c035 <_sk_store_565_hsw_lowp+0x131>
   .byte  255                                 // (bad)
   .byte  255,112,255                         // pushq         -0x1(%rax)
   .byte  255                                 // (bad)
@@ -45656,38 +52782,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            24a5c <_sk_load_a8_hsw_lowp+0x3c>
+  .byte  119,37                              // ja            2c098 <_sk_load_a8_hsw_lowp+0x3c>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,219,0,0,0                 // lea           0xdb(%rip),%r9        # 24b20 <_sk_load_a8_hsw_lowp+0x100>
+  .byte  76,141,13,219,0,0,0                 // lea           0xdb(%rip),%r9        # 2c15c <_sk_load_a8_hsw_lowp+0x100>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,175,0,0,0                       // jmpq          24b0b <_sk_load_a8_hsw_lowp+0xeb>
+  .byte  233,175,0,0,0                       // jmpq          2c147 <_sk_load_a8_hsw_lowp+0xeb>
   .byte  196,193,122,111,4,16                // vmovdqu       (%r8,%rdx,1),%xmm0
-  .byte  233,164,0,0,0                       // jmpq          24b0b <_sk_load_a8_hsw_lowp+0xeb>
+  .byte  233,164,0,0,0                       // jmpq          2c147 <_sk_load_a8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,2,2            // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,227,121,14,193,1                // vpblendw      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,132,0,0,0                       // jmpq          24b0b <_sk_load_a8_hsw_lowp+0xeb>
+  .byte  233,132,0,0,0                       // jmpq          2c147 <_sk_load_a8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,6,6            // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,5,5            // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,4,4            // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,193,121,110,12,16               // vmovd         (%r8,%rdx,1),%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  235,90                              // jmp           24b0b <_sk_load_a8_hsw_lowp+0xeb>
+  .byte  235,90                              // jmp           2c147 <_sk_load_a8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,10,10          // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,9,9            // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,8,8            // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,193,122,126,12,16               // vmovq         (%r8,%rdx,1),%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  235,48                              // jmp           24b0b <_sk_load_a8_hsw_lowp+0xeb>
+  .byte  235,48                              // jmp           2c147 <_sk_load_a8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,14,14          // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,13,13          // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45747,38 +52873,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            24b98 <_sk_load_a8_dst_hsw_lowp+0x3c>
+  .byte  119,37                              // ja            2c1d4 <_sk_load_a8_dst_hsw_lowp+0x3c>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,219,0,0,0                 // lea           0xdb(%rip),%r9        # 24c5c <_sk_load_a8_dst_hsw_lowp+0x100>
+  .byte  76,141,13,219,0,0,0                 // lea           0xdb(%rip),%r9        # 2c298 <_sk_load_a8_dst_hsw_lowp+0x100>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,175,0,0,0                       // jmpq          24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+  .byte  233,175,0,0,0                       // jmpq          2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
   .byte  196,193,122,111,36,16               // vmovdqu       (%r8,%rdx,1),%xmm4
-  .byte  233,164,0,0,0                       // jmpq          24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+  .byte  233,164,0,0,0                       // jmpq          2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,2,2            // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,227,89,14,229,1                 // vpblendw      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,132,0,0,0                       // jmpq          24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+  .byte  233,132,0,0,0                       // jmpq          2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,6,6            // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,5,5            // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,4,4            // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,193,121,110,44,16               // vmovd         (%r8,%rdx,1),%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  235,90                              // jmp           24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+  .byte  235,90                              // jmp           2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,10,10          // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,9,9            // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,8,8            // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,193,122,126,44,16               // vmovq         (%r8,%rdx,1),%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  235,48                              // jmp           24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+  .byte  235,48                              // jmp           2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,14,14          // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,13,13          // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45835,7 +52961,7 @@
   .byte  76,15,175,193                       // imul          %rcx,%r8
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  196,195,125,57,216,1                // vextracti128  $0x1,%ymm3,%xmm8
-  .byte  197,121,111,13,189,110,0,0          // vmovdqa       0x6ebd(%rip),%xmm9        # 2bb70 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+  .byte  197,121,111,13,1,111,0,0            // vmovdqa       0x6f01(%rip),%xmm9        # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
   .byte  196,66,57,0,193                     // vpshufb       %xmm9,%xmm8,%xmm8
   .byte  196,66,97,0,201                     // vpshufb       %xmm9,%xmm3,%xmm9
   .byte  196,65,49,108,192                   // vpunpcklqdq   %xmm8,%xmm9,%xmm8
@@ -45843,28 +52969,28 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,28                              // ja            24ce8 <_sk_store_a8_hsw_lowp+0x50>
+  .byte  119,28                              // ja            2c324 <_sk_store_a8_hsw_lowp+0x50>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,146,0,0,0                 // lea           0x92(%rip),%r9        # 24d68 <_sk_store_a8_hsw_lowp+0xd0>
+  .byte  76,141,13,146,0,0,0                 // lea           0x92(%rip),%r9        # 2c3a4 <_sk_store_a8_hsw_lowp+0xd0>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,67,121,20,4,16,0                // vpextrb       $0x0,%xmm8,(%r8,%rdx,1)
-  .byte  235,121                             // jmp           24d61 <_sk_store_a8_hsw_lowp+0xc9>
+  .byte  235,121                             // jmp           2c39d <_sk_store_a8_hsw_lowp+0xc9>
   .byte  196,65,122,127,4,16                 // vmovdqu       %xmm8,(%r8,%rdx,1)
-  .byte  235,113                             // jmp           24d61 <_sk_store_a8_hsw_lowp+0xc9>
+  .byte  235,113                             // jmp           2c39d <_sk_store_a8_hsw_lowp+0xc9>
   .byte  196,67,121,20,68,16,2,2             // vpextrb       $0x2,%xmm8,0x2(%r8,%rdx,1)
   .byte  196,67,121,21,4,16,0                // vpextrw       $0x0,%xmm8,(%r8,%rdx,1)
-  .byte  235,96                              // jmp           24d61 <_sk_store_a8_hsw_lowp+0xc9>
+  .byte  235,96                              // jmp           2c39d <_sk_store_a8_hsw_lowp+0xc9>
   .byte  196,67,121,20,68,16,6,6             // vpextrb       $0x6,%xmm8,0x6(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,5,5             // vpextrb       $0x5,%xmm8,0x5(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,4,4             // vpextrb       $0x4,%xmm8,0x4(%r8,%rdx,1)
   .byte  196,65,121,126,4,16                 // vmovd         %xmm8,(%r8,%rdx,1)
-  .byte  235,64                              // jmp           24d61 <_sk_store_a8_hsw_lowp+0xc9>
+  .byte  235,64                              // jmp           2c39d <_sk_store_a8_hsw_lowp+0xc9>
   .byte  196,67,121,20,68,16,10,10           // vpextrb       $0xa,%xmm8,0xa(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,9,9             // vpextrb       $0x9,%xmm8,0x9(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,8,8             // vpextrb       $0x8,%xmm8,0x8(%r8,%rdx,1)
-  .byte  235,32                              // jmp           24d5b <_sk_store_a8_hsw_lowp+0xc3>
+  .byte  235,32                              // jmp           2c397 <_sk_store_a8_hsw_lowp+0xc3>
   .byte  196,67,121,20,68,16,14,14           // vpextrb       $0xe,%xmm8,0xe(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,13,13           // vpextrb       $0xd,%xmm8,0xd(%r8,%rdx,1)
   .byte  196,67,121,20,68,16,12,12           // vpextrb       $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -45873,7 +52999,7 @@
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  119,255                             // ja            24d69 <_sk_store_a8_hsw_lowp+0xd1>
+  .byte  119,255                             // ja            2c3a5 <_sk_store_a8_hsw_lowp+0xd1>
   .byte  255                                 // (bad)
   .byte  255,144,255,255,255,136             // callq         *-0x77000001(%rax)
   .byte  255                                 // (bad)
@@ -45920,38 +53046,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            24de0 <_sk_load_g8_hsw_lowp+0x3c>
+  .byte  119,37                              // ja            2c41c <_sk_load_g8_hsw_lowp+0x3c>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,227,0,0,0                 // lea           0xe3(%rip),%r9        # 24eac <_sk_load_g8_hsw_lowp+0x108>
+  .byte  76,141,13,227,0,0,0                 // lea           0xe3(%rip),%r9        # 2c4e8 <_sk_load_g8_hsw_lowp+0x108>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,249,110,192                     // vmovd         %eax,%xmm0
-  .byte  233,175,0,0,0                       // jmpq          24e8f <_sk_load_g8_hsw_lowp+0xeb>
+  .byte  233,175,0,0,0                       // jmpq          2c4cb <_sk_load_g8_hsw_lowp+0xeb>
   .byte  196,193,122,111,4,16                // vmovdqu       (%r8,%rdx,1),%xmm0
-  .byte  233,164,0,0,0                       // jmpq          24e8f <_sk_load_g8_hsw_lowp+0xeb>
+  .byte  233,164,0,0,0                       // jmpq          2c4cb <_sk_load_g8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,2,2            // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,249,110,200                     // vmovd         %eax,%xmm1
   .byte  196,227,121,14,193,1                // vpblendw      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  233,132,0,0,0                       // jmpq          24e8f <_sk_load_g8_hsw_lowp+0xeb>
+  .byte  233,132,0,0,0                       // jmpq          2c4cb <_sk_load_g8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,6,6            // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,5,5            // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,4,4            // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,193,121,110,12,16               // vmovd         (%r8,%rdx,1),%xmm1
   .byte  196,227,121,2,193,1                 // vpblendd      $0x1,%xmm1,%xmm0,%xmm0
-  .byte  235,90                              // jmp           24e8f <_sk_load_g8_hsw_lowp+0xeb>
+  .byte  235,90                              // jmp           2c4cb <_sk_load_g8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,10,10          // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,9,9            // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,8,8            // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,193,122,126,12,16               // vmovq         (%r8,%rdx,1),%xmm1
   .byte  196,227,113,2,192,12                // vpblendd      $0xc,%xmm0,%xmm1,%xmm0
-  .byte  235,48                              // jmp           24e8f <_sk_load_g8_hsw_lowp+0xeb>
+  .byte  235,48                              // jmp           2c4cb <_sk_load_g8_hsw_lowp+0xeb>
   .byte  197,249,239,192                     // vpxor         %xmm0,%xmm0,%xmm0
   .byte  196,195,121,32,68,16,14,14          // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
   .byte  196,195,121,32,68,16,13,13          // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45961,7 +53087,7 @@
   .byte  196,227,113,2,192,8                 // vpblendd      $0x8,%xmm0,%xmm1,%xmm0
   .byte  196,226,125,48,192                  // vpmovzxbw     %xmm0,%ymm0
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,29,149,99,0,0       // vpbroadcastw  0x6395(%rip),%ymm3        # 2b234 <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
+  .byte  196,226,125,121,29,217,99,0,0       // vpbroadcastw  0x63d9(%rip),%ymm3        # 328b4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
   .byte  197,253,111,200                     // vmovdqa       %ymm0,%ymm1
   .byte  197,253,111,208                     // vmovdqa       %ymm0,%ymm2
   .byte  255,224                             // jmpq          *%rax
@@ -45975,7 +53101,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           24eb9 <_sk_load_g8_hsw_lowp+0x115>
+  .byte  123,255                             // jnp           2c4f5 <_sk_load_g8_hsw_lowp+0x115>
   .byte  255                                 // (bad)
   .byte  255,115,255                         // pushq         -0x1(%rbx)
   .byte  255                                 // (bad)
@@ -46013,38 +53139,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,37                              // ja            24f24 <_sk_load_g8_dst_hsw_lowp+0x3c>
+  .byte  119,37                              // ja            2c560 <_sk_load_g8_dst_hsw_lowp+0x3c>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,227,0,0,0                 // lea           0xe3(%rip),%r9        # 24ff0 <_sk_load_g8_dst_hsw_lowp+0x108>
+  .byte  76,141,13,227,0,0,0                 // lea           0xe3(%rip),%r9        # 2c62c <_sk_load_g8_dst_hsw_lowp+0x108>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,249,110,224                     // vmovd         %eax,%xmm4
-  .byte  233,175,0,0,0                       // jmpq          24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+  .byte  233,175,0,0,0                       // jmpq          2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
   .byte  196,193,122,111,36,16               // vmovdqu       (%r8,%rdx,1),%xmm4
-  .byte  233,164,0,0,0                       // jmpq          24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+  .byte  233,164,0,0,0                       // jmpq          2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,2,2            // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,249,110,232                     // vmovd         %eax,%xmm5
   .byte  196,227,89,14,229,1                 // vpblendw      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  233,132,0,0,0                       // jmpq          24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+  .byte  233,132,0,0,0                       // jmpq          2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,6,6            // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,5,5            // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,4,4            // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,193,121,110,44,16               // vmovd         (%r8,%rdx,1),%xmm5
   .byte  196,227,89,2,229,1                  // vpblendd      $0x1,%xmm5,%xmm4,%xmm4
-  .byte  235,90                              // jmp           24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+  .byte  235,90                              // jmp           2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,10,10          // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,9,9            // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,8,8            // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,193,122,126,44,16               // vmovq         (%r8,%rdx,1),%xmm5
   .byte  196,227,81,2,228,12                 // vpblendd      $0xc,%xmm4,%xmm5,%xmm4
-  .byte  235,48                              // jmp           24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+  .byte  235,48                              // jmp           2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
   .byte  197,217,239,228                     // vpxor         %xmm4,%xmm4,%xmm4
   .byte  196,195,89,32,100,16,14,14          // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
   .byte  196,195,89,32,100,16,13,13          // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46054,7 +53180,7 @@
   .byte  196,227,81,2,228,8                  // vpblendd      $0x8,%xmm4,%xmm5,%xmm4
   .byte  196,226,125,48,228                  // vpmovzxbw     %xmm4,%ymm4
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  196,226,125,121,61,83,98,0,0        // vpbroadcastw  0x6253(%rip),%ymm7        # 2b236 <_sk_srcover_rgba_8888_sse2_lowp+0x7f6>
+  .byte  196,226,125,121,61,151,98,0,0       // vpbroadcastw  0x6297(%rip),%ymm7        # 328b6 <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
   .byte  197,253,111,236                     // vmovdqa       %ymm4,%ymm5
   .byte  197,253,111,244                     // vmovdqa       %ymm4,%ymm6
   .byte  255,224                             // jmpq          *%rax
@@ -46068,7 +53194,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           24ffd <_sk_load_g8_dst_hsw_lowp+0x115>
+  .byte  123,255                             // jnp           2c639 <_sk_load_g8_dst_hsw_lowp+0x115>
   .byte  255                                 // (bad)
   .byte  255,115,255                         // pushq         -0x1(%rbx)
   .byte  255                                 // (bad)
@@ -46098,12 +53224,12 @@
 .globl _sk_luminance_to_alpha_hsw_lowp
 FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
 _sk_luminance_to_alpha_hsw_lowp:
-  .byte  196,226,125,121,29,3,98,0,0         // vpbroadcastw  0x6203(%rip),%ymm3        # 2b238 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
+  .byte  196,226,125,121,29,71,98,0,0        // vpbroadcastw  0x6247(%rip),%ymm3        # 328b8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
   .byte  197,253,213,195                     // vpmullw       %ymm3,%ymm0,%ymm0
-  .byte  196,226,125,121,29,248,97,0,0       // vpbroadcastw  0x61f8(%rip),%ymm3        # 2b23a <_sk_srcover_rgba_8888_sse2_lowp+0x7fa>
+  .byte  196,226,125,121,29,60,98,0,0        // vpbroadcastw  0x623c(%rip),%ymm3        # 328ba <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
   .byte  197,245,213,203                     // vpmullw       %ymm3,%ymm1,%ymm1
   .byte  197,245,253,192                     // vpaddw        %ymm0,%ymm1,%ymm0
-  .byte  196,226,125,121,13,233,97,0,0       // vpbroadcastw  0x61e9(%rip),%ymm1        # 2b23c <_sk_srcover_rgba_8888_sse2_lowp+0x7fc>
+  .byte  196,226,125,121,13,45,98,0,0        // vpbroadcastw  0x622d(%rip),%ymm1        # 328bc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
   .byte  197,237,213,201                     // vpmullw       %ymm1,%ymm2,%ymm1
   .byte  197,253,253,193                     // vpaddw        %ymm1,%ymm0,%ymm0
   .byte  197,229,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm3
@@ -46119,13 +53245,13 @@
 _sk_scale_1_float_hsw_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,122,16,0                        // vmovss        (%rax),%xmm8
-  .byte  197,122,16,13,54,98,0,0             // vmovss        0x6236(%rip),%xmm9        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  196,98,57,169,13,253,97,0,0         // vfmadd213ss   0x61fd(%rip),%xmm8,%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,122,16,13,122,98,0,0            // vmovss        0x627a(%rip),%xmm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,57,169,13,65,98,0,0          // vfmadd213ss   0x6241(%rip),%xmm8,%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,122,44,193                  // vcvttss2si    %xmm9,%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
   .byte  196,66,125,121,192                  // vpbroadcastw  %xmm8,%ymm8
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,121,13,156,97,0,0        // vpbroadcastw  0x619c(%rip),%ymm9        # 2b23e <_sk_srcover_rgba_8888_sse2_lowp+0x7fe>
+  .byte  196,98,125,121,13,224,97,0,0        // vpbroadcastw  0x61e0(%rip),%ymm9        # 328be <_sk_srcover_rgba_8888_sse2_lowp+0x842>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,189,213,201                     // vpmullw       %ymm1,%ymm8,%ymm1
@@ -46146,12 +53272,12 @@
 _sk_lerp_1_float_hsw_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  197,122,16,0                        // vmovss        (%rax),%xmm8
-  .byte  197,122,16,13,204,97,0,0            // vmovss        0x61cc(%rip),%xmm9        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  196,98,57,169,13,147,97,0,0         // vfmadd213ss   0x6193(%rip),%xmm8,%xmm9        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  197,122,16,13,16,98,0,0             // vmovss        0x6210(%rip),%xmm9        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  196,98,57,169,13,215,97,0,0         // vfmadd213ss   0x61d7(%rip),%xmm8,%xmm9        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  196,193,122,44,193                  // vcvttss2si    %xmm9,%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
   .byte  196,66,125,121,192                  // vpbroadcastw  %xmm8,%ymm8
-  .byte  196,98,125,121,13,56,97,0,0         // vpbroadcastw  0x6138(%rip),%ymm9        # 2b240 <_sk_srcover_rgba_8888_sse2_lowp+0x800>
+  .byte  196,98,125,121,13,124,97,0,0        // vpbroadcastw  0x617c(%rip),%ymm9        # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
   .byte  196,65,53,249,208                   // vpsubw        %ymm8,%ymm9,%ymm10
   .byte  197,45,213,220                      // vpmullw       %ymm4,%ymm10,%ymm11
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
@@ -46188,38 +53314,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,38                              // ja            251a6 <_sk_scale_u8_hsw_lowp+0x3d>
+  .byte  119,38                              // ja            2c7e2 <_sk_scale_u8_hsw_lowp+0x3d>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,21,1,0,0                  // lea           0x115(%rip),%r9        # 252a4 <_sk_scale_u8_hsw_lowp+0x13b>
+  .byte  76,141,13,21,1,0,0                  // lea           0x115(%rip),%r9        # 2c8e0 <_sk_scale_u8_hsw_lowp+0x13b>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,179,0,0,0                       // jmpq          25259 <_sk_scale_u8_hsw_lowp+0xf0>
+  .byte  233,179,0,0,0                       // jmpq          2c895 <_sk_scale_u8_hsw_lowp+0xf0>
   .byte  196,65,122,111,4,16                 // vmovdqu       (%r8,%rdx,1),%xmm8
-  .byte  233,168,0,0,0                       // jmpq          25259 <_sk_scale_u8_hsw_lowp+0xf0>
+  .byte  233,168,0,0,0                       // jmpq          2c895 <_sk_scale_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,2,2              // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,67,57,14,193,1                  // vpblendw      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,135,0,0,0                       // jmpq          25259 <_sk_scale_u8_hsw_lowp+0xf0>
+  .byte  233,135,0,0,0                       // jmpq          2c895 <_sk_scale_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,6,6              // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,5,5              // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,4,4              // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,65,121,110,12,16                // vmovd         (%r8,%rdx,1),%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  235,92                              // jmp           25259 <_sk_scale_u8_hsw_lowp+0xf0>
+  .byte  235,92                              // jmp           2c895 <_sk_scale_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,10,10            // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,9,9              // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,8,8              // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,65,122,126,12,16                // vmovq         (%r8,%rdx,1),%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  235,49                              // jmp           25259 <_sk_scale_u8_hsw_lowp+0xf0>
+  .byte  235,49                              // jmp           2c895 <_sk_scale_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,14,14            // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,13,13            // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46229,7 +53355,7 @@
   .byte  196,67,49,2,192,8                   // vpblendd      $0x8,%xmm8,%xmm9,%xmm8
   .byte  196,66,125,48,192                   // vpmovzxbw     %xmm8,%ymm8
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,121,13,215,95,0,0        // vpbroadcastw  0x5fd7(%rip),%ymm9        # 2b242 <_sk_srcover_rgba_8888_sse2_lowp+0x802>
+  .byte  196,98,125,121,13,27,96,0,0         // vpbroadcastw  0x601b(%rip),%ymm9        # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
   .byte  196,193,125,253,193                 // vpaddw        %ymm9,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,189,213,201                     // vpmullw       %ymm1,%ymm8,%ymm1
@@ -46250,7 +53376,7 @@
   .byte  255,26                              // lcall         *(%rdx)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,75               // decl          0x4bffffff(%rip)        # 4c0252b0 <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
+  .byte  255,13,255,255,255,75               // decl          0x4bffffff(%rip)        # 4c02c8ec <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,67,255                          // incl          -0x1(%rbx)
@@ -46289,38 +53415,38 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,38                              // ja            2531d <_sk_lerp_u8_hsw_lowp+0x3d>
+  .byte  119,38                              // ja            2c959 <_sk_lerp_u8_hsw_lowp+0x3d>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,58,1,0,0                  // lea           0x13a(%rip),%r9        # 25440 <_sk_lerp_u8_hsw_lowp+0x160>
+  .byte  76,141,13,58,1,0,0                  // lea           0x13a(%rip),%r9        # 2ca7c <_sk_lerp_u8_hsw_lowp+0x160>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,179,0,0,0                       // jmpq          253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+  .byte  233,179,0,0,0                       // jmpq          2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
   .byte  196,65,122,111,4,16                 // vmovdqu       (%r8,%rdx,1),%xmm8
-  .byte  233,168,0,0,0                       // jmpq          253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+  .byte  233,168,0,0,0                       // jmpq          2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,2,2              // vpinsrb       $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
   .byte  65,15,183,4,16                      // movzwl        (%r8,%rdx,1),%eax
   .byte  197,121,110,200                     // vmovd         %eax,%xmm9
   .byte  196,67,57,14,193,1                  // vpblendw      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  233,135,0,0,0                       // jmpq          253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+  .byte  233,135,0,0,0                       // jmpq          2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,6,6              // vpinsrb       $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,5,5              // vpinsrb       $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,4,4              // vpinsrb       $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,65,121,110,12,16                // vmovd         (%r8,%rdx,1),%xmm9
   .byte  196,67,57,2,193,1                   // vpblendd      $0x1,%xmm9,%xmm8,%xmm8
-  .byte  235,92                              // jmp           253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+  .byte  235,92                              // jmp           2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,10,10            // vpinsrb       $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,9,9              // vpinsrb       $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,8,8              // vpinsrb       $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,65,122,126,12,16                // vmovq         (%r8,%rdx,1),%xmm9
   .byte  196,67,49,2,192,12                  // vpblendd      $0xc,%xmm8,%xmm9,%xmm8
-  .byte  235,49                              // jmp           253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+  .byte  235,49                              // jmp           2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,67,57,32,68,16,14,14            // vpinsrb       $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
   .byte  196,67,57,32,68,16,13,13            // vpinsrb       $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46329,7 +53455,7 @@
   .byte  196,67,49,34,76,16,8,2              // vpinsrd       $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
   .byte  196,67,49,2,192,8                   // vpblendd      $0x8,%xmm8,%xmm9,%xmm8
   .byte  196,66,125,48,192                   // vpmovzxbw     %xmm8,%ymm8
-  .byte  196,98,125,121,13,102,94,0,0        // vpbroadcastw  0x5e66(%rip),%ymm9        # 2b244 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
+  .byte  196,98,125,121,13,170,94,0,0        // vpbroadcastw  0x5eaa(%rip),%ymm9        # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
   .byte  196,65,61,239,209                   // vpxor         %ymm9,%ymm8,%ymm10
   .byte  197,45,213,220                      // vpmullw       %ymm4,%ymm10,%ymm11
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
@@ -46361,7 +53487,7 @@
   .byte  254                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  232,254,255,255,38                  // callq         2702544b <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
+  .byte  232,254,255,255,38                  // callq         2702ca87 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,30                              // lcall         *(%rsi)
@@ -46382,7 +53508,7 @@
   .byte  255,52,255                          // pushq         (%rdi,%rdi,8)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  124,255                             // jl            2546d <_sk_lerp_u8_hsw_lowp+0x18d>
+  .byte  124,255                             // jl            2caa9 <_sk_lerp_u8_hsw_lowp+0x18d>
   .byte  255                                 // (bad)
   .byte  255,116,255,255                     // pushq         -0x1(%rdi,%rdi,8)
   .byte  255,108,255,255                     // ljmp          *-0x1(%rdi,%rdi,8)
@@ -46403,24 +53529,24 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,38                              // ja            254bc <_sk_scale_565_hsw_lowp+0x40>
+  .byte  119,38                              // ja            2caf8 <_sk_scale_565_hsw_lowp+0x40>
   .byte  196,65,61,239,192                   // vpxor         %ymm8,%ymm8,%ymm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,255,1,0,0                 // lea           0x1ff(%rip),%r9        # 256a4 <_sk_scale_565_hsw_lowp+0x228>
+  .byte  76,141,13,255,1,0,0                 // lea           0x1ff(%rip),%r9        # 2cce0 <_sk_scale_565_hsw_lowp+0x228>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,12,1,0,0                        // jmpq          255c8 <_sk_scale_565_hsw_lowp+0x14c>
+  .byte  233,12,1,0,0                        // jmpq          2cc04 <_sk_scale_565_hsw_lowp+0x14c>
   .byte  196,65,126,111,4,80                 // vmovdqu       (%r8,%rdx,2),%ymm8
-  .byte  233,1,1,0,0                         // jmpq          255c8 <_sk_scale_565_hsw_lowp+0x14c>
+  .byte  233,1,1,0,0                         // jmpq          2cc04 <_sk_scale_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,4,2             // vpinsrw       $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,53,56,192,1                  // vinserti128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,121,110,12,80                // vmovd         (%r8,%rdx,2),%xmm9
   .byte  196,67,61,2,193,1                   // vpblendd      $0x1,%ymm9,%ymm8,%ymm8
-  .byte  233,221,0,0,0                       // jmpq          255c8 <_sk_scale_565_hsw_lowp+0x14c>
+  .byte  233,221,0,0,0                       // jmpq          2cc04 <_sk_scale_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,12,6            // vpinsrw       $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,53,56,192,1                  // vinserti128   $0x1,%xmm8,%ymm9,%ymm8
@@ -46430,7 +53556,7 @@
   .byte  196,67,61,2,193,15                  // vpblendd      $0xf,%ymm9,%ymm8,%ymm8
   .byte  196,65,122,126,12,80                // vmovq         (%r8,%rdx,2),%xmm9
   .byte  196,67,61,2,193,3                   // vpblendd      $0x3,%ymm9,%ymm8,%ymm8
-  .byte  233,157,0,0,0                       // jmpq          255c8 <_sk_scale_565_hsw_lowp+0x14c>
+  .byte  233,157,0,0,0                       // jmpq          2cc04 <_sk_scale_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,20,2            // vpinsrw       $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
@@ -46442,7 +53568,7 @@
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
   .byte  196,65,122,111,12,80                // vmovdqu       (%r8,%rdx,2),%xmm9
   .byte  196,67,53,2,192,240                 // vpblendd      $0xf0,%ymm8,%ymm9,%ymm8
-  .byte  235,84                              // jmp           255c8 <_sk_scale_565_hsw_lowp+0x14c>
+  .byte  235,84                              // jmp           2cc04 <_sk_scale_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,28,6            // vpinsrw       $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
@@ -46456,13 +53582,13 @@
   .byte  196,65,122,111,20,80                // vmovdqu       (%r8,%rdx,2),%xmm10
   .byte  196,67,45,56,201,1                  // vinserti128   $0x1,%xmm9,%ymm10,%ymm9
   .byte  196,67,53,2,192,192                 // vpblendd      $0xc0,%ymm8,%ymm9,%ymm8
-  .byte  196,98,125,121,13,117,92,0,0        // vpbroadcastw  0x5c75(%rip),%ymm9        # 2b246 <_sk_srcover_rgba_8888_sse2_lowp+0x806>
+  .byte  196,98,125,121,13,185,92,0,0        // vpbroadcastw  0x5cb9(%rip),%ymm9        # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
   .byte  196,193,45,113,208,8                // vpsrlw        $0x8,%ymm8,%ymm10
   .byte  196,65,45,219,201                   // vpand         %ymm9,%ymm10,%ymm9
   .byte  196,193,45,113,208,5                // vpsrlw        $0x5,%ymm8,%ymm10
-  .byte  196,98,125,121,29,93,92,0,0         // vpbroadcastw  0x5c5d(%rip),%ymm11        # 2b248 <_sk_srcover_rgba_8888_sse2_lowp+0x808>
+  .byte  196,98,125,121,29,161,92,0,0        // vpbroadcastw  0x5ca1(%rip),%ymm11        # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
   .byte  196,65,45,219,211                   // vpand         %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,121,29,81,92,0,0         // vpbroadcastw  0x5c51(%rip),%ymm11        # 2b24a <_sk_srcover_rgba_8888_sse2_lowp+0x80a>
+  .byte  196,98,125,121,29,149,92,0,0        // vpbroadcastw  0x5c95(%rip),%ymm11        # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
   .byte  196,65,61,219,219                   // vpand         %ymm11,%ymm8,%ymm11
   .byte  196,193,61,113,208,13               // vpsrlw        $0xd,%ymm8,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
@@ -46472,7 +53598,7 @@
   .byte  196,193,45,113,243,3                // vpsllw        $0x3,%ymm11,%ymm10
   .byte  196,193,37,113,211,2                // vpsrlw        $0x2,%ymm11,%ymm11
   .byte  196,65,45,235,211                   // vpor          %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,121,29,24,92,0,0         // vpbroadcastw  0x5c18(%rip),%ymm11        # 2b24c <_sk_srcover_rgba_8888_sse2_lowp+0x80c>
+  .byte  196,98,125,121,29,92,92,0,0         // vpbroadcastw  0x5c5c(%rip),%ymm11        # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x850>
   .byte  196,65,101,239,227                  // vpxor         %ymm11,%ymm3,%ymm12
   .byte  196,65,69,239,219                   // vpxor         %ymm11,%ymm7,%ymm11
   .byte  196,65,37,101,220                   // vpcmpgtw      %ymm12,%ymm11,%ymm11
@@ -46482,7 +53608,7 @@
   .byte  196,66,21,62,232                    // vpmaxuw       %ymm8,%ymm13,%ymm13
   .byte  196,67,21,76,220,176                // vpblendvb     %ymm11,%ymm12,%ymm13,%ymm11
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
-  .byte  196,98,125,121,5,228,91,0,0         // vpbroadcastw  0x5be4(%rip),%ymm8        # 2b24e <_sk_srcover_rgba_8888_sse2_lowp+0x80e>
+  .byte  196,98,125,121,5,40,92,0,0          // vpbroadcastw  0x5c28(%rip),%ymm8        # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x852>
   .byte  196,193,125,253,192                 // vpaddw        %ymm8,%ymm0,%ymm0
   .byte  197,253,113,208,8                   // vpsrlw        $0x8,%ymm0,%ymm0
   .byte  197,181,213,201                     // vpmullw       %ymm1,%ymm9,%ymm1
@@ -46546,24 +53672,24 @@
   .byte  36,15                               // and           $0xf,%al
   .byte  254,200                             // dec           %al
   .byte  60,14                               // cmp           $0xe,%al
-  .byte  119,38                              // ja            25720 <_sk_lerp_565_hsw_lowp+0x40>
+  .byte  119,38                              // ja            2cd5c <_sk_lerp_565_hsw_lowp+0x40>
   .byte  196,65,61,239,192                   // vpxor         %ymm8,%ymm8,%ymm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,51,2,0,0                  // lea           0x233(%rip),%r9        # 2593c <_sk_lerp_565_hsw_lowp+0x25c>
+  .byte  76,141,13,51,2,0,0                  // lea           0x233(%rip),%r9        # 2cf78 <_sk_lerp_565_hsw_lowp+0x25c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  197,121,110,192                     // vmovd         %eax,%xmm8
-  .byte  233,12,1,0,0                        // jmpq          2582c <_sk_lerp_565_hsw_lowp+0x14c>
+  .byte  233,12,1,0,0                        // jmpq          2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
   .byte  196,65,126,111,4,80                 // vmovdqu       (%r8,%rdx,2),%ymm8
-  .byte  233,1,1,0,0                         // jmpq          2582c <_sk_lerp_565_hsw_lowp+0x14c>
+  .byte  233,1,1,0,0                         // jmpq          2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,4,2             // vpinsrw       $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,53,56,192,1                  // vinserti128   $0x1,%xmm8,%ymm9,%ymm8
   .byte  196,65,121,110,12,80                // vmovd         (%r8,%rdx,2),%xmm9
   .byte  196,67,61,2,193,1                   // vpblendd      $0x1,%ymm9,%ymm8,%ymm8
-  .byte  233,221,0,0,0                       // jmpq          2582c <_sk_lerp_565_hsw_lowp+0x14c>
+  .byte  233,221,0,0,0                       // jmpq          2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,12,6            // vpinsrw       $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,53,56,192,1                  // vinserti128   $0x1,%xmm8,%ymm9,%ymm8
@@ -46573,7 +53699,7 @@
   .byte  196,67,61,2,193,15                  // vpblendd      $0xf,%ymm9,%ymm8,%ymm8
   .byte  196,65,122,126,12,80                // vmovq         (%r8,%rdx,2),%xmm9
   .byte  196,67,61,2,193,3                   // vpblendd      $0x3,%ymm9,%ymm8,%ymm8
-  .byte  233,157,0,0,0                       // jmpq          2582c <_sk_lerp_565_hsw_lowp+0x14c>
+  .byte  233,157,0,0,0                       // jmpq          2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,20,2            // vpinsrw       $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
@@ -46585,7 +53711,7 @@
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
   .byte  196,65,122,111,12,80                // vmovdqu       (%r8,%rdx,2),%xmm9
   .byte  196,67,53,2,192,240                 // vpblendd      $0xf0,%ymm8,%ymm9,%ymm8
-  .byte  235,84                              // jmp           2582c <_sk_lerp_565_hsw_lowp+0x14c>
+  .byte  235,84                              // jmp           2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
   .byte  196,65,57,239,192                   // vpxor         %xmm8,%xmm8,%xmm8
   .byte  196,65,57,196,76,80,28,6            // vpinsrw       $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
   .byte  196,67,61,56,193,1                  // vinserti128   $0x1,%xmm9,%ymm8,%ymm8
@@ -46599,13 +53725,13 @@
   .byte  196,65,122,111,20,80                // vmovdqu       (%r8,%rdx,2),%xmm10
   .byte  196,67,45,56,201,1                  // vinserti128   $0x1,%xmm9,%ymm10,%ymm9
   .byte  196,67,53,2,192,192                 // vpblendd      $0xc0,%ymm8,%ymm9,%ymm8
-  .byte  196,98,125,121,13,27,90,0,0         // vpbroadcastw  0x5a1b(%rip),%ymm9        # 2b250 <_sk_srcover_rgba_8888_sse2_lowp+0x810>
+  .byte  196,98,125,121,13,95,90,0,0         // vpbroadcastw  0x5a5f(%rip),%ymm9        # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
   .byte  196,193,45,113,208,8                // vpsrlw        $0x8,%ymm8,%ymm10
   .byte  196,65,45,219,201                   // vpand         %ymm9,%ymm10,%ymm9
   .byte  196,193,45,113,208,5                // vpsrlw        $0x5,%ymm8,%ymm10
-  .byte  196,98,125,121,29,3,90,0,0          // vpbroadcastw  0x5a03(%rip),%ymm11        # 2b252 <_sk_srcover_rgba_8888_sse2_lowp+0x812>
+  .byte  196,98,125,121,29,71,90,0,0         // vpbroadcastw  0x5a47(%rip),%ymm11        # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
   .byte  196,65,45,219,211                   // vpand         %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,121,29,247,89,0,0        // vpbroadcastw  0x59f7(%rip),%ymm11        # 2b254 <_sk_srcover_rgba_8888_sse2_lowp+0x814>
+  .byte  196,98,125,121,29,59,90,0,0         // vpbroadcastw  0x5a3b(%rip),%ymm11        # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
   .byte  196,65,61,219,219                   // vpand         %ymm11,%ymm8,%ymm11
   .byte  196,193,61,113,208,13               // vpsrlw        $0xd,%ymm8,%ymm8
   .byte  196,65,53,235,192                   // vpor          %ymm8,%ymm9,%ymm8
@@ -46615,7 +53741,7 @@
   .byte  196,193,45,113,243,3                // vpsllw        $0x3,%ymm11,%ymm10
   .byte  196,193,37,113,211,2                // vpsrlw        $0x2,%ymm11,%ymm11
   .byte  196,65,45,235,211                   // vpor          %ymm11,%ymm10,%ymm10
-  .byte  196,98,125,121,29,190,89,0,0        // vpbroadcastw  0x59be(%rip),%ymm11        # 2b256 <_sk_srcover_rgba_8888_sse2_lowp+0x816>
+  .byte  196,98,125,121,29,2,90,0,0          // vpbroadcastw  0x5a02(%rip),%ymm11        # 328d6 <_sk_srcover_rgba_8888_sse2_lowp+0x85a>
   .byte  196,65,101,239,227                  // vpxor         %ymm11,%ymm3,%ymm12
   .byte  196,65,69,239,219                   // vpxor         %ymm11,%ymm7,%ymm11
   .byte  196,65,37,101,220                   // vpcmpgtw      %ymm12,%ymm11,%ymm11
@@ -46624,7 +53750,7 @@
   .byte  196,66,53,62,234                    // vpmaxuw       %ymm10,%ymm9,%ymm13
   .byte  196,66,21,62,232                    // vpmaxuw       %ymm8,%ymm13,%ymm13
   .byte  196,67,21,76,220,176                // vpblendvb     %ymm11,%ymm12,%ymm13,%ymm11
-  .byte  196,98,125,121,37,142,89,0,0        // vpbroadcastw  0x598e(%rip),%ymm12        # 2b258 <_sk_srcover_rgba_8888_sse2_lowp+0x818>
+  .byte  196,98,125,121,37,210,89,0,0        // vpbroadcastw  0x59d2(%rip),%ymm12        # 328d8 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
   .byte  196,65,61,239,236                   // vpxor         %ymm12,%ymm8,%ymm13
   .byte  197,21,213,236                      // vpmullw       %ymm4,%ymm13,%ymm13
   .byte  197,189,213,192                     // vpmullw       %ymm0,%ymm8,%ymm0
@@ -46705,9 +53831,9 @@
   .byte  65,254,202                          // dec           %r10b
   .byte  69,15,182,194                       // movzbl        %r10b,%r8d
   .byte  65,128,248,14                       // cmp           $0xe,%r8b
-  .byte  119,51                              // ja            259d4 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+  .byte  119,51                              // ja            2d010 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
-  .byte  76,141,29,236,2,0,0                 // lea           0x2ec(%rip),%r11        # 25c98 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+  .byte  76,141,29,236,2,0,0                 // lea           0x2ec(%rip),%r11        # 2d2d4 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
   .byte  75,99,4,131                         // movslq        (%r11,%r8,4),%rax
   .byte  76,1,216                            // add           %r11,%rax
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -46717,10 +53843,10 @@
   .byte  255,224                             // jmpq          *%rax
   .byte  196,193,121,110,41                  // vmovd         (%r9),%xmm5
   .byte  197,221,239,228                     // vpxor         %ymm4,%ymm4,%ymm4
-  .byte  233,22,1,0,0                        // jmpq          25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+  .byte  233,22,1,0,0                        // jmpq          2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
   .byte  196,193,126,111,41                  // vmovdqu       (%r9),%ymm5
   .byte  196,193,126,111,97,32               // vmovdqu       0x20(%r9),%ymm4
-  .byte  233,6,1,0,0                         // jmpq          25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+  .byte  233,6,1,0,0                         // jmpq          2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
   .byte  196,193,121,110,97,8                // vmovd         0x8(%r9),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,197,239,255                     // vpxor         %ymm7,%ymm7,%ymm7
@@ -46729,7 +53855,7 @@
   .byte  197,249,112,237,232                 // vpshufd       $0xe8,%xmm5,%xmm5
   .byte  196,227,93,2,237,3                  // vpblendd      $0x3,%ymm5,%ymm4,%ymm5
   .byte  197,253,111,231                     // vmovdqa       %ymm7,%ymm4
-  .byte  233,216,0,0,0                       // jmpq          25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+  .byte  233,216,0,0,0                       // jmpq          2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
   .byte  196,193,121,110,97,24               // vmovd         0x18(%r9),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -46745,7 +53871,7 @@
   .byte  196,193,122,111,41                  // vmovdqu       (%r9),%xmm5
   .byte  196,227,85,2,236,240                // vpblendd      $0xf0,%ymm4,%ymm5,%ymm5
   .byte  197,125,127,196                     // vmovdqa       %ymm8,%ymm4
-  .byte  233,129,0,0,0                       // jmpq          25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+  .byte  233,129,0,0,0                       // jmpq          2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
   .byte  196,193,121,110,97,40               // vmovd         0x28(%r9),%xmm4
   .byte  196,226,121,89,228                  // vpbroadcastq  %xmm4,%xmm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -46755,7 +53881,7 @@
   .byte  196,193,121,110,105,32              // vmovd         0x20(%r9),%xmm5
   .byte  196,227,93,2,229,1                  // vpblendd      $0x1,%ymm5,%ymm4,%ymm4
   .byte  196,193,126,111,41                  // vmovdqu       (%r9),%ymm5
-  .byte  235,76                              // jmp           25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+  .byte  235,76                              // jmp           2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
   .byte  196,193,121,110,97,56               // vmovd         0x38(%r9),%xmm4
   .byte  196,226,125,89,228                  // vpbroadcastq  %xmm4,%ymm4
   .byte  197,213,239,237                     // vpxor         %ymm5,%ymm5,%ymm5
@@ -46775,9 +53901,9 @@
   .byte  196,227,69,14,236,170               // vpblendw      $0xaa,%ymm4,%ymm7,%ymm5
   .byte  196,227,77,14,228,170               // vpblendw      $0xaa,%ymm4,%ymm6,%ymm4
   .byte  196,226,93,43,237                   // vpackusdw     %ymm5,%ymm4,%ymm5
-  .byte  197,125,111,5,77,87,0,0             // vmovdqa       0x574d(%rip),%ymm8        # 2b260 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
+  .byte  197,125,111,5,145,87,0,0            // vmovdqa       0x5791(%rip),%ymm8        # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
   .byte  196,193,85,219,224                  // vpand         %ymm8,%ymm5,%ymm4
-  .byte  196,98,125,121,13,95,87,0,0         // vpbroadcastw  0x575f(%rip),%ymm9        # 2b280 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+  .byte  196,98,125,121,13,163,87,0,0        // vpbroadcastw  0x57a3(%rip),%ymm9        # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
   .byte  197,213,113,213,8                   // vpsrlw        $0x8,%ymm5,%ymm5
   .byte  197,197,114,215,16                  // vpsrld        $0x10,%ymm7,%ymm7
   .byte  197,205,114,214,16                  // vpsrld        $0x10,%ymm6,%ymm6
@@ -46816,19 +53942,19 @@
   .byte  196,193,53,114,243,16               // vpslld        $0x10,%ymm11,%ymm9
   .byte  196,65,53,235,202                   // vpor          %ymm10,%ymm9,%ymm9
   .byte  65,128,250,14                       // cmp           $0xe,%r10b
-  .byte  119,26                              // ja            25bfb <_sk_srcover_rgba_8888_hsw_lowp+0x283>
-  .byte  76,141,21,236,0,0,0                 // lea           0xec(%rip),%r10        # 25cd4 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+  .byte  119,26                              // ja            2d237 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+  .byte  76,141,21,236,0,0,0                 // lea           0xec(%rip),%r10        # 2d310 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
   .byte  75,99,4,130                         // movslq        (%r10,%r8,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  196,65,121,126,1                    // vmovd         %xmm8,(%r9)
-  .byte  233,151,0,0,0                       // jmpq          25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+  .byte  233,151,0,0,0                       // jmpq          2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
   .byte  196,65,126,127,1                    // vmovdqu       %ymm8,(%r9)
   .byte  196,65,126,127,73,32                // vmovdqu       %ymm9,0x20(%r9)
-  .byte  233,135,0,0,0                       // jmpq          25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+  .byte  233,135,0,0,0                       // jmpq          2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
   .byte  196,67,121,22,65,8,2                // vpextrd       $0x2,%xmm8,0x8(%r9)
   .byte  196,65,121,214,1                    // vmovq         %xmm8,(%r9)
-  .byte  235,121                             // jmp           25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+  .byte  235,121                             // jmp           2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,67,121,22,73,24,2               // vpextrd       $0x2,%xmm9,0x18(%r9)
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
@@ -46836,12 +53962,12 @@
   .byte  196,67,125,57,193,1                 // vextracti128  $0x1,%ymm8,%xmm9
   .byte  196,65,121,126,73,16                // vmovd         %xmm9,0x10(%r9)
   .byte  196,65,122,127,1                    // vmovdqu       %xmm8,(%r9)
-  .byte  235,76                              // jmp           25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+  .byte  235,76                              // jmp           2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
   .byte  196,67,121,22,73,40,2               // vpextrd       $0x2,%xmm9,0x28(%r9)
   .byte  196,67,121,22,73,36,1               // vpextrd       $0x1,%xmm9,0x24(%r9)
   .byte  196,65,121,126,73,32                // vmovd         %xmm9,0x20(%r9)
   .byte  196,65,126,127,1                    // vmovdqu       %ymm8,(%r9)
-  .byte  235,49                              // jmp           25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+  .byte  235,49                              // jmp           2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
   .byte  196,67,121,22,81,56,2               // vpextrd       $0x2,%xmm10,0x38(%r9)
   .byte  196,67,125,57,202,1                 // vextracti128  $0x1,%ymm9,%xmm10
@@ -46889,7 +54015,7 @@
   .byte  255,6                               // incl          (%rsi)
   .byte  254                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,62               // lcall         *0x3effffff(%rip)        # 3f025cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
+  .byte  255,29,255,255,255,62               // lcall         *0x3effffff(%rip)        # 3f02d314 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,55                              // pushq         (%rdi)
@@ -46907,7 +54033,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  121,255                             // jns           25cf9 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+  .byte  121,255                             // jns           2d335 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -46940,13 +54066,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,131,0,0,0                    // jae           25dc6 <_sk_start_pipeline_sse41_lowp+0xb6>
+  .byte  15,131,131,0,0,0                    // jae           2d402 <_sk_start_pipeline_sse41_lowp+0xb6>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,8                         // lea           0x8(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
-  .byte  119,59                              // ja            25d94 <_sk_start_pipeline_sse41_lowp+0x84>
+  .byte  119,59                              // ja            2d3d0 <_sk_start_pipeline_sse41_lowp+0x84>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -46965,10 +54091,10 @@
   .byte  73,131,196,16                       // add           $0x10,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,201                             // jbe           25d5d <_sk_start_pipeline_sse41_lowp+0x4d>
+  .byte  118,201                             // jbe           2d399 <_sk_start_pipeline_sse41_lowp+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,33                              // je            25dbd <_sk_start_pipeline_sse41_lowp+0xad>
+  .byte  116,33                              // je            2d3f9 <_sk_start_pipeline_sse41_lowp+0xad>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -46982,7 +54108,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  117,137                             // jne           25d4f <_sk_start_pipeline_sse41_lowp+0x3f>
+  .byte  117,137                             // jne           2d38b <_sk_start_pipeline_sse41_lowp+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -47025,7 +54151,7 @@
 FUNCTION(_sk_black_color_sse41_lowp)
 _sk_black_color_sse41_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,247,85,0,0                 // movaps        0x55f7(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,59,86,0,0                  // movaps        0x563b(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -47036,7 +54162,7 @@
 FUNCTION(_sk_white_color_sse41_lowp)
 _sk_white_color_sse41_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,5,227,85,0,0                  // movaps        0x55e3(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,5,39,86,0,0                   // movaps        0x5627(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,40,216                           // movaps        %xmm0,%xmm3
@@ -47047,10 +54173,10 @@
 FUNCTION(_sk_set_rgb_sse41_lowp)
 _sk_set_rgb_sse41_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  243,15,16,21,98,84,0,0              // movss         0x5462(%rip),%xmm2        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  243,15,16,21,166,84,0,0             // movss         0x54a6(%rip),%xmm2        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  243,15,16,0                         // movss         (%rax),%xmm0
   .byte  243,15,89,194                       // mulss         %xmm2,%xmm0
-  .byte  243,68,15,16,5,33,84,0,0            // movss         0x5421(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,16,5,101,84,0,0           // movss         0x5465(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,88,192                    // addss         %xmm8,%xmm0
   .byte  243,68,15,44,192                    // cvttss2si     %xmm0,%r8d
   .byte  102,65,15,110,192                   // movd          %r8d,%xmm0
@@ -47077,7 +54203,7 @@
 FUNCTION(_sk_premul_sse41_lowp)
 _sk_premul_sse41_lowp:
   .byte  102,15,213,195                      // pmullw        %xmm3,%xmm0
-  .byte  102,68,15,111,5,85,85,0,0           // movdqa        0x5555(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,153,85,0,0          // movdqa        0x5599(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,203                      // pmullw        %xmm3,%xmm1
@@ -47125,7 +54251,7 @@
 .globl _sk_invert_sse41_lowp
 FUNCTION(_sk_invert_sse41_lowp)
 _sk_invert_sse41_lowp:
-  .byte  102,68,15,111,5,243,84,0,0          // movdqa        0x54f3(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,55,85,0,0           // movdqa        0x5537(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,200                   // psubw         %xmm0,%xmm9
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -47157,7 +54283,7 @@
 _sk_srcatop_sse41_lowp:
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
   .byte  102,15,213,199                      // pmullw        %xmm7,%xmm0
-  .byte  102,15,111,29,151,84,0,0            // movdqa        0x5497(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,29,219,84,0,0            // movdqa        0x54db(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,111,203                   // movdqa        %xmm3,%xmm9
   .byte  102,69,15,249,200                   // psubw         %xmm8,%xmm9
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
@@ -47189,7 +54315,7 @@
 _sk_dstatop_sse41_lowp:
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
   .byte  102,68,15,213,195                   // pmullw        %xmm3,%xmm8
-  .byte  102,68,15,111,13,23,84,0,0          // movdqa        0x5417(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,91,84,0,0          // movdqa        0x545b(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,253,193                   // paddw         %xmm9,%xmm8
   .byte  102,68,15,111,213                   // movdqa        %xmm5,%xmm10
   .byte  102,68,15,213,211                   // pmullw        %xmm3,%xmm10
@@ -47218,7 +54344,7 @@
 FUNCTION(_sk_srcin_sse41_lowp)
 _sk_srcin_sse41_lowp:
   .byte  102,15,213,199                      // pmullw        %xmm7,%xmm0
-  .byte  102,68,15,111,5,162,83,0,0          // movdqa        0x53a2(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,230,83,0,0          // movdqa        0x53e6(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,207                      // pmullw        %xmm7,%xmm1
@@ -47239,7 +54365,7 @@
 _sk_dstin_sse41_lowp:
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,213,195                      // pmullw        %xmm3,%xmm0
-  .byte  102,68,15,111,5,89,83,0,0           // movdqa        0x5359(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,157,83,0,0          // movdqa        0x539d(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,111,205                      // movdqa        %xmm5,%xmm1
@@ -47260,7 +54386,7 @@
 .globl _sk_srcout_sse41_lowp
 FUNCTION(_sk_srcout_sse41_lowp)
 _sk_srcout_sse41_lowp:
-  .byte  102,68,15,111,5,16,83,0,0           // movdqa        0x5310(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,84,83,0,0           // movdqa        0x5354(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,207                   // psubw         %xmm7,%xmm9
   .byte  102,65,15,213,193                   // pmullw        %xmm9,%xmm0
@@ -47283,7 +54409,7 @@
 FUNCTION(_sk_dstout_sse41_lowp)
 _sk_dstout_sse41_lowp:
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,68,15,111,5,185,82,0,0          // movdqa        0x52b9(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,253,82,0,0          // movdqa        0x52fd(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  102,15,249,216                      // psubw         %xmm0,%xmm3
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
@@ -47308,7 +54434,7 @@
 .globl _sk_srcover_sse41_lowp
 FUNCTION(_sk_srcover_sse41_lowp)
 _sk_srcover_sse41_lowp:
-  .byte  102,68,15,111,13,95,82,0,0          // movdqa        0x525f(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,163,82,0,0         // movdqa        0x52a3(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,68,15,249,195                   // psubw         %xmm3,%xmm8
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -47337,7 +54463,7 @@
 .globl _sk_dstover_sse41_lowp
 FUNCTION(_sk_dstover_sse41_lowp)
 _sk_dstover_sse41_lowp:
-  .byte  102,68,15,111,5,229,81,0,0          // movdqa        0x51e5(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,41,82,0,0           // movdqa        0x5229(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,207                   // psubw         %xmm7,%xmm9
   .byte  102,65,15,213,193                   // pmullw        %xmm9,%xmm0
@@ -47364,7 +54490,7 @@
 FUNCTION(_sk_modulate_sse41_lowp)
 _sk_modulate_sse41_lowp:
   .byte  102,15,213,196                      // pmullw        %xmm4,%xmm0
-  .byte  102,68,15,111,5,126,81,0,0          // movdqa        0x517e(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,194,81,0,0          // movdqa        0x51c2(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,205                      // pmullw        %xmm5,%xmm1
@@ -47383,7 +54509,7 @@
 .globl _sk_multiply_sse41_lowp
 FUNCTION(_sk_multiply_sse41_lowp)
 _sk_multiply_sse41_lowp:
-  .byte  102,68,15,111,13,61,81,0,0          // movdqa        0x513d(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,129,81,0,0         // movdqa        0x5181(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,68,15,249,195                   // psubw         %xmm3,%xmm8
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -47426,7 +54552,7 @@
 FUNCTION(_sk_plus__sse41_lowp)
 _sk_plus__sse41_lowp:
   .byte  102,15,253,196                      // paddw         %xmm4,%xmm0
-  .byte  102,68,15,111,5,130,80,0,0          // movdqa        0x5082(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,198,80,0,0          // movdqa        0x50c6(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,56,58,192                 // pminuw        %xmm8,%xmm0
   .byte  102,15,253,205                      // paddw         %xmm5,%xmm1
   .byte  102,65,15,56,58,200                 // pminuw        %xmm8,%xmm1
@@ -47446,7 +54572,7 @@
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,253,193                      // paddw         %xmm1,%xmm0
   .byte  102,15,213,204                      // pmullw        %xmm4,%xmm1
-  .byte  102,68,15,111,21,60,80,0,0          // movdqa        0x503c(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,21,128,80,0,0         // movdqa        0x5080(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,202                   // paddw         %xmm10,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -47478,7 +54604,7 @@
 FUNCTION(_sk_xor__sse41_lowp)
 _sk_xor__sse41_lowp:
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
-  .byte  102,68,15,111,13,186,79,0,0         // movdqa        0x4fba(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,254,79,0,0         // movdqa        0x4ffe(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,209                   // movdqa        %xmm9,%xmm10
   .byte  102,68,15,249,215                   // psubw         %xmm7,%xmm10
   .byte  102,65,15,213,194                   // pmullw        %xmm10,%xmm0
@@ -47521,7 +54647,7 @@
   .byte  102,68,15,213,207                   // pmullw        %xmm7,%xmm9
   .byte  102,15,213,203                      // pmullw        %xmm3,%xmm1
   .byte  102,65,15,56,62,201                 // pmaxuw        %xmm9,%xmm1
-  .byte  102,68,15,111,13,1,79,0,0           // movdqa        0x4f01(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,69,79,0,0          // movdqa        0x4f45(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,201                   // paddw         %xmm9,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -47565,7 +54691,7 @@
   .byte  102,68,15,213,207                   // pmullw        %xmm7,%xmm9
   .byte  102,15,213,203                      // pmullw        %xmm3,%xmm1
   .byte  102,65,15,56,58,201                 // pminuw        %xmm9,%xmm1
-  .byte  102,68,15,111,13,68,78,0,0          // movdqa        0x4e44(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,136,78,0,0         // movdqa        0x4e88(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,201                   // paddw         %xmm9,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -47609,10 +54735,10 @@
   .byte  102,68,15,213,207                   // pmullw        %xmm7,%xmm9
   .byte  102,15,213,203                      // pmullw        %xmm3,%xmm1
   .byte  102,65,15,56,58,201                 // pminuw        %xmm9,%xmm1
-  .byte  102,68,15,111,13,135,77,0,0         // movdqa        0x4d87(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,203,77,0,0         // movdqa        0x4dcb(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,201                   // paddw         %xmm9,%xmm1
   .byte  102,15,113,209,7                    // psrlw         $0x7,%xmm1
-  .byte  102,68,15,111,21,212,84,0,0         // movdqa        0x54d4(%rip),%xmm10        # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+  .byte  102,68,15,111,21,24,85,0,0          // movdqa        0x5518(%rip),%xmm10        # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
   .byte  102,65,15,219,202                   // pand          %xmm10,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
   .byte  102,68,15,111,221                   // movdqa        %xmm5,%xmm11
@@ -47654,10 +54780,10 @@
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,253,193                      // paddw         %xmm1,%xmm0
   .byte  102,15,213,204                      // pmullw        %xmm4,%xmm1
-  .byte  102,68,15,111,13,195,76,0,0         // movdqa        0x4cc3(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,7,77,0,0           // movdqa        0x4d07(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,201                   // paddw         %xmm9,%xmm1
   .byte  102,15,113,209,7                    // psrlw         $0x7,%xmm1
-  .byte  102,68,15,111,21,16,84,0,0          // movdqa        0x5410(%rip),%xmm10        # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+  .byte  102,68,15,111,21,84,84,0,0          // movdqa        0x5454(%rip),%xmm10        # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
   .byte  102,65,15,219,202                   // pand          %xmm10,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
   .byte  102,15,111,205                      // movdqa        %xmm5,%xmm1
@@ -47693,14 +54819,14 @@
   .byte  102,15,111,245                      // movdqa        %xmm5,%xmm6
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
-  .byte  102,68,15,111,29,30,76,0,0          // movdqa        0x4c1e(%rip),%xmm11        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,29,98,76,0,0          // movdqa        0x4c62(%rip),%xmm11        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,249,220                   // psubw         %xmm12,%xmm11
   .byte  102,65,15,111,227                   // movdqa        %xmm11,%xmm4
   .byte  102,65,15,213,224                   // pmullw        %xmm8,%xmm4
   .byte  102,68,15,111,251                   // movdqa        %xmm3,%xmm15
   .byte  102,69,15,249,248                   // psubw         %xmm8,%xmm15
   .byte  102,69,15,253,192                   // paddw         %xmm8,%xmm8
-  .byte  102,68,15,111,13,103,83,0,0         // movdqa        0x5367(%rip),%xmm9        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,13,171,83,0,0         // movdqa        0x53ab(%rip),%xmm9        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,68,15,111,243                   // movdqa        %xmm3,%xmm14
   .byte  102,69,15,239,241                   // pxor          %xmm9,%xmm14
   .byte  102,65,15,111,196                   // movdqa        %xmm12,%xmm0
@@ -47747,7 +54873,7 @@
   .byte  102,68,15,111,232                   // movdqa        %xmm0,%xmm13
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,65,15,56,16,210                 // pblendvb      %xmm0,%xmm10,%xmm2
-  .byte  102,68,15,111,13,15,75,0,0          // movdqa        0x4b0f(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,83,75,0,0          // movdqa        0x4b53(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,249,195                      // psubw         %xmm3,%xmm0
   .byte  102,15,111,248                      // movdqa        %xmm0,%xmm7
@@ -47786,7 +54912,7 @@
 _sk_overlay_sse41_lowp:
   .byte  102,68,15,111,231                   // movdqa        %xmm7,%xmm12
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
-  .byte  102,68,15,111,29,114,74,0,0         // movdqa        0x4a72(%rip),%xmm11        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,29,182,74,0,0         // movdqa        0x4ab6(%rip),%xmm11        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,249,220                   // psubw         %xmm12,%xmm11
   .byte  102,65,15,111,195                   // movdqa        %xmm11,%xmm0
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
@@ -47798,7 +54924,7 @@
   .byte  102,68,15,249,252                   // psubw         %xmm4,%xmm15
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,253,192                      // paddw         %xmm0,%xmm0
-  .byte  102,68,15,111,13,163,81,0,0         // movdqa        0x51a3(%rip),%xmm9        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,13,231,81,0,0         // movdqa        0x51e7(%rip),%xmm9        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,69,15,111,212                   // movdqa        %xmm12,%xmm10
   .byte  102,68,15,213,211                   // pmullw        %xmm3,%xmm10
   .byte  102,69,15,213,254                   // pmullw        %xmm14,%xmm15
@@ -47844,7 +54970,7 @@
   .byte  102,15,253,210                      // paddw         %xmm2,%xmm2
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,65,15,56,16,210                 // pblendvb      %xmm0,%xmm10,%xmm2
-  .byte  102,68,15,111,13,85,73,0,0          // movdqa        0x4955(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,153,73,0,0         // movdqa        0x4999(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,249,195                      // psubw         %xmm3,%xmm0
   .byte  102,15,111,248                      // movdqa        %xmm0,%xmm7
@@ -47887,49 +55013,49 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            26b8d <_sk_load_8888_sse41_lowp+0x44>
+  .byte  119,41                              // ja            2e1c9 <_sk_load_8888_sse41_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,241,0,0,0                 // lea           0xf1(%rip),%r9        # 26c64 <_sk_load_8888_sse41_lowp+0x11b>
+  .byte  76,141,13,241,0,0,0                 // lea           0xf1(%rip),%r9        # 2e2a0 <_sk_load_8888_sse41_lowp+0x11b>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,20,144                // movd          (%r8,%rdx,4),%xmm2
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,89                              // jmp           26be6 <_sk_load_8888_sse41_lowp+0x9d>
+  .byte  235,89                              // jmp           2e222 <_sk_load_8888_sse41_lowp+0x9d>
   .byte  243,65,15,111,20,144                // movdqu        (%r8,%rdx,4),%xmm2
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,74                              // jmp           26be6 <_sk_load_8888_sse41_lowp+0x9d>
+  .byte  235,74                              // jmp           2e222 <_sk_load_8888_sse41_lowp+0x9d>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  243,65,15,126,20,144                // movq          (%r8,%rdx,4),%xmm2
   .byte  102,65,15,58,14,208,240             // pblendw       $0xf0,%xmm8,%xmm2
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
-  .byte  235,37                              // jmp           26be6 <_sk_load_8888_sse41_lowp+0x9d>
+  .byte  235,37                              // jmp           2e222 <_sk_load_8888_sse41_lowp+0x9d>
   .byte  102,65,15,110,68,144,24             // movd          0x18(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,69,15,58,34,68,144,20,1         // pinsrd        $0x1,0x14(%r8,%rdx,4),%xmm8
   .byte  102,69,15,58,34,68,144,16,0         // pinsrd        $0x0,0x10(%r8,%rdx,4),%xmm8
   .byte  243,65,15,111,20,144                // movdqu        (%r8,%rdx,4),%xmm2
-  .byte  102,15,111,5,178,79,0,0             // movdqa        0x4fb2(%rip),%xmm0        # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+  .byte  102,15,111,5,246,79,0,0             // movdqa        0x4ff6(%rip),%xmm0        # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
   .byte  102,15,111,202                      // movdqa        %xmm2,%xmm1
   .byte  102,15,56,0,200                     // pshufb        %xmm0,%xmm1
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  102,15,56,0,216                     // pshufb        %xmm0,%xmm3
   .byte  102,15,108,203                      // punpcklqdq    %xmm3,%xmm1
-  .byte  102,68,15,111,13,18,72,0,0          // movdqa        0x4812(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,86,72,0,0          // movdqa        0x4856(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,193                   // pand          %xmm9,%xmm0
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
-  .byte  102,68,15,111,21,139,79,0,0         // movdqa        0x4f8b(%rip),%xmm10        # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+  .byte  102,68,15,111,21,207,79,0,0         // movdqa        0x4fcf(%rip),%xmm10        # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
   .byte  102,15,111,218                      // movdqa        %xmm2,%xmm3
   .byte  102,65,15,56,0,218                  // pshufb        %xmm10,%xmm3
   .byte  102,69,15,111,216                   // movdqa        %xmm8,%xmm11
   .byte  102,69,15,56,0,218                  // pshufb        %xmm10,%xmm11
   .byte  102,65,15,108,219                   // punpcklqdq    %xmm11,%xmm3
-  .byte  102,68,15,111,21,120,79,0,0         // movdqa        0x4f78(%rip),%xmm10        # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+  .byte  102,68,15,111,21,188,79,0,0         // movdqa        0x4fbc(%rip),%xmm10        # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
   .byte  102,65,15,56,0,210                  // pshufb        %xmm10,%xmm2
   .byte  102,69,15,56,0,194                  // pshufb        %xmm10,%xmm8
   .byte  102,65,15,108,208                   // punpcklqdq    %xmm8,%xmm2
@@ -47945,7 +55071,7 @@
   .byte  56,255                              // cmp           %bh,%bh
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  124,255                             // jl            26c71 <_sk_load_8888_sse41_lowp+0x128>
+  .byte  124,255                             // jl            2e2ad <_sk_load_8888_sse41_lowp+0x128>
   .byte  255                                 // (bad)
   .byte  255,115,255                         // pushq         -0x1(%rbx)
   .byte  255                                 // (bad)
@@ -47968,49 +55094,49 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            26cc4 <_sk_load_8888_dst_sse41_lowp+0x44>
+  .byte  119,41                              // ja            2e300 <_sk_load_8888_dst_sse41_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 26d9c <_sk_load_8888_dst_sse41_lowp+0x11c>
+  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 2e3d8 <_sk_load_8888_dst_sse41_lowp+0x11c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,52,144                // movd          (%r8,%rdx,4),%xmm6
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,89                              // jmp           26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+  .byte  235,89                              // jmp           2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
   .byte  243,65,15,111,52,144                // movdqu        (%r8,%rdx,4),%xmm6
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,74                              // jmp           26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+  .byte  235,74                              // jmp           2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  243,65,15,126,52,144                // movq          (%r8,%rdx,4),%xmm6
   .byte  102,65,15,58,14,240,240             // pblendw       $0xf0,%xmm8,%xmm6
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
-  .byte  235,37                              // jmp           26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+  .byte  235,37                              // jmp           2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,69,15,58,34,68,144,20,1         // pinsrd        $0x1,0x14(%r8,%rdx,4),%xmm8
   .byte  102,69,15,58,34,68,144,16,0         // pinsrd        $0x0,0x10(%r8,%rdx,4),%xmm8
   .byte  243,65,15,111,52,144                // movdqu        (%r8,%rdx,4),%xmm6
-  .byte  102,15,111,37,123,78,0,0            // movdqa        0x4e7b(%rip),%xmm4        # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+  .byte  102,15,111,37,191,78,0,0            // movdqa        0x4ebf(%rip),%xmm4        # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
   .byte  102,15,111,238                      // movdqa        %xmm6,%xmm5
   .byte  102,15,56,0,236                     // pshufb        %xmm4,%xmm5
   .byte  102,65,15,111,248                   // movdqa        %xmm8,%xmm7
   .byte  102,15,56,0,252                     // pshufb        %xmm4,%xmm7
   .byte  102,15,108,239                      // punpcklqdq    %xmm7,%xmm5
-  .byte  102,68,15,111,13,219,70,0,0         // movdqa        0x46db(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,31,71,0,0          // movdqa        0x471f(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,229                      // movdqa        %xmm5,%xmm4
   .byte  102,65,15,219,225                   // pand          %xmm9,%xmm4
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
-  .byte  102,68,15,111,21,84,78,0,0          // movdqa        0x4e54(%rip),%xmm10        # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+  .byte  102,68,15,111,21,152,78,0,0         // movdqa        0x4e98(%rip),%xmm10        # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
   .byte  102,15,111,254                      // movdqa        %xmm6,%xmm7
   .byte  102,65,15,56,0,250                  // pshufb        %xmm10,%xmm7
   .byte  102,69,15,111,216                   // movdqa        %xmm8,%xmm11
   .byte  102,69,15,56,0,218                  // pshufb        %xmm10,%xmm11
   .byte  102,65,15,108,251                   // punpcklqdq    %xmm11,%xmm7
-  .byte  102,68,15,111,21,65,78,0,0          // movdqa        0x4e41(%rip),%xmm10        # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+  .byte  102,68,15,111,21,133,78,0,0         // movdqa        0x4e85(%rip),%xmm10        # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
   .byte  102,65,15,56,0,242                  // pshufb        %xmm10,%xmm6
   .byte  102,69,15,56,0,194                  // pshufb        %xmm10,%xmm8
   .byte  102,65,15,108,240                   // punpcklqdq    %xmm8,%xmm6
@@ -48026,7 +55152,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           26da9 <_sk_load_8888_dst_sse41_lowp+0x129>
+  .byte  123,255                             // jnp           2e3e5 <_sk_load_8888_dst_sse41_lowp+0x129>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -48063,20 +55189,20 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,27                              // ja            26e3e <_sk_store_8888_sse41_lowp+0x86>
+  .byte  119,27                              // ja            2e47a <_sk_store_8888_sse41_lowp+0x86>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,87,0,0,0                  // lea           0x57(%rip),%r9        # 26e84 <_sk_store_8888_sse41_lowp+0xcc>
+  .byte  76,141,13,87,0,0,0                  // lea           0x57(%rip),%r9        # 2e4c0 <_sk_store_8888_sse41_lowp+0xcc>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,126,4,144                 // movd          %xmm8,(%r8,%rdx,4)
-  .byte  235,63                              // jmp           26e7d <_sk_store_8888_sse41_lowp+0xc5>
+  .byte  235,63                              // jmp           2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
   .byte  243,69,15,127,4,144                 // movdqu        %xmm8,(%r8,%rdx,4)
   .byte  243,69,15,127,76,144,16             // movdqu        %xmm9,0x10(%r8,%rdx,4)
-  .byte  235,48                              // jmp           26e7d <_sk_store_8888_sse41_lowp+0xc5>
+  .byte  235,48                              // jmp           2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
   .byte  102,69,15,58,22,68,144,8,2          // pextrd        $0x2,%xmm8,0x8(%r8,%rdx,4)
   .byte  102,69,15,214,4,144                 // movq          %xmm8,(%r8,%rdx,4)
-  .byte  235,31                              // jmp           26e7d <_sk_store_8888_sse41_lowp+0xc5>
+  .byte  235,31                              // jmp           2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
   .byte  102,69,15,58,22,76,144,24,2         // pextrd        $0x2,%xmm9,0x18(%r8,%rdx,4)
   .byte  102,69,15,58,22,76,144,20,1         // pextrd        $0x1,%xmm9,0x14(%r8,%rdx,4)
   .byte  102,69,15,126,76,144,16             // movd          %xmm9,0x10(%r8,%rdx,4)
@@ -48120,49 +55246,49 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            26ee4 <_sk_load_bgra_sse41_lowp+0x44>
+  .byte  119,41                              // ja            2e520 <_sk_load_bgra_sse41_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 26fbc <_sk_load_bgra_sse41_lowp+0x11c>
+  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 2e5f8 <_sk_load_bgra_sse41_lowp+0x11c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,4,144                 // movd          (%r8,%rdx,4),%xmm0
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,89                              // jmp           26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+  .byte  235,89                              // jmp           2e579 <_sk_load_bgra_sse41_lowp+0x9d>
   .byte  243,65,15,111,4,144                 // movdqu        (%r8,%rdx,4),%xmm0
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,74                              // jmp           26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+  .byte  235,74                              // jmp           2e579 <_sk_load_bgra_sse41_lowp+0x9d>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  243,65,15,126,4,144                 // movq          (%r8,%rdx,4),%xmm0
   .byte  102,65,15,58,14,192,240             // pblendw       $0xf0,%xmm8,%xmm0
   .byte  102,68,15,111,193                   // movdqa        %xmm1,%xmm8
-  .byte  235,37                              // jmp           26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+  .byte  235,37                              // jmp           2e579 <_sk_load_bgra_sse41_lowp+0x9d>
   .byte  102,65,15,110,68,144,24             // movd          0x18(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,69,15,58,34,68,144,20,1         // pinsrd        $0x1,0x14(%r8,%rdx,4),%xmm8
   .byte  102,69,15,58,34,68,144,16,0         // pinsrd        $0x0,0x10(%r8,%rdx,4),%xmm8
   .byte  243,65,15,111,4,144                 // movdqu        (%r8,%rdx,4),%xmm0
-  .byte  102,15,111,21,91,76,0,0             // movdqa        0x4c5b(%rip),%xmm2        # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+  .byte  102,15,111,21,159,76,0,0            // movdqa        0x4c9f(%rip),%xmm2        # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,56,0,202                     // pshufb        %xmm2,%xmm1
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  102,15,56,0,218                     // pshufb        %xmm2,%xmm3
   .byte  102,15,108,203                      // punpcklqdq    %xmm3,%xmm1
-  .byte  102,68,15,111,13,187,68,0,0         // movdqa        0x44bb(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,255,68,0,0         // movdqa        0x44ff(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,209                      // movdqa        %xmm1,%xmm2
   .byte  102,65,15,219,209                   // pand          %xmm9,%xmm2
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
-  .byte  102,68,15,111,21,52,76,0,0          // movdqa        0x4c34(%rip),%xmm10        # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+  .byte  102,68,15,111,21,120,76,0,0         // movdqa        0x4c78(%rip),%xmm10        # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
   .byte  102,15,111,216                      // movdqa        %xmm0,%xmm3
   .byte  102,65,15,56,0,218                  // pshufb        %xmm10,%xmm3
   .byte  102,69,15,111,216                   // movdqa        %xmm8,%xmm11
   .byte  102,69,15,56,0,218                  // pshufb        %xmm10,%xmm11
   .byte  102,65,15,108,219                   // punpcklqdq    %xmm11,%xmm3
-  .byte  102,68,15,111,21,33,76,0,0          // movdqa        0x4c21(%rip),%xmm10        # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+  .byte  102,68,15,111,21,101,76,0,0         // movdqa        0x4c65(%rip),%xmm10        # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
   .byte  102,65,15,56,0,194                  // pshufb        %xmm10,%xmm0
   .byte  102,69,15,56,0,194                  // pshufb        %xmm10,%xmm8
   .byte  102,65,15,108,192                   // punpcklqdq    %xmm8,%xmm0
@@ -48178,7 +55304,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           26fc9 <_sk_load_bgra_sse41_lowp+0x129>
+  .byte  123,255                             // jnp           2e605 <_sk_load_bgra_sse41_lowp+0x129>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -48200,49 +55326,49 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            2701c <_sk_load_bgra_dst_sse41_lowp+0x44>
+  .byte  119,41                              // ja            2e658 <_sk_load_bgra_dst_sse41_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 270f4 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+  .byte  76,141,13,242,0,0,0                 // lea           0xf2(%rip),%r9        # 2e730 <_sk_load_bgra_dst_sse41_lowp+0x11c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,36,144                // movd          (%r8,%rdx,4),%xmm4
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,89                              // jmp           27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+  .byte  235,89                              // jmp           2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
   .byte  243,65,15,111,36,144                // movdqu        (%r8,%rdx,4),%xmm4
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,74                              // jmp           27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+  .byte  235,74                              // jmp           2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  243,65,15,126,36,144                // movq          (%r8,%rdx,4),%xmm4
   .byte  102,65,15,58,14,224,240             // pblendw       $0xf0,%xmm8,%xmm4
   .byte  102,68,15,111,197                   // movdqa        %xmm5,%xmm8
-  .byte  235,37                              // jmp           27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+  .byte  235,37                              // jmp           2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,69,15,58,34,68,144,20,1         // pinsrd        $0x1,0x14(%r8,%rdx,4),%xmm8
   .byte  102,69,15,58,34,68,144,16,0         // pinsrd        $0x0,0x10(%r8,%rdx,4),%xmm8
   .byte  243,65,15,111,36,144                // movdqu        (%r8,%rdx,4),%xmm4
-  .byte  102,15,111,53,35,75,0,0             // movdqa        0x4b23(%rip),%xmm6        # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+  .byte  102,15,111,53,103,75,0,0            // movdqa        0x4b67(%rip),%xmm6        # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,15,56,0,238                     // pshufb        %xmm6,%xmm5
   .byte  102,65,15,111,248                   // movdqa        %xmm8,%xmm7
   .byte  102,15,56,0,254                     // pshufb        %xmm6,%xmm7
   .byte  102,15,108,239                      // punpcklqdq    %xmm7,%xmm5
-  .byte  102,68,15,111,13,131,67,0,0         // movdqa        0x4383(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,199,67,0,0         // movdqa        0x43c7(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,245                      // movdqa        %xmm5,%xmm6
   .byte  102,65,15,219,241                   // pand          %xmm9,%xmm6
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
-  .byte  102,68,15,111,21,252,74,0,0         // movdqa        0x4afc(%rip),%xmm10        # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+  .byte  102,68,15,111,21,64,75,0,0          // movdqa        0x4b40(%rip),%xmm10        # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
   .byte  102,15,111,252                      // movdqa        %xmm4,%xmm7
   .byte  102,65,15,56,0,250                  // pshufb        %xmm10,%xmm7
   .byte  102,69,15,111,216                   // movdqa        %xmm8,%xmm11
   .byte  102,69,15,56,0,218                  // pshufb        %xmm10,%xmm11
   .byte  102,65,15,108,251                   // punpcklqdq    %xmm11,%xmm7
-  .byte  102,68,15,111,21,233,74,0,0         // movdqa        0x4ae9(%rip),%xmm10        # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+  .byte  102,68,15,111,21,45,75,0,0          // movdqa        0x4b2d(%rip),%xmm10        # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
   .byte  102,65,15,56,0,226                  // pshufb        %xmm10,%xmm4
   .byte  102,69,15,56,0,194                  // pshufb        %xmm10,%xmm8
   .byte  102,65,15,108,224                   // punpcklqdq    %xmm8,%xmm4
@@ -48258,7 +55384,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           27101 <_sk_load_bgra_dst_sse41_lowp+0x129>
+  .byte  123,255                             // jnp           2e73d <_sk_load_bgra_dst_sse41_lowp+0x129>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -48295,20 +55421,20 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,27                              // ja            27196 <_sk_store_bgra_sse41_lowp+0x86>
+  .byte  119,27                              // ja            2e7d2 <_sk_store_bgra_sse41_lowp+0x86>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,87,0,0,0                  // lea           0x57(%rip),%r9        # 271dc <_sk_store_bgra_sse41_lowp+0xcc>
+  .byte  76,141,13,87,0,0,0                  // lea           0x57(%rip),%r9        # 2e818 <_sk_store_bgra_sse41_lowp+0xcc>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,126,4,144                 // movd          %xmm8,(%r8,%rdx,4)
-  .byte  235,63                              // jmp           271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+  .byte  235,63                              // jmp           2e811 <_sk_store_bgra_sse41_lowp+0xc5>
   .byte  243,69,15,127,4,144                 // movdqu        %xmm8,(%r8,%rdx,4)
   .byte  243,69,15,127,76,144,16             // movdqu        %xmm9,0x10(%r8,%rdx,4)
-  .byte  235,48                              // jmp           271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+  .byte  235,48                              // jmp           2e811 <_sk_store_bgra_sse41_lowp+0xc5>
   .byte  102,69,15,58,22,68,144,8,2          // pextrd        $0x2,%xmm8,0x8(%r8,%rdx,4)
   .byte  102,69,15,214,4,144                 // movq          %xmm8,(%r8,%rdx,4)
-  .byte  235,31                              // jmp           271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+  .byte  235,31                              // jmp           2e811 <_sk_store_bgra_sse41_lowp+0xc5>
   .byte  102,69,15,58,22,76,144,24,2         // pextrd        $0x2,%xmm9,0x18(%r8,%rdx,4)
   .byte  102,69,15,58,22,76,144,20,1         // pextrd        $0x1,%xmm9,0x14(%r8,%rdx,4)
   .byte  102,69,15,126,76,144,16             // movd          %xmm9,0x10(%r8,%rdx,4)
@@ -48352,23 +55478,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            27234 <_sk_load_565_sse41_lowp+0x3c>
+  .byte  119,34                              // ja            2e870 <_sk_load_565_sse41_lowp+0x3c>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,196,0,0,0                 // lea           0xc4(%rip),%r9        # 272e4 <_sk_load_565_sse41_lowp+0xec>
+  .byte  76,141,13,196,0,0,0                 // lea           0xc4(%rip),%r9        # 2e920 <_sk_load_565_sse41_lowp+0xec>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,74                              // jmp           2727e <_sk_load_565_sse41_lowp+0x86>
+  .byte  235,74                              // jmp           2e8ba <_sk_load_565_sse41_lowp+0x86>
   .byte  243,65,15,111,4,80                  // movdqu        (%r8,%rdx,2),%xmm0
-  .byte  235,66                              // jmp           2727e <_sk_load_565_sse41_lowp+0x86>
+  .byte  235,66                              // jmp           2e8ba <_sk_load_565_sse41_lowp+0x86>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,76,80,4,2             // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm1
   .byte  102,65,15,110,4,80                  // movd          (%r8,%rdx,2),%xmm0
   .byte  102,15,58,14,193,252                // pblendw       $0xfc,%xmm1,%xmm0
-  .byte  235,40                              // jmp           2727e <_sk_load_565_sse41_lowp+0x86>
+  .byte  235,40                              // jmp           2e8ba <_sk_load_565_sse41_lowp+0x86>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,65,15,196,76,80,12,6            // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm1
   .byte  102,65,15,196,76,80,10,5            // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -48377,11 +55503,11 @@
   .byte  102,15,58,14,193,240                // pblendw       $0xf0,%xmm1,%xmm0
   .byte  102,15,111,216                      // movdqa        %xmm0,%xmm3
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
-  .byte  102,15,219,29,65,73,0,0             // pand          0x4941(%rip),%xmm3        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,29,133,73,0,0            // pand          0x4985(%rip),%xmm3        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,113,209,5                    // psrlw         $0x5,%xmm1
-  .byte  102,15,219,13,64,73,0,0             // pand          0x4940(%rip),%xmm1        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,15,111,21,72,73,0,0             // movdqa        0x4948(%rip),%xmm2        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,15,219,13,132,73,0,0            // pand          0x4984(%rip),%xmm1        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,15,111,21,140,73,0,0            // movdqa        0x498c(%rip),%xmm2        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,15,219,208                      // pand          %xmm0,%xmm2
   .byte  102,15,113,208,13                   // psrlw         $0xd,%xmm0
   .byte  102,15,235,195                      // por           %xmm3,%xmm0
@@ -48394,7 +55520,7 @@
   .byte  102,15,113,210,2                    // psrlw         $0x2,%xmm2
   .byte  102,15,235,211                      // por           %xmm3,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,62,65,0,0                  // movaps        0x413e(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,130,65,0,0                 // movaps        0x4182(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  255,224                             // jmpq          *%rax
   .byte  69,255                              // rex.RB        (bad)
   .byte  255                                 // (bad)
@@ -48405,7 +55531,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  126,255                             // jle           272f9 <_sk_load_565_sse41_lowp+0x101>
+  .byte  126,255                             // jle           2e935 <_sk_load_565_sse41_lowp+0x101>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -48424,23 +55550,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            2733c <_sk_load_565_dst_sse41_lowp+0x3c>
+  .byte  119,34                              // ja            2e978 <_sk_load_565_dst_sse41_lowp+0x3c>
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,196,0,0,0                 // lea           0xc4(%rip),%r9        # 273ec <_sk_load_565_dst_sse41_lowp+0xec>
+  .byte  76,141,13,196,0,0,0                 // lea           0xc4(%rip),%r9        # 2ea28 <_sk_load_565_dst_sse41_lowp+0xec>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,74                              // jmp           27386 <_sk_load_565_dst_sse41_lowp+0x86>
+  .byte  235,74                              // jmp           2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
   .byte  243,65,15,111,36,80                 // movdqu        (%r8,%rdx,2),%xmm4
-  .byte  235,66                              // jmp           27386 <_sk_load_565_dst_sse41_lowp+0x86>
+  .byte  235,66                              // jmp           2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  102,65,15,196,108,80,4,2            // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm5
   .byte  102,65,15,110,36,80                 // movd          (%r8,%rdx,2),%xmm4
   .byte  102,15,58,14,229,252                // pblendw       $0xfc,%xmm5,%xmm4
-  .byte  235,40                              // jmp           27386 <_sk_load_565_dst_sse41_lowp+0x86>
+  .byte  235,40                              // jmp           2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  102,65,15,196,108,80,12,6           // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm5
   .byte  102,65,15,196,108,80,10,5           // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -48449,11 +55575,11 @@
   .byte  102,15,58,14,229,240                // pblendw       $0xf0,%xmm5,%xmm4
   .byte  102,15,111,252                      // movdqa        %xmm4,%xmm7
   .byte  102,15,113,215,8                    // psrlw         $0x8,%xmm7
-  .byte  102,15,219,61,57,72,0,0             // pand          0x4839(%rip),%xmm7        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,61,125,72,0,0            // pand          0x487d(%rip),%xmm7        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,15,113,213,5                    // psrlw         $0x5,%xmm5
-  .byte  102,15,219,45,56,72,0,0             // pand          0x4838(%rip),%xmm5        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,15,111,53,64,72,0,0             // movdqa        0x4840(%rip),%xmm6        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,15,219,45,124,72,0,0            // pand          0x487c(%rip),%xmm5        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,15,111,53,132,72,0,0            // movdqa        0x4884(%rip),%xmm6        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,15,219,244                      // pand          %xmm4,%xmm6
   .byte  102,15,113,212,13                   // psrlw         $0xd,%xmm4
   .byte  102,15,235,231                      // por           %xmm7,%xmm4
@@ -48466,7 +55592,7 @@
   .byte  102,15,113,214,2                    // psrlw         $0x2,%xmm6
   .byte  102,15,235,247                      // por           %xmm7,%xmm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,54,64,0,0                  // movaps        0x4036(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,61,122,64,0,0                 // movaps        0x407a(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  255,224                             // jmpq          *%rax
   .byte  69,255                              // rex.RB        (bad)
   .byte  255                                 // (bad)
@@ -48477,7 +55603,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  126,255                             // jle           27401 <_sk_load_565_dst_sse41_lowp+0x101>
+  .byte  126,255                             // jle           2ea3d <_sk_load_565_dst_sse41_lowp+0x101>
   .byte  255                                 // (bad)
   .byte  255,114,255                         // pushq         -0x1(%rdx)
   .byte  255                                 // (bad)
@@ -48494,10 +55620,10 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
   .byte  102,65,15,113,240,8                 // psllw         $0x8,%xmm8
-  .byte  102,68,15,219,5,212,71,0,0          // pand          0x47d4(%rip),%xmm8        # 2bc00 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+  .byte  102,68,15,219,5,24,72,0,0           // pand          0x4818(%rip),%xmm8        # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
   .byte  102,68,15,111,201                   // movdqa        %xmm1,%xmm9
   .byte  102,65,15,113,241,3                 // psllw         $0x3,%xmm9
-  .byte  102,68,15,219,13,208,71,0,0         // pand          0x47d0(%rip),%xmm9        # 2bc10 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+  .byte  102,68,15,219,13,20,72,0,0          // pand          0x4814(%rip),%xmm9        # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
   .byte  102,69,15,235,200                   // por           %xmm8,%xmm9
   .byte  102,68,15,111,194                   // movdqa        %xmm2,%xmm8
   .byte  102,65,15,113,208,3                 // psrlw         $0x3,%xmm8
@@ -48506,19 +55632,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,29                              // ja            2747c <_sk_store_565_sse41_lowp+0x74>
+  .byte  119,29                              // ja            2eab8 <_sk_store_565_sse41_lowp+0x74>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,83,0,0,0                  // lea           0x53(%rip),%r9        # 274bc <_sk_store_565_sse41_lowp+0xb4>
+  .byte  76,141,13,83,0,0,0                  // lea           0x53(%rip),%r9        # 2eaf8 <_sk_store_565_sse41_lowp+0xb4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,58,21,4,80,0              // pextrw        $0x0,%xmm8,(%r8,%rdx,2)
-  .byte  235,58                              // jmp           274b6 <_sk_store_565_sse41_lowp+0xae>
+  .byte  235,58                              // jmp           2eaf2 <_sk_store_565_sse41_lowp+0xae>
   .byte  243,69,15,127,4,80                  // movdqu        %xmm8,(%r8,%rdx,2)
-  .byte  235,50                              // jmp           274b6 <_sk_store_565_sse41_lowp+0xae>
+  .byte  235,50                              // jmp           2eaf2 <_sk_store_565_sse41_lowp+0xae>
   .byte  102,69,15,58,21,68,80,4,2           // pextrw        $0x2,%xmm8,0x4(%r8,%rdx,2)
   .byte  102,69,15,126,4,80                  // movd          %xmm8,(%r8,%rdx,2)
-  .byte  235,33                              // jmp           274b6 <_sk_store_565_sse41_lowp+0xae>
+  .byte  235,33                              // jmp           2eaf2 <_sk_store_565_sse41_lowp+0xae>
   .byte  102,69,15,58,21,68,80,12,6          // pextrw        $0x6,%xmm8,0xc(%r8,%rdx,2)
   .byte  102,69,15,58,21,68,80,10,5          // pextrw        $0x5,%xmm8,0xa(%r8,%rdx,2)
   .byte  102,69,15,58,21,68,80,8,4           // pextrw        $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -48538,7 +55664,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  235,255                             // jmp           274cd <_sk_store_565_sse41_lowp+0xc5>
+  .byte  235,255                             // jmp           2eb09 <_sk_store_565_sse41_lowp+0xc5>
   .byte  255                                 // (bad)
   .byte  255,226                             // jmpq          *%rdx
   .byte  255                                 // (bad)
@@ -48560,18 +55686,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            27511 <_sk_load_a8_sse41_lowp+0x39>
+  .byte  119,34                              // ja            2eb4d <_sk_load_a8_sse41_lowp+0x39>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,143,0,0,0                 // lea           0x8f(%rip),%r9        # 2758c <_sk_load_a8_sse41_lowp+0xb4>
+  .byte  76,141,13,143,0,0,0                 // lea           0x8f(%rip),%r9        # 2ebc8 <_sk_load_a8_sse41_lowp+0xb4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  235,100                             // jmp           27575 <_sk_load_a8_sse41_lowp+0x9d>
+  .byte  235,100                             // jmp           2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
   .byte  102,65,15,56,48,28,16               // pmovzxbw      (%r8,%rdx,1),%xmm3
-  .byte  235,91                              // jmp           27575 <_sk_load_a8_sse41_lowp+0x9d>
+  .byte  235,91                              // jmp           2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,196,192,2                    // pinsrw        $0x2,%eax,%xmm0
@@ -48579,7 +55705,7 @@
   .byte  102,15,110,200                      // movd          %eax,%xmm1
   .byte  102,15,56,48,217                    // pmovzxbw      %xmm1,%xmm3
   .byte  102,15,58,14,216,252                // pblendw       $0xfc,%xmm0,%xmm3
-  .byte  235,54                              // jmp           27575 <_sk_load_a8_sse41_lowp+0x9d>
+  .byte  235,54                              // jmp           2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,196,192,6                    // pinsrw        $0x6,%eax,%xmm0
@@ -48590,13 +55716,13 @@
   .byte  102,65,15,110,12,16                 // movd          (%r8,%rdx,1),%xmm1
   .byte  102,15,56,48,217                    // pmovzxbw      %xmm1,%xmm3
   .byte  102,15,58,14,216,240                // pblendw       $0xf0,%xmm0,%xmm3
-  .byte  102,15,219,29,163,62,0,0            // pand          0x3ea3(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,29,231,62,0,0            // pand          0x3ee7(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
   .byte  255,224                             // jmpq          *%rax
-  .byte  122,255                             // jp            2758d <_sk_load_a8_sse41_lowp+0xb5>
+  .byte  122,255                             // jp            2ebc9 <_sk_load_a8_sse41_lowp+0xb5>
   .byte  255                                 // (bad)
   .byte  255,157,255,255,255,142             // lcall         *-0x71000001(%rbp)
   .byte  255                                 // (bad)
@@ -48627,18 +55753,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            275e1 <_sk_load_a8_dst_sse41_lowp+0x39>
+  .byte  119,34                              // ja            2ec1d <_sk_load_a8_dst_sse41_lowp+0x39>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,143,0,0,0                 // lea           0x8f(%rip),%r9        # 2765c <_sk_load_a8_dst_sse41_lowp+0xb4>
+  .byte  76,141,13,143,0,0,0                 // lea           0x8f(%rip),%r9        # 2ec98 <_sk_load_a8_dst_sse41_lowp+0xb4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,248                      // movd          %eax,%xmm7
-  .byte  235,100                             // jmp           27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+  .byte  235,100                             // jmp           2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
   .byte  102,65,15,56,48,60,16               // pmovzxbw      (%r8,%rdx,1),%xmm7
-  .byte  235,91                              // jmp           27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+  .byte  235,91                              // jmp           2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,15,196,224,2                    // pinsrw        $0x2,%eax,%xmm4
@@ -48646,7 +55772,7 @@
   .byte  102,15,110,232                      // movd          %eax,%xmm5
   .byte  102,15,56,48,253                    // pmovzxbw      %xmm5,%xmm7
   .byte  102,15,58,14,252,252                // pblendw       $0xfc,%xmm4,%xmm7
-  .byte  235,54                              // jmp           27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+  .byte  235,54                              // jmp           2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,15,196,224,6                    // pinsrw        $0x6,%eax,%xmm4
@@ -48657,13 +55783,13 @@
   .byte  102,65,15,110,44,16                 // movd          (%r8,%rdx,1),%xmm5
   .byte  102,15,56,48,253                    // pmovzxbw      %xmm5,%xmm7
   .byte  102,15,58,14,252,240                // pblendw       $0xf0,%xmm4,%xmm7
-  .byte  102,15,219,61,211,61,0,0            // pand          0x3dd3(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,61,23,62,0,0             // pand          0x3e17(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  15,87,246                           // xorps         %xmm6,%xmm6
   .byte  255,224                             // jmpq          *%rax
-  .byte  122,255                             // jp            2765d <_sk_load_a8_dst_sse41_lowp+0xb5>
+  .byte  122,255                             // jp            2ec99 <_sk_load_a8_dst_sse41_lowp+0xb5>
   .byte  255                                 // (bad)
   .byte  255,157,255,255,255,142             // lcall         *-0x71000001(%rbp)
   .byte  255                                 // (bad)
@@ -48694,28 +55820,28 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,29                              // ja            276ac <_sk_store_a8_sse41_lowp+0x34>
+  .byte  119,29                              // ja            2ece8 <_sk_store_a8_sse41_lowp+0x34>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,131,0,0,0                 // lea           0x83(%rip),%r9        # 2771c <_sk_store_a8_sse41_lowp+0xa4>
+  .byte  76,141,13,131,0,0,0                 // lea           0x83(%rip),%r9        # 2ed58 <_sk_store_a8_sse41_lowp+0xa4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,58,20,28,16,0             // pextrb        $0x0,%xmm3,(%r8,%rdx,1)
-  .byte  235,105                             // jmp           27715 <_sk_store_a8_sse41_lowp+0x9d>
+  .byte  235,105                             // jmp           2ed51 <_sk_store_a8_sse41_lowp+0x9d>
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
-  .byte  102,68,15,56,0,5,181,68,0,0         // pshufb        0x44b5(%rip),%xmm8        # 2bb70 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+  .byte  102,68,15,56,0,5,249,68,0,0         // pshufb        0x44f9(%rip),%xmm8        # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
   .byte  102,69,15,214,4,16                  // movq          %xmm8,(%r8,%rdx,1)
-  .byte  235,82                              // jmp           27715 <_sk_store_a8_sse41_lowp+0x9d>
+  .byte  235,82                              // jmp           2ed51 <_sk_store_a8_sse41_lowp+0x9d>
   .byte  102,65,15,58,20,92,16,2,4           // pextrb        $0x4,%xmm3,0x2(%r8,%rdx,1)
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
-  .byte  102,68,15,56,0,5,85,61,0,0          // pshufb        0x3d55(%rip),%xmm8        # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+  .byte  102,68,15,56,0,5,153,61,0,0         // pshufb        0x3d99(%rip),%xmm8        # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
   .byte  102,69,15,58,21,4,16,0              // pextrw        $0x0,%xmm8,(%r8,%rdx,1)
-  .byte  235,48                              // jmp           27715 <_sk_store_a8_sse41_lowp+0x9d>
+  .byte  235,48                              // jmp           2ed51 <_sk_store_a8_sse41_lowp+0x9d>
   .byte  102,65,15,58,20,92,16,6,12          // pextrb        $0xc,%xmm3,0x6(%r8,%rdx,1)
   .byte  102,65,15,58,20,92,16,5,10          // pextrb        $0xa,%xmm3,0x5(%r8,%rdx,1)
   .byte  102,65,15,58,20,92,16,4,8           // pextrb        $0x8,%xmm3,0x4(%r8,%rdx,1)
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
-  .byte  102,68,15,56,0,5,49,61,0,0          // pshufb        0x3d31(%rip),%xmm8        # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+  .byte  102,68,15,56,0,5,117,61,0,0         // pshufb        0x3d75(%rip),%xmm8        # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
   .byte  102,69,15,126,4,16                  // movd          %xmm8,(%r8,%rdx,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
@@ -48751,18 +55877,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            27771 <_sk_load_g8_sse41_lowp+0x39>
+  .byte  119,34                              // ja            2edad <_sk_load_g8_sse41_lowp+0x39>
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 277f0 <_sk_load_g8_sse41_lowp+0xb8>
+  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 2ee2c <_sk_load_g8_sse41_lowp+0xb8>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,100                             // jmp           277d5 <_sk_load_g8_sse41_lowp+0x9d>
+  .byte  235,100                             // jmp           2ee11 <_sk_load_g8_sse41_lowp+0x9d>
   .byte  102,65,15,56,48,4,16                // pmovzxbw      (%r8,%rdx,1),%xmm0
-  .byte  235,91                              // jmp           277d5 <_sk_load_g8_sse41_lowp+0x9d>
+  .byte  235,91                              // jmp           2ee11 <_sk_load_g8_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,196,200,2                    // pinsrw        $0x2,%eax,%xmm1
@@ -48770,7 +55896,7 @@
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,56,48,192                    // pmovzxbw      %xmm0,%xmm0
   .byte  102,15,58,14,193,252                // pblendw       $0xfc,%xmm1,%xmm0
-  .byte  235,54                              // jmp           277d5 <_sk_load_g8_sse41_lowp+0x9d>
+  .byte  235,54                              // jmp           2ee11 <_sk_load_g8_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,201                      // pxor          %xmm1,%xmm1
   .byte  102,15,196,200,6                    // pinsrw        $0x6,%eax,%xmm1
@@ -48781,13 +55907,13 @@
   .byte  102,65,15,110,4,16                  // movd          (%r8,%rdx,1),%xmm0
   .byte  102,15,56,48,192                    // pmovzxbw      %xmm0,%xmm0
   .byte  102,15,58,14,193,240                // pblendw       $0xf0,%xmm1,%xmm0
-  .byte  102,15,219,5,67,60,0,0              // pand          0x3c43(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,5,135,60,0,0             // pand          0x3c87(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,58,60,0,0                  // movaps        0x3c3a(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,126,60,0,0                 // movaps        0x3c7e(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,111,208                      // movdqa        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
-  .byte  118,255                             // jbe           277f1 <_sk_load_g8_sse41_lowp+0xb9>
+  .byte  118,255                             // jbe           2ee2d <_sk_load_g8_sse41_lowp+0xb9>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,138             // lcall         *-0x75000001(%rcx)
   .byte  255                                 // (bad)
@@ -48816,18 +55942,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            27845 <_sk_load_g8_dst_sse41_lowp+0x39>
+  .byte  119,34                              // ja            2ee81 <_sk_load_g8_dst_sse41_lowp+0x39>
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 278c4 <_sk_load_g8_dst_sse41_lowp+0xb8>
+  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 2ef00 <_sk_load_g8_dst_sse41_lowp+0xb8>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,100                             // jmp           278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+  .byte  235,100                             // jmp           2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
   .byte  102,65,15,56,48,36,16               // pmovzxbw      (%r8,%rdx,1),%xmm4
-  .byte  235,91                              // jmp           278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+  .byte  235,91                              // jmp           2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  102,15,196,232,2                    // pinsrw        $0x2,%eax,%xmm5
@@ -48835,7 +55961,7 @@
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,56,48,228                    // pmovzxbw      %xmm4,%xmm4
   .byte  102,15,58,14,229,252                // pblendw       $0xfc,%xmm5,%xmm4
-  .byte  235,54                              // jmp           278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+  .byte  235,54                              // jmp           2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,237                      // pxor          %xmm5,%xmm5
   .byte  102,15,196,232,6                    // pinsrw        $0x6,%eax,%xmm5
@@ -48846,13 +55972,13 @@
   .byte  102,65,15,110,36,16                 // movd          (%r8,%rdx,1),%xmm4
   .byte  102,15,56,48,228                    // pmovzxbw      %xmm4,%xmm4
   .byte  102,15,58,14,229,240                // pblendw       $0xf0,%xmm5,%xmm4
-  .byte  102,15,219,37,111,59,0,0            // pand          0x3b6f(%rip),%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,37,179,59,0,0            // pand          0x3bb3(%rip),%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,102,59,0,0                 // movaps        0x3b66(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,61,170,59,0,0                 // movaps        0x3baa(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,15,111,244                      // movdqa        %xmm4,%xmm6
   .byte  255,224                             // jmpq          *%rax
-  .byte  118,255                             // jbe           278c5 <_sk_load_g8_dst_sse41_lowp+0xb9>
+  .byte  118,255                             // jbe           2ef01 <_sk_load_g8_dst_sse41_lowp+0xb9>
   .byte  255                                 // (bad)
   .byte  255,153,255,255,255,138             // lcall         *-0x75000001(%rcx)
   .byte  255                                 // (bad)
@@ -48874,10 +56000,10 @@
 FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
 _sk_luminance_to_alpha_sse41_lowp:
   .byte  102,15,111,218                      // movdqa        %xmm2,%xmm3
-  .byte  102,15,213,5,52,67,0,0              // pmullw        0x4334(%rip),%xmm0        # 2bc20 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
-  .byte  102,15,213,13,60,67,0,0             // pmullw        0x433c(%rip),%xmm1        # 2bc30 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+  .byte  102,15,213,5,120,67,0,0             // pmullw        0x4378(%rip),%xmm0        # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+  .byte  102,15,213,13,128,67,0,0            // pmullw        0x4380(%rip),%xmm1        # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
   .byte  102,15,253,200                      // paddw         %xmm0,%xmm1
-  .byte  102,15,213,29,64,67,0,0             // pmullw        0x4340(%rip),%xmm3        # 2bc40 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+  .byte  102,15,213,29,132,67,0,0            // pmullw        0x4384(%rip),%xmm3        # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
   .byte  102,15,253,217                      // paddw         %xmm1,%xmm3
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -48892,14 +56018,14 @@
 _sk_scale_1_float_sse41_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  243,68,15,16,0                      // movss         (%rax),%xmm8
-  .byte  243,68,15,89,5,139,57,0,0           // mulss         0x398b(%rip),%xmm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  243,68,15,88,5,82,57,0,0            // addss         0x3952(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,5,207,57,0,0           // mulss         0x39cf(%rip),%xmm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  243,68,15,88,5,150,57,0,0           // addss         0x3996(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,44,192                    // cvttss2si     %xmm8,%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  242,69,15,112,192,0                 // pshuflw       $0x0,%xmm8,%xmm8
   .byte  102,69,15,112,192,80                // pshufd        $0x50,%xmm8,%xmm8
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
-  .byte  102,68,15,111,13,202,58,0,0         // movdqa        0x3aca(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,14,59,0,0          // movdqa        0x3b0e(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -48920,13 +56046,13 @@
 _sk_lerp_1_float_sse41_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  243,68,15,16,0                      // movss         (%rax),%xmm8
-  .byte  243,68,15,89,5,19,57,0,0            // mulss         0x3913(%rip),%xmm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  243,68,15,88,5,218,56,0,0           // addss         0x38da(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,5,87,57,0,0            // mulss         0x3957(%rip),%xmm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  243,68,15,88,5,30,57,0,0            // addss         0x391e(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,44,192                    // cvttss2si     %xmm8,%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  242,69,15,112,192,0                 // pshuflw       $0x0,%xmm8,%xmm8
   .byte  102,69,15,112,192,80                // pshufd        $0x50,%xmm8,%xmm8
-  .byte  102,68,15,111,13,87,58,0,0          // movdqa        0x3a57(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,155,58,0,0         // movdqa        0x3a9b(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -48966,18 +56092,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,36                              // ja            27a80 <_sk_scale_u8_sse41_lowp+0x3b>
+  .byte  119,36                              // ja            2f0bc <_sk_scale_u8_sse41_lowp+0x3b>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,221,0,0,0                 // lea           0xdd(%rip),%r9        # 27b48 <_sk_scale_u8_sse41_lowp+0x103>
+  .byte  76,141,13,221,0,0,0                 // lea           0xdd(%rip),%r9        # 2f184 <_sk_scale_u8_sse41_lowp+0x103>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  235,111                             // jmp           27aef <_sk_scale_u8_sse41_lowp+0xaa>
+  .byte  235,111                             // jmp           2f12b <_sk_scale_u8_sse41_lowp+0xaa>
   .byte  102,69,15,56,48,4,16                // pmovzxbw      (%r8,%rdx,1),%xmm8
-  .byte  235,102                             // jmp           27aef <_sk_scale_u8_sse41_lowp+0xaa>
+  .byte  235,102                             // jmp           2f12b <_sk_scale_u8_sse41_lowp+0xaa>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,68,15,196,200,2                 // pinsrw        $0x2,%eax,%xmm9
@@ -48985,7 +56111,7 @@
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,56,48,192                 // pmovzxbw      %xmm8,%xmm8
   .byte  102,69,15,58,14,193,252             // pblendw       $0xfc,%xmm9,%xmm8
-  .byte  235,60                              // jmp           27aef <_sk_scale_u8_sse41_lowp+0xaa>
+  .byte  235,60                              // jmp           2f12b <_sk_scale_u8_sse41_lowp+0xaa>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,68,15,196,200,6                 // pinsrw        $0x6,%eax,%xmm9
@@ -48996,9 +56122,9 @@
   .byte  102,69,15,110,4,16                  // movd          (%r8,%rdx,1),%xmm8
   .byte  102,69,15,56,48,192                 // pmovzxbw      %xmm8,%xmm8
   .byte  102,69,15,58,14,193,240             // pblendw       $0xf0,%xmm9,%xmm8
-  .byte  102,68,15,219,5,40,57,0,0           // pand          0x3928(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,219,5,108,57,0,0          // pand          0x396c(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
-  .byte  102,68,15,111,13,26,57,0,0          // movdqa        0x391a(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,94,57,0,0          // movdqa        0x395e(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -49023,7 +56149,7 @@
   .byte  255,148,255,255,255,136,255         // callq         *-0x770001(%rdi,%rdi,8)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  124,255                             // jl            27b5d <_sk_scale_u8_sse41_lowp+0x118>
+  .byte  124,255                             // jl            2f199 <_sk_scale_u8_sse41_lowp+0x118>
   .byte  255                                 // (bad)
   .byte  255,107,255                         // ljmp          *-0x1(%rbx)
   .byte  255                                 // (bad)
@@ -49041,18 +56167,18 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,36                              // ja            27b9f <_sk_lerp_u8_sse41_lowp+0x3b>
+  .byte  119,36                              // ja            2f1db <_sk_lerp_u8_sse41_lowp+0x3b>
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,30,1,0,0                  // lea           0x11e(%rip),%r9        # 27ca8 <_sk_lerp_u8_sse41_lowp+0x144>
+  .byte  76,141,13,30,1,0,0                  // lea           0x11e(%rip),%r9        # 2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  235,111                             // jmp           27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+  .byte  235,111                             // jmp           2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
   .byte  102,69,15,56,48,4,16                // pmovzxbw      (%r8,%rdx,1),%xmm8
-  .byte  235,102                             // jmp           27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+  .byte  235,102                             // jmp           2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,68,15,196,200,2                 // pinsrw        $0x2,%eax,%xmm9
@@ -49060,7 +56186,7 @@
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  102,69,15,56,48,192                 // pmovzxbw      %xmm8,%xmm8
   .byte  102,69,15,58,14,193,252             // pblendw       $0xfc,%xmm9,%xmm8
-  .byte  235,60                              // jmp           27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+  .byte  235,60                              // jmp           2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,69,15,239,201                   // pxor          %xmm9,%xmm9
   .byte  102,68,15,196,200,6                 // pinsrw        $0x6,%eax,%xmm9
@@ -49071,8 +56197,8 @@
   .byte  102,69,15,110,4,16                  // movd          (%r8,%rdx,1),%xmm8
   .byte  102,69,15,56,48,192                 // pmovzxbw      %xmm8,%xmm8
   .byte  102,69,15,58,14,193,240             // pblendw       $0xf0,%xmm9,%xmm8
-  .byte  102,68,15,219,5,9,56,0,0            // pand          0x3809(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
-  .byte  102,68,15,111,21,0,56,0,0           // movdqa        0x3800(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,219,5,77,56,0,0           // pand          0x384d(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  102,68,15,111,21,68,56,0,0          // movdqa        0x3844(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,69,15,239,202                   // pxor          %xmm10,%xmm9
   .byte  102,69,15,111,217                   // movdqa        %xmm9,%xmm11
@@ -49102,7 +56228,7 @@
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  255,224                             // jmpq          *%rax
   .byte  144                                 // nop
-  .byte  235,254                             // jmp           27ca8 <_sk_lerp_u8_sse41_lowp+0x144>
+  .byte  235,254                             // jmp           2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
   .byte  255                                 // (bad)
   .byte  255,17                              // callq         *(%rcx)
   .byte  255                                 // (bad)
@@ -49136,23 +56262,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,35                              // ja            27d06 <_sk_scale_565_sse41_lowp+0x42>
+  .byte  119,35                              // ja            2f342 <_sk_scale_565_sse41_lowp+0x42>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,111,1,0,0                 // lea           0x16f(%rip),%r9        # 27e60 <_sk_scale_565_sse41_lowp+0x19c>
+  .byte  76,141,13,111,1,0,0                 // lea           0x16f(%rip),%r9        # 2f49c <_sk_scale_565_sse41_lowp+0x19c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  235,76                              // jmp           27d52 <_sk_scale_565_sse41_lowp+0x8e>
+  .byte  235,76                              // jmp           2f38e <_sk_scale_565_sse41_lowp+0x8e>
   .byte  243,69,15,111,12,80                 // movdqu        (%r8,%rdx,2),%xmm9
-  .byte  235,68                              // jmp           27d52 <_sk_scale_565_sse41_lowp+0x8e>
+  .byte  235,68                              // jmp           2f38e <_sk_scale_565_sse41_lowp+0x8e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,4,2             // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm0
   .byte  102,69,15,110,12,80                 // movd          (%r8,%rdx,2),%xmm9
   .byte  102,68,15,58,14,200,252             // pblendw       $0xfc,%xmm0,%xmm9
-  .byte  235,41                              // jmp           27d52 <_sk_scale_565_sse41_lowp+0x8e>
+  .byte  235,41                              // jmp           2f38e <_sk_scale_565_sse41_lowp+0x8e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,12,6            // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm0
   .byte  102,65,15,196,68,80,10,5            // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49161,11 +56287,11 @@
   .byte  102,68,15,58,14,200,240             // pblendw       $0xf0,%xmm0,%xmm9
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
-  .byte  102,15,219,5,108,62,0,0             // pand          0x3e6c(%rip),%xmm0        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,5,176,62,0,0             // pand          0x3eb0(%rip),%xmm0        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,69,15,111,209                   // movdqa        %xmm9,%xmm10
   .byte  102,65,15,113,210,5                 // psrlw         $0x5,%xmm10
-  .byte  102,68,15,219,21,104,62,0,0         // pand          0x3e68(%rip),%xmm10        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,68,15,111,29,111,62,0,0         // movdqa        0x3e6f(%rip),%xmm11        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,68,15,219,21,172,62,0,0         // pand          0x3eac(%rip),%xmm10        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,68,15,111,29,179,62,0,0         // movdqa        0x3eb3(%rip),%xmm11        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,69,15,219,217                   // pand          %xmm9,%xmm11
   .byte  102,65,15,113,209,13                // psrlw         $0xd,%xmm9
   .byte  102,68,15,235,200                   // por           %xmm0,%xmm9
@@ -49177,7 +56303,7 @@
   .byte  102,15,113,240,3                    // psllw         $0x3,%xmm0
   .byte  102,65,15,113,211,2                 // psrlw         $0x2,%xmm11
   .byte  102,68,15,235,216                   // por           %xmm0,%xmm11
-  .byte  102,15,111,5,205,61,0,0             // movdqa        0x3dcd(%rip),%xmm0        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,15,111,5,17,62,0,0              // movdqa        0x3e11(%rip),%xmm0        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,68,15,111,227                   // movdqa        %xmm3,%xmm12
   .byte  102,68,15,239,224                   // pxor          %xmm0,%xmm12
   .byte  102,15,239,199                      // pxor          %xmm7,%xmm0
@@ -49190,7 +56316,7 @@
   .byte  102,69,15,56,62,225                 // pmaxuw        %xmm9,%xmm12
   .byte  102,69,15,56,16,229                 // pblendvb      %xmm0,%xmm13,%xmm12
   .byte  102,69,15,213,200                   // pmullw        %xmm8,%xmm9
-  .byte  102,15,111,5,21,54,0,0              // movdqa        0x3615(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,5,89,54,0,0              // movdqa        0x3659(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,253,200                   // paddw         %xmm0,%xmm9
   .byte  102,65,15,113,209,8                 // psrlw         $0x8,%xmm9
   .byte  102,68,15,213,209                   // pmullw        %xmm1,%xmm10
@@ -49244,23 +56370,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,35                              // ja            27ebe <_sk_lerp_565_sse41_lowp+0x42>
+  .byte  119,35                              // ja            2f4fa <_sk_lerp_565_sse41_lowp+0x42>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,187,1,0,0                 // lea           0x1bb(%rip),%r9        # 28064 <_sk_lerp_565_sse41_lowp+0x1e8>
+  .byte  76,141,13,187,1,0,0                 // lea           0x1bb(%rip),%r9        # 2f6a0 <_sk_lerp_565_sse41_lowp+0x1e8>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
-  .byte  235,76                              // jmp           27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+  .byte  235,76                              // jmp           2f546 <_sk_lerp_565_sse41_lowp+0x8e>
   .byte  243,69,15,111,12,80                 // movdqu        (%r8,%rdx,2),%xmm9
-  .byte  235,68                              // jmp           27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+  .byte  235,68                              // jmp           2f546 <_sk_lerp_565_sse41_lowp+0x8e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,4,2             // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm0
   .byte  102,69,15,110,12,80                 // movd          (%r8,%rdx,2),%xmm9
   .byte  102,68,15,58,14,200,252             // pblendw       $0xfc,%xmm0,%xmm9
-  .byte  235,41                              // jmp           27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+  .byte  235,41                              // jmp           2f546 <_sk_lerp_565_sse41_lowp+0x8e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,12,6            // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm0
   .byte  102,65,15,196,68,80,10,5            // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49269,11 +56395,11 @@
   .byte  102,68,15,58,14,200,240             // pblendw       $0xf0,%xmm0,%xmm9
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
-  .byte  102,15,219,5,180,60,0,0             // pand          0x3cb4(%rip),%xmm0        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,5,248,60,0,0             // pand          0x3cf8(%rip),%xmm0        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,69,15,111,209                   // movdqa        %xmm9,%xmm10
   .byte  102,65,15,113,210,5                 // psrlw         $0x5,%xmm10
-  .byte  102,68,15,219,21,176,60,0,0         // pand          0x3cb0(%rip),%xmm10        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,68,15,111,29,183,60,0,0         // movdqa        0x3cb7(%rip),%xmm11        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,68,15,219,21,244,60,0,0         // pand          0x3cf4(%rip),%xmm10        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,68,15,111,29,251,60,0,0         // movdqa        0x3cfb(%rip),%xmm11        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,69,15,219,217                   // pand          %xmm9,%xmm11
   .byte  102,65,15,113,209,13                // psrlw         $0xd,%xmm9
   .byte  102,68,15,235,200                   // por           %xmm0,%xmm9
@@ -49285,7 +56411,7 @@
   .byte  102,15,113,240,3                    // psllw         $0x3,%xmm0
   .byte  102,65,15,113,211,2                 // psrlw         $0x2,%xmm11
   .byte  102,68,15,235,216                   // por           %xmm0,%xmm11
-  .byte  102,15,111,5,21,60,0,0              // movdqa        0x3c15(%rip),%xmm0        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,15,111,5,89,60,0,0              // movdqa        0x3c59(%rip),%xmm0        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,68,15,111,227                   // movdqa        %xmm3,%xmm12
   .byte  102,68,15,239,224                   // pxor          %xmm0,%xmm12
   .byte  102,15,239,199                      // pxor          %xmm7,%xmm0
@@ -49297,7 +56423,7 @@
   .byte  102,69,15,56,62,227                 // pmaxuw        %xmm11,%xmm12
   .byte  102,69,15,56,62,225                 // pmaxuw        %xmm9,%xmm12
   .byte  102,69,15,56,16,229                 // pblendvb      %xmm0,%xmm13,%xmm12
-  .byte  102,68,15,111,45,97,52,0,0          // movdqa        0x3461(%rip),%xmm13        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,45,165,52,0,0         // movdqa        0x34a5(%rip),%xmm13        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,111,193                   // movdqa        %xmm9,%xmm0
   .byte  102,65,15,239,197                   // pxor          %xmm13,%xmm0
   .byte  102,15,213,196                      // pmullw        %xmm4,%xmm0
@@ -49361,48 +56487,48 @@
   .byte  65,254,202                          // dec           %r10b
   .byte  69,15,182,202                       // movzbl        %r10b,%r9d
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,38                              // ja            280cb <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+  .byte  119,38                              // ja            2f707 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  76,141,29,23,2,0,0                  // lea           0x217(%rip),%r11        # 282c8 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+  .byte  76,141,29,23,2,0,0                  // lea           0x217(%rip),%r11        # 2f904 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
   .byte  75,99,4,139                         // movslq        (%r11,%r9,4),%rax
   .byte  76,1,216                            // add           %r11,%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,110,52,144                // movd          (%r8,%rdx,4),%xmm6
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,89                              // jmp           28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+  .byte  235,89                              // jmp           2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
   .byte  243,65,15,111,52,144                // movdqu        (%r8,%rdx,4),%xmm6
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,74                              // jmp           28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+  .byte  235,74                              // jmp           2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  243,65,15,126,52,144                // movq          (%r8,%rdx,4),%xmm6
   .byte  102,65,15,58,14,240,240             // pblendw       $0xf0,%xmm8,%xmm6
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
-  .byte  235,37                              // jmp           28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+  .byte  235,37                              // jmp           2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,69,15,58,34,68,144,20,1         // pinsrd        $0x1,0x14(%r8,%rdx,4),%xmm8
   .byte  102,69,15,58,34,68,144,16,0         // pinsrd        $0x0,0x10(%r8,%rdx,4),%xmm8
   .byte  243,65,15,111,52,144                // movdqu        (%r8,%rdx,4),%xmm6
-  .byte  102,15,111,37,116,58,0,0            // movdqa        0x3a74(%rip),%xmm4        # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+  .byte  102,15,111,37,184,58,0,0            // movdqa        0x3ab8(%rip),%xmm4        # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
   .byte  102,15,111,238                      // movdqa        %xmm6,%xmm5
   .byte  102,15,56,0,236                     // pshufb        %xmm4,%xmm5
   .byte  102,65,15,111,248                   // movdqa        %xmm8,%xmm7
   .byte  102,15,56,0,252                     // pshufb        %xmm4,%xmm7
   .byte  102,15,108,239                      // punpcklqdq    %xmm7,%xmm5
-  .byte  102,68,15,111,37,212,50,0,0         // movdqa        0x32d4(%rip),%xmm12        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,37,24,51,0,0          // movdqa        0x3318(%rip),%xmm12        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,229                      // movdqa        %xmm5,%xmm4
   .byte  102,65,15,219,228                   // pand          %xmm12,%xmm4
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
-  .byte  102,68,15,111,13,77,58,0,0          // movdqa        0x3a4d(%rip),%xmm9        # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+  .byte  102,68,15,111,13,145,58,0,0         // movdqa        0x3a91(%rip),%xmm9        # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
   .byte  102,15,111,254                      // movdqa        %xmm6,%xmm7
   .byte  102,65,15,56,0,249                  // pshufb        %xmm9,%xmm7
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
   .byte  102,69,15,56,0,209                  // pshufb        %xmm9,%xmm10
   .byte  102,65,15,108,250                   // punpcklqdq    %xmm10,%xmm7
-  .byte  102,68,15,111,13,58,58,0,0          // movdqa        0x3a3a(%rip),%xmm9        # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+  .byte  102,68,15,111,13,126,58,0,0         // movdqa        0x3a7e(%rip),%xmm9        # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
   .byte  102,65,15,56,0,241                  // pshufb        %xmm9,%xmm6
   .byte  102,69,15,56,0,193                  // pshufb        %xmm9,%xmm8
   .byte  102,65,15,108,240                   // punpcklqdq    %xmm8,%xmm6
@@ -49444,19 +56570,19 @@
   .byte  102,15,97,195                       // punpcklwd     %xmm3,%xmm0
   .byte  102,65,15,235,196                   // por           %xmm12,%xmm0
   .byte  65,128,250,6                        // cmp           $0x6,%r10b
-  .byte  119,24                              // ja            2826e <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
-  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 282e4 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+  .byte  119,24                              // ja            2f8aa <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+  .byte  76,141,21,135,0,0,0                 // lea           0x87(%rip),%r10        # 2f920 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,65,15,126,4,144                 // movd          %xmm0,(%r8,%rdx,4)
-  .byte  235,63                              // jmp           282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+  .byte  235,63                              // jmp           2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
   .byte  243,65,15,127,4,144                 // movdqu        %xmm0,(%r8,%rdx,4)
   .byte  243,65,15,127,76,144,16             // movdqu        %xmm1,0x10(%r8,%rdx,4)
-  .byte  235,48                              // jmp           282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+  .byte  235,48                              // jmp           2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
   .byte  102,65,15,58,22,68,144,8,2          // pextrd        $0x2,%xmm0,0x8(%r8,%rdx,4)
   .byte  102,65,15,214,4,144                 // movq          %xmm0,(%r8,%rdx,4)
-  .byte  235,31                              // jmp           282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+  .byte  235,31                              // jmp           2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
   .byte  102,65,15,58,22,76,144,24,2         // pextrd        $0x2,%xmm1,0x18(%r8,%rdx,4)
   .byte  102,65,15,58,22,76,144,20,1         // pextrd        $0x1,%xmm1,0x14(%r8,%rdx,4)
   .byte  102,65,15,126,76,144,16             // movd          %xmm1,0x10(%r8,%rdx,4)
@@ -49521,13 +56647,13 @@
   .byte  73,137,246                          // mov           %rsi,%r14
   .byte  72,137,77,192                       // mov           %rcx,-0x40(%rbp)
   .byte  72,57,203                           // cmp           %rcx,%rbx
-  .byte  15,131,131,0,0,0                    // jae           283b6 <_sk_start_pipeline_sse2_lowp+0xb6>
+  .byte  15,131,131,0,0,0                    // jae           2f9f2 <_sk_start_pipeline_sse2_lowp+0xb6>
   .byte  72,139,69,208                       // mov           -0x30(%rbp),%rax
   .byte  72,141,64,8                         // lea           0x8(%rax),%rax
   .byte  72,137,69,200                       // mov           %rax,-0x38(%rbp)
   .byte  76,57,125,200                       // cmp           %r15,-0x38(%rbp)
   .byte  72,139,85,208                       // mov           -0x30(%rbp),%rdx
-  .byte  119,59                              // ja            28384 <_sk_start_pipeline_sse2_lowp+0x84>
+  .byte  119,59                              // ja            2f9c0 <_sk_start_pipeline_sse2_lowp+0x84>
   .byte  76,139,101,208                      // mov           -0x30(%rbp),%r12
   .byte  49,255                              // xor           %edi,%edi
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
@@ -49546,10 +56672,10 @@
   .byte  73,131,196,16                       // add           $0x10,%r12
   .byte  77,57,252                           // cmp           %r15,%r12
   .byte  73,137,212                          // mov           %rdx,%r12
-  .byte  118,201                             // jbe           2834d <_sk_start_pipeline_sse2_lowp+0x4d>
+  .byte  118,201                             // jbe           2f989 <_sk_start_pipeline_sse2_lowp+0x4d>
   .byte  76,137,255                          // mov           %r15,%rdi
   .byte  72,41,215                           // sub           %rdx,%rdi
-  .byte  116,33                              // je            283ad <_sk_start_pipeline_sse2_lowp+0xad>
+  .byte  116,33                              // je            2f9e9 <_sk_start_pipeline_sse2_lowp+0xad>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -49563,7 +56689,7 @@
   .byte  65,255,213                          // callq         *%r13
   .byte  72,255,195                          // inc           %rbx
   .byte  72,59,93,192                        // cmp           -0x40(%rbp),%rbx
-  .byte  117,137                             // jne           2833f <_sk_start_pipeline_sse2_lowp+0x3f>
+  .byte  117,137                             // jne           2f97b <_sk_start_pipeline_sse2_lowp+0x3f>
   .byte  72,131,196,24                       // add           $0x18,%rsp
   .byte  91                                  // pop           %rbx
   .byte  65,92                               // pop           %r12
@@ -49606,7 +56732,7 @@
 FUNCTION(_sk_black_color_sse2_lowp)
 _sk_black_color_sse2_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,7,48,0,0                   // movaps        0x3007(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,75,48,0,0                  // movaps        0x304b(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
@@ -49617,7 +56743,7 @@
 FUNCTION(_sk_white_color_sse2_lowp)
 _sk_white_color_sse2_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,5,243,47,0,0                  // movaps        0x2ff3(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,5,55,48,0,0                   // movaps        0x3037(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  15,40,200                           // movaps        %xmm0,%xmm1
   .byte  15,40,208                           // movaps        %xmm0,%xmm2
   .byte  15,40,216                           // movaps        %xmm0,%xmm3
@@ -49628,10 +56754,10 @@
 FUNCTION(_sk_set_rgb_sse2_lowp)
 _sk_set_rgb_sse2_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  243,15,16,21,114,46,0,0             // movss         0x2e72(%rip),%xmm2        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+  .byte  243,15,16,21,182,46,0,0             // movss         0x2eb6(%rip),%xmm2        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
   .byte  243,15,16,0                         // movss         (%rax),%xmm0
   .byte  243,15,89,194                       // mulss         %xmm2,%xmm0
-  .byte  243,68,15,16,5,49,46,0,0            // movss         0x2e31(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,16,5,117,46,0,0           // movss         0x2e75(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,88,192                    // addss         %xmm8,%xmm0
   .byte  243,68,15,44,192                    // cvttss2si     %xmm0,%r8d
   .byte  102,65,15,110,192                   // movd          %r8d,%xmm0
@@ -49658,7 +56784,7 @@
 FUNCTION(_sk_premul_sse2_lowp)
 _sk_premul_sse2_lowp:
   .byte  102,15,213,195                      // pmullw        %xmm3,%xmm0
-  .byte  102,68,15,111,5,101,47,0,0          // movdqa        0x2f65(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,169,47,0,0          // movdqa        0x2fa9(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,203                      // pmullw        %xmm3,%xmm1
@@ -49706,7 +56832,7 @@
 .globl _sk_invert_sse2_lowp
 FUNCTION(_sk_invert_sse2_lowp)
 _sk_invert_sse2_lowp:
-  .byte  102,68,15,111,5,3,47,0,0            // movdqa        0x2f03(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,71,47,0,0           // movdqa        0x2f47(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,200                   // psubw         %xmm0,%xmm9
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -49738,7 +56864,7 @@
 _sk_srcatop_sse2_lowp:
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
   .byte  102,15,213,199                      // pmullw        %xmm7,%xmm0
-  .byte  102,15,111,29,167,46,0,0            // movdqa        0x2ea7(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,29,235,46,0,0            // movdqa        0x2eeb(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,111,203                   // movdqa        %xmm3,%xmm9
   .byte  102,69,15,249,200                   // psubw         %xmm8,%xmm9
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
@@ -49770,7 +56896,7 @@
 _sk_dstatop_sse2_lowp:
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
   .byte  102,68,15,213,195                   // pmullw        %xmm3,%xmm8
-  .byte  102,68,15,111,13,39,46,0,0          // movdqa        0x2e27(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,107,46,0,0         // movdqa        0x2e6b(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,253,193                   // paddw         %xmm9,%xmm8
   .byte  102,68,15,111,213                   // movdqa        %xmm5,%xmm10
   .byte  102,68,15,213,211                   // pmullw        %xmm3,%xmm10
@@ -49799,7 +56925,7 @@
 FUNCTION(_sk_srcin_sse2_lowp)
 _sk_srcin_sse2_lowp:
   .byte  102,15,213,199                      // pmullw        %xmm7,%xmm0
-  .byte  102,68,15,111,5,178,45,0,0          // movdqa        0x2db2(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,246,45,0,0          // movdqa        0x2df6(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,207                      // pmullw        %xmm7,%xmm1
@@ -49820,7 +56946,7 @@
 _sk_dstin_sse2_lowp:
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,213,195                      // pmullw        %xmm3,%xmm0
-  .byte  102,68,15,111,5,105,45,0,0          // movdqa        0x2d69(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,173,45,0,0          // movdqa        0x2dad(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,111,205                      // movdqa        %xmm5,%xmm1
@@ -49841,7 +56967,7 @@
 .globl _sk_srcout_sse2_lowp
 FUNCTION(_sk_srcout_sse2_lowp)
 _sk_srcout_sse2_lowp:
-  .byte  102,68,15,111,5,32,45,0,0           // movdqa        0x2d20(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,100,45,0,0          // movdqa        0x2d64(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,207                   // psubw         %xmm7,%xmm9
   .byte  102,65,15,213,193                   // pmullw        %xmm9,%xmm0
@@ -49864,7 +56990,7 @@
 FUNCTION(_sk_dstout_sse2_lowp)
 _sk_dstout_sse2_lowp:
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
-  .byte  102,68,15,111,5,201,44,0,0          // movdqa        0x2cc9(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,13,45,0,0           // movdqa        0x2d0d(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  102,15,249,216                      // psubw         %xmm0,%xmm3
   .byte  102,15,111,195                      // movdqa        %xmm3,%xmm0
@@ -49889,7 +57015,7 @@
 .globl _sk_srcover_sse2_lowp
 FUNCTION(_sk_srcover_sse2_lowp)
 _sk_srcover_sse2_lowp:
-  .byte  102,68,15,111,13,111,44,0,0         // movdqa        0x2c6f(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,179,44,0,0         // movdqa        0x2cb3(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,68,15,249,195                   // psubw         %xmm3,%xmm8
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -49918,7 +57044,7 @@
 .globl _sk_dstover_sse2_lowp
 FUNCTION(_sk_dstover_sse2_lowp)
 _sk_dstover_sse2_lowp:
-  .byte  102,68,15,111,5,245,43,0,0          // movdqa        0x2bf5(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,57,44,0,0           // movdqa        0x2c39(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,68,15,249,207                   // psubw         %xmm7,%xmm9
   .byte  102,65,15,213,193                   // pmullw        %xmm9,%xmm0
@@ -49945,7 +57071,7 @@
 FUNCTION(_sk_modulate_sse2_lowp)
 _sk_modulate_sse2_lowp:
   .byte  102,15,213,196                      // pmullw        %xmm4,%xmm0
-  .byte  102,68,15,111,5,142,43,0,0          // movdqa        0x2b8e(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,210,43,0,0          // movdqa        0x2bd2(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,192                   // paddw         %xmm8,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,15,213,205                      // pmullw        %xmm5,%xmm1
@@ -49964,7 +57090,7 @@
 .globl _sk_multiply_sse2_lowp
 FUNCTION(_sk_multiply_sse2_lowp)
 _sk_multiply_sse2_lowp:
-  .byte  102,68,15,111,13,77,43,0,0          // movdqa        0x2b4d(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,145,43,0,0         // movdqa        0x2b91(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,193                   // movdqa        %xmm9,%xmm8
   .byte  102,68,15,249,195                   // psubw         %xmm3,%xmm8
   .byte  102,69,15,111,208                   // movdqa        %xmm8,%xmm10
@@ -50009,12 +57135,12 @@
   .byte  102,68,15,111,193                   // movdqa        %xmm1,%xmm8
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,253,204                      // paddw         %xmm4,%xmm1
-  .byte  102,68,15,111,21,185,50,0,0         // movdqa        0x32b9(%rip),%xmm10        # 2bc50 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
+  .byte  102,68,15,111,21,253,50,0,0         // movdqa        0x32fd(%rip),%xmm10        # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,217,194                   // psubusw       %xmm10,%xmm0
   .byte  102,69,15,239,228                   // pxor          %xmm12,%xmm12
   .byte  102,65,15,117,196                   // pcmpeqw       %xmm12,%xmm0
-  .byte  102,68,15,111,29,109,42,0,0         // movdqa        0x2a6d(%rip),%xmm11        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,29,177,42,0,0         // movdqa        0x2ab1(%rip),%xmm11        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,219,200                      // pand          %xmm0,%xmm1
   .byte  102,65,15,223,195                   // pandn         %xmm11,%xmm0
   .byte  102,15,235,193                      // por           %xmm1,%xmm0
@@ -50053,7 +57179,7 @@
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,253,193                      // paddw         %xmm1,%xmm0
   .byte  102,15,213,204                      // pmullw        %xmm4,%xmm1
-  .byte  102,68,15,111,21,205,41,0,0         // movdqa        0x29cd(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,21,17,42,0,0          // movdqa        0x2a11(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,202                   // paddw         %xmm10,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -50085,7 +57211,7 @@
 FUNCTION(_sk_xor__sse2_lowp)
 _sk_xor__sse2_lowp:
   .byte  102,68,15,111,195                   // movdqa        %xmm3,%xmm8
-  .byte  102,68,15,111,13,75,41,0,0          // movdqa        0x294b(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,143,41,0,0         // movdqa        0x298f(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,209                   // movdqa        %xmm9,%xmm10
   .byte  102,68,15,249,215                   // psubw         %xmm7,%xmm10
   .byte  102,65,15,213,194                   // pmullw        %xmm10,%xmm0
@@ -50127,7 +57253,7 @@
   .byte  102,65,15,253,194                   // paddw         %xmm10,%xmm0
   .byte  102,68,15,213,215                   // pmullw        %xmm7,%xmm10
   .byte  102,68,15,213,227                   // pmullw        %xmm3,%xmm12
-  .byte  102,68,15,111,13,6,48,0,0           // movdqa        0x3006(%rip),%xmm9        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,13,74,48,0,0          // movdqa        0x304a(%rip),%xmm9        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,69,15,111,218                   // movdqa        %xmm10,%xmm11
   .byte  102,69,15,239,217                   // pxor          %xmm9,%xmm11
   .byte  102,65,15,111,204                   // movdqa        %xmm12,%xmm1
@@ -50136,7 +57262,7 @@
   .byte  102,68,15,219,225                   // pand          %xmm1,%xmm12
   .byte  102,65,15,223,202                   // pandn         %xmm10,%xmm1
   .byte  102,65,15,235,204                   // por           %xmm12,%xmm1
-  .byte  102,68,15,111,21,101,40,0,0         // movdqa        0x2865(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,21,169,40,0,0         // movdqa        0x28a9(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,202                   // paddw         %xmm10,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -50192,7 +57318,7 @@
   .byte  102,65,15,253,196                   // paddw         %xmm12,%xmm0
   .byte  102,68,15,213,231                   // pmullw        %xmm7,%xmm12
   .byte  102,68,15,213,211                   // pmullw        %xmm3,%xmm10
-  .byte  102,68,15,111,13,221,46,0,0         // movdqa        0x2edd(%rip),%xmm9        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,13,33,47,0,0          // movdqa        0x2f21(%rip),%xmm9        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,69,15,111,220                   // movdqa        %xmm12,%xmm11
   .byte  102,69,15,239,217                   // pxor          %xmm9,%xmm11
   .byte  102,65,15,111,202                   // movdqa        %xmm10,%xmm1
@@ -50201,7 +57327,7 @@
   .byte  102,68,15,219,225                   // pand          %xmm1,%xmm12
   .byte  102,65,15,223,202                   // pandn         %xmm10,%xmm1
   .byte  102,65,15,235,204                   // por           %xmm12,%xmm1
-  .byte  102,68,15,111,21,60,39,0,0          // movdqa        0x273c(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,21,128,39,0,0         // movdqa        0x2780(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,202                   // paddw         %xmm10,%xmm1
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
@@ -50257,7 +57383,7 @@
   .byte  102,65,15,253,196                   // paddw         %xmm12,%xmm0
   .byte  102,68,15,213,231                   // pmullw        %xmm7,%xmm12
   .byte  102,68,15,213,211                   // pmullw        %xmm3,%xmm10
-  .byte  102,68,15,111,13,180,45,0,0         // movdqa        0x2db4(%rip),%xmm9        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,13,248,45,0,0         // movdqa        0x2df8(%rip),%xmm9        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,69,15,111,220                   // movdqa        %xmm12,%xmm11
   .byte  102,69,15,239,217                   // pxor          %xmm9,%xmm11
   .byte  102,65,15,111,202                   // movdqa        %xmm10,%xmm1
@@ -50266,10 +57392,10 @@
   .byte  102,68,15,219,225                   // pand          %xmm1,%xmm12
   .byte  102,65,15,223,202                   // pandn         %xmm10,%xmm1
   .byte  102,65,15,235,204                   // por           %xmm12,%xmm1
-  .byte  102,68,15,111,21,19,38,0,0          // movdqa        0x2613(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,21,87,38,0,0          // movdqa        0x2657(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,202                   // paddw         %xmm10,%xmm1
   .byte  102,15,113,209,7                    // psrlw         $0x7,%xmm1
-  .byte  102,68,15,111,29,96,45,0,0          // movdqa        0x2d60(%rip),%xmm11        # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+  .byte  102,68,15,111,29,164,45,0,0         // movdqa        0x2da4(%rip),%xmm11        # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
   .byte  102,65,15,219,203                   // pand          %xmm11,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
   .byte  102,68,15,111,229                   // movdqa        %xmm5,%xmm12
@@ -50324,10 +57450,10 @@
   .byte  102,15,111,196                      // movdqa        %xmm4,%xmm0
   .byte  102,15,253,193                      // paddw         %xmm1,%xmm0
   .byte  102,15,213,204                      // pmullw        %xmm4,%xmm1
-  .byte  102,68,15,111,13,16,37,0,0          // movdqa        0x2510(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,84,37,0,0          // movdqa        0x2554(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,201                   // paddw         %xmm9,%xmm1
   .byte  102,15,113,209,7                    // psrlw         $0x7,%xmm1
-  .byte  102,68,15,111,21,93,44,0,0          // movdqa        0x2c5d(%rip),%xmm10        # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+  .byte  102,68,15,111,21,161,44,0,0         // movdqa        0x2ca1(%rip),%xmm10        # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
   .byte  102,65,15,219,202                   // pand          %xmm10,%xmm1
   .byte  102,15,249,193                      // psubw         %xmm1,%xmm0
   .byte  102,15,111,205                      // movdqa        %xmm5,%xmm1
@@ -50363,7 +57489,7 @@
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,68,15,111,194                   // movdqa        %xmm2,%xmm8
   .byte  102,68,15,111,200                   // movdqa        %xmm0,%xmm9
-  .byte  102,15,111,21,108,36,0,0            // movdqa        0x246c(%rip),%xmm2        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,21,176,36,0,0            // movdqa        0x24b0(%rip),%xmm2        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,111,226                   // movdqa        %xmm2,%xmm12
   .byte  102,68,15,249,231                   // psubw         %xmm7,%xmm12
   .byte  102,65,15,111,196                   // movdqa        %xmm12,%xmm0
@@ -50376,7 +57502,7 @@
   .byte  102,68,15,111,243                   // movdqa        %xmm3,%xmm14
   .byte  102,69,15,249,241                   // psubw         %xmm9,%xmm14
   .byte  102,69,15,253,201                   // paddw         %xmm9,%xmm9
-  .byte  102,15,111,21,152,43,0,0            // movdqa        0x2b98(%rip),%xmm2        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,15,111,21,220,43,0,0            // movdqa        0x2bdc(%rip),%xmm2        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,15,111,199                      // movdqa        %xmm7,%xmm0
   .byte  102,68,15,111,215                   // movdqa        %xmm7,%xmm10
   .byte  102,15,111,231                      // movdqa        %xmm7,%xmm4
@@ -50395,7 +57521,7 @@
   .byte  102,68,15,219,232                   // pand          %xmm0,%xmm13
   .byte  102,65,15,223,193                   // pandn         %xmm9,%xmm0
   .byte  102,65,15,235,197                   // por           %xmm13,%xmm0
-  .byte  102,15,253,5,203,35,0,0             // paddw         0x23cb(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,253,5,15,36,0,0              // paddw         0x240f(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,199                   // paddw         %xmm15,%xmm0
   .byte  102,69,15,111,204                   // movdqa        %xmm12,%xmm9
   .byte  102,68,15,213,201                   // pmullw        %xmm1,%xmm9
@@ -50418,7 +57544,7 @@
   .byte  102,65,15,219,249                   // pand          %xmm9,%xmm7
   .byte  102,68,15,223,201                   // pandn         %xmm1,%xmm9
   .byte  102,68,15,235,207                   // por           %xmm7,%xmm9
-  .byte  102,68,15,253,13,86,35,0,0          // paddw         0x2356(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,253,13,154,35,0,0         // paddw         0x239a(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,253,205                   // paddw         %xmm13,%xmm9
   .byte  102,69,15,213,224                   // pmullw        %xmm8,%xmm12
   .byte  102,69,15,111,251                   // movdqa        %xmm11,%xmm15
@@ -50440,7 +57566,7 @@
   .byte  102,68,15,219,210                   // pand          %xmm2,%xmm10
   .byte  102,65,15,223,208                   // pandn         %xmm8,%xmm2
   .byte  102,65,15,235,210                   // por           %xmm10,%xmm2
-  .byte  102,68,15,111,5,230,34,0,0          // movdqa        0x22e6(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,42,35,0,0           // movdqa        0x232a(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,208                   // paddw         %xmm8,%xmm2
   .byte  102,65,15,253,215                   // paddw         %xmm15,%xmm2
   .byte  102,68,15,213,220                   // pmullw        %xmm4,%xmm11
@@ -50468,7 +57594,7 @@
   .byte  102,15,127,124,36,232               // movdqa        %xmm7,-0x18(%rsp)
   .byte  102,68,15,111,193                   // movdqa        %xmm1,%xmm8
   .byte  102,68,15,111,248                   // movdqa        %xmm0,%xmm15
-  .byte  102,15,111,53,119,34,0,0            // movdqa        0x2277(%rip),%xmm6        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,53,187,34,0,0            // movdqa        0x22bb(%rip),%xmm6        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,111,222                   // movdqa        %xmm6,%xmm11
   .byte  102,69,15,249,222                   // psubw         %xmm14,%xmm11
   .byte  102,65,15,111,203                   // movdqa        %xmm11,%xmm1
@@ -50490,7 +57616,7 @@
   .byte  102,15,253,201                      // paddw         %xmm1,%xmm1
   .byte  102,69,15,111,225                   // movdqa        %xmm9,%xmm12
   .byte  102,68,15,249,225                   // psubw         %xmm1,%xmm12
-  .byte  102,15,111,13,123,41,0,0            // movdqa        0x297b(%rip),%xmm1        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,15,111,13,191,41,0,0            // movdqa        0x29bf(%rip),%xmm1        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,69,15,111,238                   // movdqa        %xmm14,%xmm13
   .byte  102,68,15,239,233                   // pxor          %xmm1,%xmm13
   .byte  102,15,239,249                      // pxor          %xmm1,%xmm7
@@ -50517,7 +57643,7 @@
   .byte  102,68,15,213,197                   // pmullw        %xmm5,%xmm8
   .byte  102,15,111,229                      // movdqa        %xmm5,%xmm4
   .byte  102,15,253,228                      // paddw         %xmm4,%xmm4
-  .byte  102,15,111,61,250,40,0,0            // movdqa        0x28fa(%rip),%xmm7        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,15,111,61,62,41,0,0             // movdqa        0x293e(%rip),%xmm7        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,15,239,231                      // pxor          %xmm7,%xmm4
   .byte  102,65,15,101,229                   // pcmpgtw       %xmm13,%xmm4
   .byte  102,69,15,253,192                   // paddw         %xmm8,%xmm8
@@ -50577,27 +57703,27 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            293ac <_sk_load_8888_sse2_lowp+0x44>
+  .byte  119,41                              // ja            309e8 <_sk_load_8888_sse2_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 294a8 <_sk_load_8888_sse2_lowp+0x140>
+  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 30ae4 <_sk_load_8888_sse2_lowp+0x140>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  255,224                             // jmpq          *%rax
   .byte  243,65,15,16,28,144                 // movss         (%r8,%rdx,4),%xmm3
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,102                             // jmp           29412 <_sk_load_8888_sse2_lowp+0xaa>
+  .byte  235,102                             // jmp           30a4e <_sk_load_8888_sse2_lowp+0xaa>
   .byte  102,65,15,16,28,144                 // movupd        (%r8,%rdx,4),%xmm3
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,87                              // jmp           29412 <_sk_load_8888_sse2_lowp+0xaa>
+  .byte  235,87                              // jmp           30a4e <_sk_load_8888_sse2_lowp+0xaa>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,69,15,18,4,144                  // movlpd        (%r8,%rdx,4),%xmm8
   .byte  102,65,15,40,216                    // movapd        %xmm8,%xmm3
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
-  .byte  235,52                              // jmp           29412 <_sk_load_8888_sse2_lowp+0xaa>
+  .byte  235,52                              // jmp           30a4e <_sk_load_8888_sse2_lowp+0xaa>
   .byte  102,65,15,110,68,144,24             // movd          0x18(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  243,65,15,16,68,144,20              // movss         0x14(%r8,%rdx,4),%xmm0
@@ -50614,7 +57740,7 @@
   .byte  102,15,114,240,16                   // pslld         $0x10,%xmm0
   .byte  102,15,114,224,16                   // psrad         $0x10,%xmm0
   .byte  102,15,107,200                      // packssdw      %xmm0,%xmm1
-  .byte  102,68,15,111,13,228,31,0,0         // movdqa        0x1fe4(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,40,32,0,0          // movdqa        0x2028(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,193                      // movdqa        %xmm1,%xmm0
   .byte  102,65,15,219,193                   // pand          %xmm9,%xmm0
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
@@ -50667,27 +57793,27 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            29508 <_sk_load_8888_dst_sse2_lowp+0x44>
+  .byte  119,41                              // ja            30b44 <_sk_load_8888_dst_sse2_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 29604 <_sk_load_8888_dst_sse2_lowp+0x140>
+  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 30c40 <_sk_load_8888_dst_sse2_lowp+0x140>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  255,224                             // jmpq          *%rax
   .byte  243,65,15,16,60,144                 // movss         (%r8,%rdx,4),%xmm7
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,102                             // jmp           2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+  .byte  235,102                             // jmp           30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
   .byte  102,65,15,16,60,144                 // movupd        (%r8,%rdx,4),%xmm7
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,87                              // jmp           2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+  .byte  235,87                              // jmp           30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,69,15,18,4,144                  // movlpd        (%r8,%rdx,4),%xmm8
   .byte  102,65,15,40,248                    // movapd        %xmm8,%xmm7
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
-  .byte  235,52                              // jmp           2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+  .byte  235,52                              // jmp           30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  243,65,15,16,100,144,20             // movss         0x14(%r8,%rdx,4),%xmm4
@@ -50704,7 +57830,7 @@
   .byte  102,15,114,244,16                   // pslld         $0x10,%xmm4
   .byte  102,15,114,228,16                   // psrad         $0x10,%xmm4
   .byte  102,15,107,236                      // packssdw      %xmm4,%xmm5
-  .byte  102,68,15,111,13,136,30,0,0         // movdqa        0x1e88(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,204,30,0,0         // movdqa        0x1ecc(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,229                      // movdqa        %xmm5,%xmm4
   .byte  102,65,15,219,225                   // pand          %xmm9,%xmm4
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
@@ -50772,21 +57898,21 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,27                              // ja            296a3 <_sk_store_8888_sse2_lowp+0x83>
+  .byte  119,27                              // ja            30cdf <_sk_store_8888_sse2_lowp+0x83>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,98,0,0,0                  // lea           0x62(%rip),%r9        # 296f4 <_sk_store_8888_sse2_lowp+0xd4>
+  .byte  76,141,13,98,0,0,0                  // lea           0x62(%rip),%r9        # 30d30 <_sk_store_8888_sse2_lowp+0xd4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,126,12,144                // movd          %xmm9,(%r8,%rdx,4)
-  .byte  235,75                              // jmp           296ee <_sk_store_8888_sse2_lowp+0xce>
+  .byte  235,75                              // jmp           30d2a <_sk_store_8888_sse2_lowp+0xce>
   .byte  243,69,15,127,12,144                // movdqu        %xmm9,(%r8,%rdx,4)
   .byte  243,69,15,127,68,144,16             // movdqu        %xmm8,0x10(%r8,%rdx,4)
-  .byte  235,60                              // jmp           296ee <_sk_store_8888_sse2_lowp+0xce>
+  .byte  235,60                              // jmp           30d2a <_sk_store_8888_sse2_lowp+0xce>
   .byte  102,69,15,112,193,78                // pshufd        $0x4e,%xmm9,%xmm8
   .byte  102,69,15,126,68,144,8              // movd          %xmm8,0x8(%r8,%rdx,4)
   .byte  102,69,15,214,12,144                // movq          %xmm9,(%r8,%rdx,4)
-  .byte  235,39                              // jmp           296ee <_sk_store_8888_sse2_lowp+0xce>
+  .byte  235,39                              // jmp           30d2a <_sk_store_8888_sse2_lowp+0xce>
   .byte  102,69,15,112,208,78                // pshufd        $0x4e,%xmm8,%xmm10
   .byte  102,69,15,126,84,144,24             // movd          %xmm10,0x18(%r8,%rdx,4)
   .byte  102,69,15,112,208,229               // pshufd        $0xe5,%xmm8,%xmm10
@@ -50831,27 +57957,27 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            29754 <_sk_load_bgra_sse2_lowp+0x44>
+  .byte  119,41                              // ja            30d90 <_sk_load_bgra_sse2_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 29850 <_sk_load_bgra_sse2_lowp+0x140>
+  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 30e8c <_sk_load_bgra_sse2_lowp+0x140>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  255,224                             // jmpq          *%rax
   .byte  243,65,15,16,28,144                 // movss         (%r8,%rdx,4),%xmm3
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,102                             // jmp           297ba <_sk_load_bgra_sse2_lowp+0xaa>
+  .byte  235,102                             // jmp           30df6 <_sk_load_bgra_sse2_lowp+0xaa>
   .byte  102,65,15,16,28,144                 // movupd        (%r8,%rdx,4),%xmm3
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,87                              // jmp           297ba <_sk_load_bgra_sse2_lowp+0xaa>
+  .byte  235,87                              // jmp           30df6 <_sk_load_bgra_sse2_lowp+0xaa>
   .byte  102,65,15,110,68,144,8              // movd          0x8(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,69,15,18,4,144                  // movlpd        (%r8,%rdx,4),%xmm8
   .byte  102,65,15,40,216                    // movapd        %xmm8,%xmm3
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
-  .byte  235,52                              // jmp           297ba <_sk_load_bgra_sse2_lowp+0xaa>
+  .byte  235,52                              // jmp           30df6 <_sk_load_bgra_sse2_lowp+0xaa>
   .byte  102,65,15,110,68,144,24             // movd          0x18(%r8,%rdx,4),%xmm0
   .byte  102,68,15,112,192,69                // pshufd        $0x45,%xmm0,%xmm8
   .byte  243,65,15,16,68,144,20              // movss         0x14(%r8,%rdx,4),%xmm0
@@ -50868,7 +57994,7 @@
   .byte  102,15,114,240,16                   // pslld         $0x10,%xmm0
   .byte  102,15,114,224,16                   // psrad         $0x10,%xmm0
   .byte  102,15,107,200                      // packssdw      %xmm0,%xmm1
-  .byte  102,68,15,111,13,60,28,0,0          // movdqa        0x1c3c(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,128,28,0,0         // movdqa        0x1c80(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,209                      // movdqa        %xmm1,%xmm2
   .byte  102,65,15,219,209                   // pand          %xmm9,%xmm2
   .byte  102,15,113,209,8                    // psrlw         $0x8,%xmm1
@@ -50921,27 +58047,27 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,41                              // ja            298b0 <_sk_load_bgra_dst_sse2_lowp+0x44>
+  .byte  119,41                              // ja            30eec <_sk_load_bgra_dst_sse2_lowp+0x44>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 299ac <_sk_load_bgra_dst_sse2_lowp+0x140>
+  .byte  76,141,13,22,1,0,0                  // lea           0x116(%rip),%r9        # 30fe8 <_sk_load_bgra_dst_sse2_lowp+0x140>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  255,224                             // jmpq          *%rax
   .byte  243,65,15,16,60,144                 // movss         (%r8,%rdx,4),%xmm7
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,102                             // jmp           29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+  .byte  235,102                             // jmp           30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
   .byte  102,65,15,16,60,144                 // movupd        (%r8,%rdx,4),%xmm7
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,87                              // jmp           29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+  .byte  235,87                              // jmp           30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,69,15,18,4,144                  // movlpd        (%r8,%rdx,4),%xmm8
   .byte  102,65,15,40,248                    // movapd        %xmm8,%xmm7
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
-  .byte  235,52                              // jmp           29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+  .byte  235,52                              // jmp           30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  243,65,15,16,100,144,20             // movss         0x14(%r8,%rdx,4),%xmm4
@@ -50958,7 +58084,7 @@
   .byte  102,15,114,244,16                   // pslld         $0x10,%xmm4
   .byte  102,15,114,228,16                   // psrad         $0x10,%xmm4
   .byte  102,15,107,236                      // packssdw      %xmm4,%xmm5
-  .byte  102,68,15,111,13,224,26,0,0         // movdqa        0x1ae0(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,36,27,0,0          // movdqa        0x1b24(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,245                      // movdqa        %xmm5,%xmm6
   .byte  102,65,15,219,241                   // pand          %xmm9,%xmm6
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
@@ -51026,21 +58152,21 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,27                              // ja            29a4b <_sk_store_bgra_sse2_lowp+0x83>
+  .byte  119,27                              // ja            31087 <_sk_store_bgra_sse2_lowp+0x83>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,98,0,0,0                  // lea           0x62(%rip),%r9        # 29a9c <_sk_store_bgra_sse2_lowp+0xd4>
+  .byte  76,141,13,98,0,0,0                  // lea           0x62(%rip),%r9        # 310d8 <_sk_store_bgra_sse2_lowp+0xd4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,126,12,144                // movd          %xmm9,(%r8,%rdx,4)
-  .byte  235,75                              // jmp           29a96 <_sk_store_bgra_sse2_lowp+0xce>
+  .byte  235,75                              // jmp           310d2 <_sk_store_bgra_sse2_lowp+0xce>
   .byte  243,69,15,127,12,144                // movdqu        %xmm9,(%r8,%rdx,4)
   .byte  243,69,15,127,68,144,16             // movdqu        %xmm8,0x10(%r8,%rdx,4)
-  .byte  235,60                              // jmp           29a96 <_sk_store_bgra_sse2_lowp+0xce>
+  .byte  235,60                              // jmp           310d2 <_sk_store_bgra_sse2_lowp+0xce>
   .byte  102,69,15,112,193,78                // pshufd        $0x4e,%xmm9,%xmm8
   .byte  102,69,15,126,68,144,8              // movd          %xmm8,0x8(%r8,%rdx,4)
   .byte  102,69,15,214,12,144                // movq          %xmm9,(%r8,%rdx,4)
-  .byte  235,39                              // jmp           29a96 <_sk_store_bgra_sse2_lowp+0xce>
+  .byte  235,39                              // jmp           310d2 <_sk_store_bgra_sse2_lowp+0xce>
   .byte  102,69,15,112,208,78                // pshufd        $0x4e,%xmm8,%xmm10
   .byte  102,69,15,126,84,144,24             // movd          %xmm10,0x18(%r8,%rdx,4)
   .byte  102,69,15,112,208,229               // pshufd        $0xe5,%xmm8,%xmm10
@@ -51085,23 +58211,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            29af4 <_sk_load_565_sse2_lowp+0x3c>
+  .byte  119,34                              // ja            31130 <_sk_load_565_sse2_lowp+0x3c>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,188,0,0,0                 // lea           0xbc(%rip),%r9        # 29b9c <_sk_load_565_sse2_lowp+0xe4>
+  .byte  76,141,13,188,0,0,0                 // lea           0xbc(%rip),%r9        # 311d8 <_sk_load_565_sse2_lowp+0xe4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,66                              // jmp           29b36 <_sk_load_565_sse2_lowp+0x7e>
+  .byte  235,66                              // jmp           31172 <_sk_load_565_sse2_lowp+0x7e>
   .byte  243,65,15,111,4,80                  // movdqu        (%r8,%rdx,2),%xmm0
-  .byte  235,58                              // jmp           29b36 <_sk_load_565_sse2_lowp+0x7e>
+  .byte  235,58                              // jmp           31172 <_sk_load_565_sse2_lowp+0x7e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,4,2             // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm0
   .byte  243,65,15,16,12,80                  // movss         (%r8,%rdx,2),%xmm1
   .byte  243,15,16,193                       // movss         %xmm1,%xmm0
-  .byte  235,34                              // jmp           29b36 <_sk_load_565_sse2_lowp+0x7e>
+  .byte  235,34                              // jmp           31172 <_sk_load_565_sse2_lowp+0x7e>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,65,15,196,68,80,12,6            // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm0
   .byte  102,65,15,196,68,80,10,5            // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51109,11 +58235,11 @@
   .byte  102,65,15,18,4,80                   // movlpd        (%r8,%rdx,2),%xmm0
   .byte  102,15,111,216                      // movdqa        %xmm0,%xmm3
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
-  .byte  102,15,219,29,137,32,0,0            // pand          0x2089(%rip),%xmm3        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,29,205,32,0,0            // pand          0x20cd(%rip),%xmm3        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,113,209,5                    // psrlw         $0x5,%xmm1
-  .byte  102,15,219,13,136,32,0,0            // pand          0x2088(%rip),%xmm1        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,15,111,21,144,32,0,0            // movdqa        0x2090(%rip),%xmm2        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,15,219,13,204,32,0,0            // pand          0x20cc(%rip),%xmm1        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,15,111,21,212,32,0,0            // movdqa        0x20d4(%rip),%xmm2        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,15,219,208                      // pand          %xmm0,%xmm2
   .byte  102,15,113,208,13                   // psrlw         $0xd,%xmm0
   .byte  102,15,235,195                      // por           %xmm3,%xmm0
@@ -51126,7 +58252,7 @@
   .byte  102,15,113,210,2                    // psrlw         $0x2,%xmm2
   .byte  102,15,235,211                      // por           %xmm3,%xmm2
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,134,24,0,0                 // movaps        0x1886(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,202,24,0,0                 // movaps        0x18ca(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  255,224                             // jmpq          *%rax
   .byte  77,255                              // rex.WRB       (bad)
   .byte  255                                 // (bad)
@@ -51152,23 +58278,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            29bf4 <_sk_load_565_dst_sse2_lowp+0x3c>
+  .byte  119,34                              // ja            31230 <_sk_load_565_dst_sse2_lowp+0x3c>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,188,0,0,0                 // lea           0xbc(%rip),%r9        # 29c9c <_sk_load_565_dst_sse2_lowp+0xe4>
+  .byte  76,141,13,188,0,0,0                 // lea           0xbc(%rip),%r9        # 312d8 <_sk_load_565_dst_sse2_lowp+0xe4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,66                              // jmp           29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+  .byte  235,66                              // jmp           31272 <_sk_load_565_dst_sse2_lowp+0x7e>
   .byte  243,65,15,111,36,80                 // movdqu        (%r8,%rdx,2),%xmm4
-  .byte  235,58                              // jmp           29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+  .byte  235,58                              // jmp           31272 <_sk_load_565_dst_sse2_lowp+0x7e>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,65,15,196,100,80,4,2            // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm4
   .byte  243,65,15,16,44,80                  // movss         (%r8,%rdx,2),%xmm5
   .byte  243,15,16,229                       // movss         %xmm5,%xmm4
-  .byte  235,34                              // jmp           29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+  .byte  235,34                              // jmp           31272 <_sk_load_565_dst_sse2_lowp+0x7e>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,65,15,196,100,80,12,6           // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm4
   .byte  102,65,15,196,100,80,10,5           // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -51176,11 +58302,11 @@
   .byte  102,65,15,18,36,80                  // movlpd        (%r8,%rdx,2),%xmm4
   .byte  102,15,111,252                      // movdqa        %xmm4,%xmm7
   .byte  102,15,113,215,8                    // psrlw         $0x8,%xmm7
-  .byte  102,15,219,61,137,31,0,0            // pand          0x1f89(%rip),%xmm7        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,15,219,61,205,31,0,0            // pand          0x1fcd(%rip),%xmm7        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,15,113,213,5                    // psrlw         $0x5,%xmm5
-  .byte  102,15,219,45,136,31,0,0            // pand          0x1f88(%rip),%xmm5        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,15,111,53,144,31,0,0            // movdqa        0x1f90(%rip),%xmm6        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,15,219,45,204,31,0,0            // pand          0x1fcc(%rip),%xmm5        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,15,111,53,212,31,0,0            // movdqa        0x1fd4(%rip),%xmm6        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,15,219,244                      // pand          %xmm4,%xmm6
   .byte  102,15,113,212,13                   // psrlw         $0xd,%xmm4
   .byte  102,15,235,231                      // por           %xmm7,%xmm4
@@ -51193,7 +58319,7 @@
   .byte  102,15,113,214,2                    // psrlw         $0x2,%xmm6
   .byte  102,15,235,247                      // por           %xmm7,%xmm6
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,134,23,0,0                 // movaps        0x1786(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,61,202,23,0,0                 // movaps        0x17ca(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  255,224                             // jmpq          *%rax
   .byte  77,255                              // rex.WRB       (bad)
   .byte  255                                 // (bad)
@@ -51217,10 +58343,10 @@
   .byte  76,3,0                              // add           (%rax),%r8
   .byte  102,68,15,111,192                   // movdqa        %xmm0,%xmm8
   .byte  102,65,15,113,240,8                 // psllw         $0x8,%xmm8
-  .byte  102,68,15,219,5,36,31,0,0           // pand          0x1f24(%rip),%xmm8        # 2bc00 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+  .byte  102,68,15,219,5,104,31,0,0          // pand          0x1f68(%rip),%xmm8        # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
   .byte  102,68,15,111,201                   // movdqa        %xmm1,%xmm9
   .byte  102,65,15,113,241,3                 // psllw         $0x3,%xmm9
-  .byte  102,68,15,219,13,32,31,0,0          // pand          0x1f20(%rip),%xmm9        # 2bc10 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+  .byte  102,68,15,219,13,100,31,0,0         // pand          0x1f64(%rip),%xmm9        # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
   .byte  102,69,15,235,200                   // por           %xmm8,%xmm9
   .byte  102,68,15,111,194                   // movdqa        %xmm2,%xmm8
   .byte  102,65,15,113,208,3                 // psrlw         $0x3,%xmm8
@@ -51229,21 +58355,21 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,31                              // ja            29d2e <_sk_store_565_sse2_lowp+0x76>
+  .byte  119,31                              // ja            3136a <_sk_store_565_sse2_lowp+0x76>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,95,0,0,0                  // lea           0x5f(%rip),%r9        # 29d78 <_sk_store_565_sse2_lowp+0xc0>
+  .byte  76,141,13,95,0,0,0                  // lea           0x5f(%rip),%r9        # 313b4 <_sk_store_565_sse2_lowp+0xc0>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  102,65,137,4,80                     // mov           %ax,(%r8,%rdx,2)
-  .byte  235,70                              // jmp           29d74 <_sk_store_565_sse2_lowp+0xbc>
+  .byte  235,70                              // jmp           313b0 <_sk_store_565_sse2_lowp+0xbc>
   .byte  243,69,15,127,4,80                  // movdqu        %xmm8,(%r8,%rdx,2)
-  .byte  235,62                              // jmp           29d74 <_sk_store_565_sse2_lowp+0xbc>
+  .byte  235,62                              // jmp           313b0 <_sk_store_565_sse2_lowp+0xbc>
   .byte  102,65,15,197,192,2                 // pextrw        $0x2,%xmm8,%eax
   .byte  102,65,137,68,80,4                  // mov           %ax,0x4(%r8,%rdx,2)
   .byte  102,69,15,126,4,80                  // movd          %xmm8,(%r8,%rdx,2)
-  .byte  235,42                              // jmp           29d74 <_sk_store_565_sse2_lowp+0xbc>
+  .byte  235,42                              // jmp           313b0 <_sk_store_565_sse2_lowp+0xbc>
   .byte  102,65,15,197,192,6                 // pextrw        $0x6,%xmm8,%eax
   .byte  102,65,137,68,80,12                 // mov           %ax,0xc(%r8,%rdx,2)
   .byte  102,65,15,197,192,5                 // pextrw        $0x5,%xmm8,%eax
@@ -51287,19 +58413,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            29dcd <_sk_load_a8_sse2_lowp+0x39>
+  .byte  119,34                              // ja            31409 <_sk_load_a8_sse2_lowp+0x39>
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 29e44 <_sk_load_a8_sse2_lowp+0xb0>
+  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 31480 <_sk_load_a8_sse2_lowp+0xb0>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,216                      // movd          %eax,%xmm3
-  .byte  235,97                              // jmp           29e2e <_sk_load_a8_sse2_lowp+0x9a>
+  .byte  235,97                              // jmp           3146a <_sk_load_a8_sse2_lowp+0x9a>
   .byte  243,65,15,126,28,16                 // movq          (%r8,%rdx,1),%xmm3
   .byte  102,15,96,216                       // punpcklbw     %xmm0,%xmm3
-  .byte  235,85                              // jmp           29e2e <_sk_load_a8_sse2_lowp+0x9a>
+  .byte  235,85                              // jmp           3146a <_sk_load_a8_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  102,15,196,216,2                    // pinsrw        $0x2,%eax,%xmm3
@@ -51307,7 +58433,7 @@
   .byte  102,15,110,192                      // movd          %eax,%xmm0
   .byte  102,15,96,192                       // punpcklbw     %xmm0,%xmm0
   .byte  243,15,16,216                       // movss         %xmm0,%xmm3
-  .byte  235,51                              // jmp           29e2e <_sk_load_a8_sse2_lowp+0x9a>
+  .byte  235,51                              // jmp           3146a <_sk_load_a8_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,219                      // pxor          %xmm3,%xmm3
   .byte  102,15,196,216,6                    // pinsrw        $0x6,%eax,%xmm3
@@ -51318,14 +58444,14 @@
   .byte  102,65,15,110,4,16                  // movd          (%r8,%rdx,1),%xmm0
   .byte  102,15,96,192                       // punpcklbw     %xmm0,%xmm0
   .byte  242,15,16,216                       // movsd         %xmm0,%xmm3
-  .byte  102,15,219,29,234,21,0,0            // pand          0x15ea(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,29,46,22,0,0             // pand          0x162e(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,192                           // xorps         %xmm0,%xmm0
   .byte  15,87,201                           // xorps         %xmm1,%xmm1
   .byte  15,87,210                           // xorps         %xmm2,%xmm2
   .byte  255,224                             // jmpq          *%rax
   .byte  144                                 // nop
-  .byte  126,255                             // jle           29e45 <_sk_load_a8_sse2_lowp+0xb1>
+  .byte  126,255                             // jle           31481 <_sk_load_a8_sse2_lowp+0xb1>
   .byte  255                                 // (bad)
   .byte  255,164,255,255,255,149,255         // jmpq          *-0x6a0001(%rdi,%rdi,8)
   .byte  255                                 // (bad)
@@ -51355,19 +58481,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            29e99 <_sk_load_a8_dst_sse2_lowp+0x39>
+  .byte  119,34                              // ja            314d5 <_sk_load_a8_dst_sse2_lowp+0x39>
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 29f10 <_sk_load_a8_dst_sse2_lowp+0xb0>
+  .byte  76,141,13,139,0,0,0                 // lea           0x8b(%rip),%r9        # 3154c <_sk_load_a8_dst_sse2_lowp+0xb0>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,248                      // movd          %eax,%xmm7
-  .byte  235,97                              // jmp           29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+  .byte  235,97                              // jmp           31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
   .byte  243,65,15,126,60,16                 // movq          (%r8,%rdx,1),%xmm7
   .byte  102,15,96,248                       // punpcklbw     %xmm0,%xmm7
-  .byte  235,85                              // jmp           29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+  .byte  235,85                              // jmp           31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  102,15,196,248,2                    // pinsrw        $0x2,%eax,%xmm7
@@ -51375,7 +58501,7 @@
   .byte  102,15,110,224                      // movd          %eax,%xmm4
   .byte  102,15,96,224                       // punpcklbw     %xmm0,%xmm4
   .byte  243,15,16,252                       // movss         %xmm4,%xmm7
-  .byte  235,51                              // jmp           29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+  .byte  235,51                              // jmp           31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,255                      // pxor          %xmm7,%xmm7
   .byte  102,15,196,248,6                    // pinsrw        $0x6,%eax,%xmm7
@@ -51386,14 +58512,14 @@
   .byte  102,65,15,110,36,16                 // movd          (%r8,%rdx,1),%xmm4
   .byte  102,15,96,224                       // punpcklbw     %xmm0,%xmm4
   .byte  242,15,16,252                       // movsd         %xmm4,%xmm7
-  .byte  102,15,219,61,30,21,0,0             // pand          0x151e(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,61,98,21,0,0             // pand          0x1562(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  15,87,228                           // xorps         %xmm4,%xmm4
   .byte  15,87,237                           // xorps         %xmm5,%xmm5
   .byte  15,87,246                           // xorps         %xmm6,%xmm6
   .byte  255,224                             // jmpq          *%rax
   .byte  144                                 // nop
-  .byte  126,255                             // jle           29f11 <_sk_load_a8_dst_sse2_lowp+0xb1>
+  .byte  126,255                             // jle           3154d <_sk_load_a8_dst_sse2_lowp+0xb1>
   .byte  255                                 // (bad)
   .byte  255,164,255,255,255,149,255         // jmpq          *-0x6a0001(%rdi,%rdi,8)
   .byte  255                                 // (bad)
@@ -51423,42 +58549,42 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,29                              // ja            29f60 <_sk_store_a8_sse2_lowp+0x34>
+  .byte  119,29                              // ja            3159c <_sk_store_a8_sse2_lowp+0x34>
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 29fe0 <_sk_store_a8_sse2_lowp+0xb4>
+  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 3161c <_sk_store_a8_sse2_lowp+0xb4>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,15,126,216                      // movd          %xmm3,%eax
   .byte  65,136,4,16                         // mov           %al,(%r8,%rdx,1)
-  .byte  235,123                             // jmp           29fdb <_sk_store_a8_sse2_lowp+0xaf>
-  .byte  102,68,15,111,5,183,20,0,0          // movdqa        0x14b7(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  235,123                             // jmp           31617 <_sk_store_a8_sse2_lowp+0xaf>
+  .byte  102,68,15,111,5,251,20,0,0          // movdqa        0x14fb(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,219,195                   // pand          %xmm3,%xmm8
   .byte  102,69,15,103,192                   // packuswb      %xmm8,%xmm8
   .byte  102,69,15,214,4,16                  // movq          %xmm8,(%r8,%rdx,1)
-  .byte  235,96                              // jmp           29fdb <_sk_store_a8_sse2_lowp+0xaf>
+  .byte  235,96                              // jmp           31617 <_sk_store_a8_sse2_lowp+0xaf>
   .byte  102,15,197,195,2                    // pextrw        $0x2,%xmm3,%eax
   .byte  65,136,68,16,2                      // mov           %al,0x2(%r8,%rdx,1)
-  .byte  102,68,15,111,5,146,20,0,0          // movdqa        0x1492(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,214,20,0,0          // movdqa        0x14d6(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,219,195                   // pand          %xmm3,%xmm8
   .byte  102,69,15,103,192                   // packuswb      %xmm8,%xmm8
   .byte  102,68,15,126,192                   // movd          %xmm8,%eax
   .byte  102,65,137,4,16                     // mov           %ax,(%r8,%rdx,1)
-  .byte  235,55                              // jmp           29fdb <_sk_store_a8_sse2_lowp+0xaf>
+  .byte  235,55                              // jmp           31617 <_sk_store_a8_sse2_lowp+0xaf>
   .byte  102,15,197,195,6                    // pextrw        $0x6,%xmm3,%eax
   .byte  65,136,68,16,6                      // mov           %al,0x6(%r8,%rdx,1)
   .byte  102,15,197,195,5                    // pextrw        $0x5,%xmm3,%eax
   .byte  65,136,68,16,5                      // mov           %al,0x5(%r8,%rdx,1)
   .byte  102,15,197,195,4                    // pextrw        $0x4,%xmm3,%eax
   .byte  65,136,68,16,4                      // mov           %al,0x4(%r8,%rdx,1)
-  .byte  102,68,15,111,5,85,20,0,0           // movdqa        0x1455(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,153,20,0,0          // movdqa        0x1499(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,68,15,219,195                   // pand          %xmm3,%xmm8
   .byte  102,69,15,103,192                   // packuswb      %xmm8,%xmm8
   .byte  102,69,15,126,4,16                  // movd          %xmm8,(%r8,%rdx,1)
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  144                                 // nop
-  .byte  118,255                             // jbe           29fe1 <_sk_store_a8_sse2_lowp+0xb5>
+  .byte  118,255                             // jbe           3161d <_sk_store_a8_sse2_lowp+0xb5>
   .byte  255                                 // (bad)
   .byte  255,165,255,255,255,155             // jmpq          *-0x64000001(%rbp)
   .byte  255                                 // (bad)
@@ -51489,19 +58615,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            2a035 <_sk_load_g8_sse2_lowp+0x39>
+  .byte  119,34                              // ja            31671 <_sk_load_g8_sse2_lowp+0x39>
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 2a0b4 <_sk_load_g8_sse2_lowp+0xb8>
+  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 316f0 <_sk_load_g8_sse2_lowp+0xb8>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,192                      // movd          %eax,%xmm0
-  .byte  235,97                              // jmp           2a096 <_sk_load_g8_sse2_lowp+0x9a>
+  .byte  235,97                              // jmp           316d2 <_sk_load_g8_sse2_lowp+0x9a>
   .byte  243,65,15,126,4,16                  // movq          (%r8,%rdx,1),%xmm0
   .byte  102,15,96,192                       // punpcklbw     %xmm0,%xmm0
-  .byte  235,85                              // jmp           2a096 <_sk_load_g8_sse2_lowp+0x9a>
+  .byte  235,85                              // jmp           316d2 <_sk_load_g8_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,196,192,2                    // pinsrw        $0x2,%eax,%xmm0
@@ -51509,7 +58635,7 @@
   .byte  102,15,110,200                      // movd          %eax,%xmm1
   .byte  102,15,96,200                       // punpcklbw     %xmm0,%xmm1
   .byte  243,15,16,193                       // movss         %xmm1,%xmm0
-  .byte  235,51                              // jmp           2a096 <_sk_load_g8_sse2_lowp+0x9a>
+  .byte  235,51                              // jmp           316d2 <_sk_load_g8_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,192                      // pxor          %xmm0,%xmm0
   .byte  102,15,196,192,6                    // pinsrw        $0x6,%eax,%xmm0
@@ -51520,14 +58646,14 @@
   .byte  102,65,15,110,12,16                 // movd          (%r8,%rdx,1),%xmm1
   .byte  102,15,96,200                       // punpcklbw     %xmm0,%xmm1
   .byte  242,15,16,193                       // movsd         %xmm1,%xmm0
-  .byte  102,15,219,5,130,19,0,0             // pand          0x1382(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,5,198,19,0,0             // pand          0x13c6(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,29,121,19,0,0                 // movaps        0x1379(%rip),%xmm3        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,29,189,19,0,0                 // movaps        0x13bd(%rip),%xmm3        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,200                      // movdqa        %xmm0,%xmm1
   .byte  102,15,111,208                      // movdqa        %xmm0,%xmm2
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  118,255                             // jbe           2a0b5 <_sk_load_g8_sse2_lowp+0xb9>
+  .byte  118,255                             // jbe           316f1 <_sk_load_g8_sse2_lowp+0xb9>
   .byte  255                                 // (bad)
   .byte  255,156,255,255,255,141,255         // lcall         *-0x720001(%rdi,%rdi,8)
   .byte  255                                 // (bad)
@@ -51555,19 +58681,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            2a109 <_sk_load_g8_dst_sse2_lowp+0x39>
+  .byte  119,34                              // ja            31745 <_sk_load_g8_dst_sse2_lowp+0x39>
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 2a188 <_sk_load_g8_dst_sse2_lowp+0xb8>
+  .byte  76,141,13,147,0,0,0                 // lea           0x93(%rip),%r9        # 317c4 <_sk_load_g8_dst_sse2_lowp+0xb8>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,15,110,224                      // movd          %eax,%xmm4
-  .byte  235,97                              // jmp           2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+  .byte  235,97                              // jmp           317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
   .byte  243,65,15,126,36,16                 // movq          (%r8,%rdx,1),%xmm4
   .byte  102,15,96,224                       // punpcklbw     %xmm0,%xmm4
-  .byte  235,85                              // jmp           2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+  .byte  235,85                              // jmp           317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,15,196,224,2                    // pinsrw        $0x2,%eax,%xmm4
@@ -51575,7 +58701,7 @@
   .byte  102,15,110,232                      // movd          %eax,%xmm5
   .byte  102,15,96,232                       // punpcklbw     %xmm0,%xmm5
   .byte  243,15,16,229                       // movss         %xmm5,%xmm4
-  .byte  235,51                              // jmp           2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+  .byte  235,51                              // jmp           317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,15,196,224,6                    // pinsrw        $0x6,%eax,%xmm4
@@ -51586,14 +58712,14 @@
   .byte  102,65,15,110,44,16                 // movd          (%r8,%rdx,1),%xmm5
   .byte  102,15,96,232                       // punpcklbw     %xmm0,%xmm5
   .byte  242,15,16,229                       // movsd         %xmm5,%xmm4
-  .byte  102,15,219,37,174,18,0,0            // pand          0x12ae(%rip),%xmm4        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,219,37,242,18,0,0            // pand          0x12f2(%rip),%xmm4        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  72,173                              // lods          %ds:(%rsi),%rax
-  .byte  15,40,61,165,18,0,0                 // movaps        0x12a5(%rip),%xmm7        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  15,40,61,233,18,0,0                 // movaps        0x12e9(%rip),%xmm7        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,236                      // movdqa        %xmm4,%xmm5
   .byte  102,15,111,244                      // movdqa        %xmm4,%xmm6
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  118,255                             // jbe           2a189 <_sk_load_g8_dst_sse2_lowp+0xb9>
+  .byte  118,255                             // jbe           317c5 <_sk_load_g8_dst_sse2_lowp+0xb9>
   .byte  255                                 // (bad)
   .byte  255,156,255,255,255,141,255         // lcall         *-0x720001(%rdi,%rdi,8)
   .byte  255                                 // (bad)
@@ -51614,10 +58740,10 @@
 FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
 _sk_luminance_to_alpha_sse2_lowp:
   .byte  102,15,111,218                      // movdqa        %xmm2,%xmm3
-  .byte  102,15,213,5,112,26,0,0             // pmullw        0x1a70(%rip),%xmm0        # 2bc20 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
-  .byte  102,15,213,13,120,26,0,0            // pmullw        0x1a78(%rip),%xmm1        # 2bc30 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+  .byte  102,15,213,5,180,26,0,0             // pmullw        0x1ab4(%rip),%xmm0        # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+  .byte  102,15,213,13,188,26,0,0            // pmullw        0x1abc(%rip),%xmm1        # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
   .byte  102,15,253,200                      // paddw         %xmm0,%xmm1
-  .byte  102,15,213,29,124,26,0,0            // pmullw        0x1a7c(%rip),%xmm3        # 2bc40 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+  .byte  102,15,213,29,192,26,0,0            // pmullw        0x1ac0(%rip),%xmm3        # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
   .byte  102,15,253,217                      // paddw         %xmm1,%xmm3
   .byte  102,15,113,211,8                    // psrlw         $0x8,%xmm3
   .byte  72,173                              // lods          %ds:(%rsi),%rax
@@ -51632,14 +58758,14 @@
 _sk_scale_1_float_sse2_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  243,68,15,16,0                      // movss         (%rax),%xmm8
-  .byte  243,68,15,89,5,199,16,0,0           // mulss         0x10c7(%rip),%xmm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  243,68,15,88,5,142,16,0,0           // addss         0x108e(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,5,11,17,0,0            // mulss         0x110b(%rip),%xmm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  243,68,15,88,5,210,16,0,0           // addss         0x10d2(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,44,192                    // cvttss2si     %xmm8,%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  242,69,15,112,192,0                 // pshuflw       $0x0,%xmm8,%xmm8
   .byte  102,69,15,112,192,80                // pshufd        $0x50,%xmm8,%xmm8
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
-  .byte  102,68,15,111,13,6,18,0,0           // movdqa        0x1206(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,74,18,0,0          // movdqa        0x124a(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -51660,13 +58786,13 @@
 _sk_lerp_1_float_sse2_lowp:
   .byte  72,173                              // lods          %ds:(%rsi),%rax
   .byte  243,68,15,16,0                      // movss         (%rax),%xmm8
-  .byte  243,68,15,89,5,79,16,0,0            // mulss         0x104f(%rip),%xmm8        # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
-  .byte  243,68,15,88,5,22,16,0,0            // addss         0x1016(%rip),%xmm8        # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+  .byte  243,68,15,89,5,147,16,0,0           // mulss         0x1093(%rip),%xmm8        # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+  .byte  243,68,15,88,5,90,16,0,0            // addss         0x105a(%rip),%xmm8        # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
   .byte  243,65,15,44,192                    // cvttss2si     %xmm8,%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
   .byte  242,69,15,112,192,0                 // pshuflw       $0x0,%xmm8,%xmm8
   .byte  102,69,15,112,192,80                // pshufd        $0x50,%xmm8,%xmm8
-  .byte  102,68,15,111,13,147,17,0,0         // movdqa        0x1193(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,215,17,0,0         // movdqa        0x11d7(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -51706,19 +58832,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,36                              // ja            2a344 <_sk_scale_u8_sse2_lowp+0x3b>
+  .byte  119,36                              // ja            31980 <_sk_scale_u8_sse2_lowp+0x3b>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,221,0,0,0                 // lea           0xdd(%rip),%r9        # 2a40c <_sk_scale_u8_sse2_lowp+0x103>
+  .byte  76,141,13,221,0,0,0                 // lea           0xdd(%rip),%r9        # 31a48 <_sk_scale_u8_sse2_lowp+0x103>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  235,109                             // jmp           2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+  .byte  235,109                             // jmp           319ed <_sk_scale_u8_sse2_lowp+0xa8>
   .byte  243,69,15,126,4,16                  // movq          (%r8,%rdx,1),%xmm8
   .byte  102,68,15,96,192                    // punpcklbw     %xmm0,%xmm8
-  .byte  235,96                              // jmp           2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+  .byte  235,96                              // jmp           319ed <_sk_scale_u8_sse2_lowp+0xa8>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  102,68,15,196,192,2                 // pinsrw        $0x2,%eax,%xmm8
@@ -51726,7 +58852,7 @@
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  243,69,15,16,193                    // movss         %xmm9,%xmm8
-  .byte  235,57                              // jmp           2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+  .byte  235,57                              // jmp           319ed <_sk_scale_u8_sse2_lowp+0xa8>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  102,68,15,196,192,6                 // pinsrw        $0x6,%eax,%xmm8
@@ -51737,9 +58863,9 @@
   .byte  102,69,15,110,12,16                 // movd          (%r8,%rdx,1),%xmm9
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  242,69,15,16,193                    // movsd         %xmm9,%xmm8
-  .byte  102,68,15,219,5,102,16,0,0          // pand          0x1066(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,219,5,170,16,0,0          // pand          0x10aa(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,213,192                   // pmullw        %xmm8,%xmm0
-  .byte  102,68,15,111,13,88,16,0,0          // movdqa        0x1058(%rip),%xmm9        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,13,156,16,0,0         // movdqa        0x109c(%rip),%xmm9        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,253,193                   // paddw         %xmm9,%xmm0
   .byte  102,15,113,208,8                    // psrlw         $0x8,%xmm0
   .byte  102,65,15,213,200                   // pmullw        %xmm8,%xmm1
@@ -51765,7 +58891,7 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  125,255                             // jge           2a421 <_sk_scale_u8_sse2_lowp+0x118>
+  .byte  125,255                             // jge           31a5d <_sk_scale_u8_sse2_lowp+0x118>
   .byte  255                                 // (bad)
   .byte  255,108,255,255                     // ljmp          *-0x1(%rdi,%rdi,8)
   .byte  255                                 // .byte         0xff
@@ -51782,19 +58908,19 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,36                              // ja            2a463 <_sk_lerp_u8_sse2_lowp+0x3b>
+  .byte  119,36                              // ja            31a9f <_sk_lerp_u8_sse2_lowp+0x3b>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,30,1,0,0                  // lea           0x11e(%rip),%r9        # 2a56c <_sk_lerp_u8_sse2_lowp+0x144>
+  .byte  76,141,13,30,1,0,0                  // lea           0x11e(%rip),%r9        # 31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,182,4,16                      // movzbl        (%r8,%rdx,1),%eax
   .byte  102,68,15,110,192                   // movd          %eax,%xmm8
-  .byte  235,109                             // jmp           2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+  .byte  235,109                             // jmp           31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
   .byte  243,69,15,126,4,16                  // movq          (%r8,%rdx,1),%xmm8
   .byte  102,68,15,96,192                    // punpcklbw     %xmm0,%xmm8
-  .byte  235,96                              // jmp           2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+  .byte  235,96                              // jmp           31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
   .byte  65,15,182,68,16,2                   // movzbl        0x2(%r8,%rdx,1),%eax
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  102,68,15,196,192,2                 // pinsrw        $0x2,%eax,%xmm8
@@ -51802,7 +58928,7 @@
   .byte  102,68,15,110,200                   // movd          %eax,%xmm9
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  243,69,15,16,193                    // movss         %xmm9,%xmm8
-  .byte  235,57                              // jmp           2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+  .byte  235,57                              // jmp           31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
   .byte  65,15,182,68,16,6                   // movzbl        0x6(%r8,%rdx,1),%eax
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
   .byte  102,68,15,196,192,6                 // pinsrw        $0x6,%eax,%xmm8
@@ -51813,8 +58939,8 @@
   .byte  102,69,15,110,12,16                 // movd          (%r8,%rdx,1),%xmm9
   .byte  102,68,15,96,200                    // punpcklbw     %xmm0,%xmm9
   .byte  242,69,15,16,193                    // movsd         %xmm9,%xmm8
-  .byte  102,68,15,219,5,71,15,0,0           // pand          0xf47(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
-  .byte  102,68,15,111,21,62,15,0,0          // movdqa        0xf3e(%rip),%xmm10        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,219,5,139,15,0,0          // pand          0xf8b(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+  .byte  102,68,15,111,21,130,15,0,0         // movdqa        0xf82(%rip),%xmm10        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,69,15,111,200                   // movdqa        %xmm8,%xmm9
   .byte  102,69,15,239,202                   // pxor          %xmm10,%xmm9
   .byte  102,69,15,111,217                   // movdqa        %xmm9,%xmm11
@@ -51844,9 +58970,9 @@
   .byte  102,65,15,111,216                   // movdqa        %xmm8,%xmm3
   .byte  255,224                             // jmpq          *%rax
   .byte  15,31,0                             // nopl          (%rax)
-  .byte  235,254                             // jmp           2a56c <_sk_lerp_u8_sse2_lowp+0x144>
+  .byte  235,254                             // jmp           31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,4                // callq         *0x4ffffff(%rip)        # 502a574 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
+  .byte  255,21,255,255,255,4                // callq         *0x4ffffff(%rip)        # 5031bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,84,255,255                      // callq         *-0x1(%rdi,%rdi,8)
@@ -51876,23 +59002,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            2a5d3 <_sk_scale_565_sse2_lowp+0x4b>
+  .byte  119,34                              // ja            31c0f <_sk_scale_565_sse2_lowp+0x4b>
   .byte  102,15,239,246                      // pxor          %xmm6,%xmm6
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,229,1,0,0                 // lea           0x1e5(%rip),%r9        # 2a7a4 <_sk_scale_565_sse2_lowp+0x21c>
+  .byte  76,141,13,229,1,0,0                 // lea           0x1e5(%rip),%r9        # 31de0 <_sk_scale_565_sse2_lowp+0x21c>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,240                      // movd          %eax,%xmm6
-  .byte  235,67                              // jmp           2a616 <_sk_scale_565_sse2_lowp+0x8e>
+  .byte  235,67                              // jmp           31c52 <_sk_scale_565_sse2_lowp+0x8e>
   .byte  243,65,15,111,52,80                 // movdqu        (%r8,%rdx,2),%xmm6
-  .byte  235,59                              // jmp           2a616 <_sk_scale_565_sse2_lowp+0x8e>
+  .byte  235,59                              // jmp           31c52 <_sk_scale_565_sse2_lowp+0x8e>
   .byte  102,15,239,246                      // pxor          %xmm6,%xmm6
   .byte  102,65,15,196,116,80,4,2            // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm6
   .byte  243,69,15,16,12,80                  // movss         (%r8,%rdx,2),%xmm9
   .byte  243,65,15,16,241                    // movss         %xmm9,%xmm6
-  .byte  235,34                              // jmp           2a616 <_sk_scale_565_sse2_lowp+0x8e>
+  .byte  235,34                              // jmp           31c52 <_sk_scale_565_sse2_lowp+0x8e>
   .byte  102,15,239,246                      // pxor          %xmm6,%xmm6
   .byte  102,65,15,196,116,80,12,6           // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm6
   .byte  102,65,15,196,116,80,10,5           // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -51900,11 +59026,11 @@
   .byte  102,65,15,18,52,80                  // movlpd        (%r8,%rdx,2),%xmm6
   .byte  102,68,15,111,222                   // movdqa        %xmm6,%xmm11
   .byte  102,65,15,113,211,8                 // psrlw         $0x8,%xmm11
-  .byte  102,68,15,219,29,166,21,0,0         // pand          0x15a6(%rip),%xmm11        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,68,15,219,29,234,21,0,0         // pand          0x15ea(%rip),%xmm11        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,68,15,111,206                   // movdqa        %xmm6,%xmm9
   .byte  102,65,15,113,209,5                 // psrlw         $0x5,%xmm9
-  .byte  102,68,15,219,13,162,21,0,0         // pand          0x15a2(%rip),%xmm9        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,68,15,111,21,169,21,0,0         // movdqa        0x15a9(%rip),%xmm10        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,68,15,219,13,230,21,0,0         // pand          0x15e6(%rip),%xmm9        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,68,15,111,21,237,21,0,0         // movdqa        0x15ed(%rip),%xmm10        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,68,15,219,214                   // pand          %xmm6,%xmm10
   .byte  102,15,113,214,13                   // psrlw         $0xd,%xmm6
   .byte  102,65,15,235,243                   // por           %xmm11,%xmm6
@@ -51916,7 +59042,7 @@
   .byte  102,65,15,113,243,3                 // psllw         $0x3,%xmm11
   .byte  102,65,15,113,210,2                 // psrlw         $0x2,%xmm10
   .byte  102,69,15,235,211                   // por           %xmm11,%xmm10
-  .byte  102,68,15,111,37,5,21,0,0           // movdqa        0x1505(%rip),%xmm12        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,37,73,21,0,0          // movdqa        0x1549(%rip),%xmm12        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,68,15,111,235                   // movdqa        %xmm3,%xmm13
   .byte  102,69,15,239,236                   // pxor          %xmm12,%xmm13
   .byte  102,68,15,111,223                   // movdqa        %xmm7,%xmm11
@@ -51957,7 +59083,7 @@
   .byte  102,68,15,213,201                   // pmullw        %xmm1,%xmm9
   .byte  102,68,15,213,210                   // pmullw        %xmm2,%xmm10
   .byte  102,68,15,213,219                   // pmullw        %xmm3,%xmm11
-  .byte  102,15,111,5,199,12,0,0             // movdqa        0xcc7(%rip),%xmm0        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,15,111,5,11,13,0,0              // movdqa        0xd0b(%rip),%xmm0        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,253,240                      // paddw         %xmm0,%xmm6
   .byte  102,68,15,253,200                   // paddw         %xmm0,%xmm9
   .byte  102,68,15,253,208                   // paddw         %xmm0,%xmm10
@@ -52004,23 +59130,23 @@
   .byte  36,7                                // and           $0x7,%al
   .byte  254,200                             // dec           %al
   .byte  60,6                                // cmp           $0x6,%al
-  .byte  119,34                              // ja            2a80b <_sk_lerp_565_sse2_lowp+0x4b>
+  .byte  119,34                              // ja            31e47 <_sk_lerp_565_sse2_lowp+0x4b>
   .byte  102,15,239,210                      // pxor          %xmm2,%xmm2
   .byte  15,182,192                          // movzbl        %al,%eax
-  .byte  76,141,13,45,2,0,0                  // lea           0x22d(%rip),%r9        # 2aa24 <_sk_lerp_565_sse2_lowp+0x264>
+  .byte  76,141,13,45,2,0,0                  // lea           0x22d(%rip),%r9        # 32060 <_sk_lerp_565_sse2_lowp+0x264>
   .byte  73,99,4,129                         // movslq        (%r9,%rax,4),%rax
   .byte  76,1,200                            // add           %r9,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  65,15,183,4,80                      // movzwl        (%r8,%rdx,2),%eax
   .byte  102,15,110,208                      // movd          %eax,%xmm2
-  .byte  235,67                              // jmp           2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+  .byte  235,67                              // jmp           31e8a <_sk_lerp_565_sse2_lowp+0x8e>
   .byte  243,65,15,111,20,80                 // movdqu        (%r8,%rdx,2),%xmm2
-  .byte  235,59                              // jmp           2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+  .byte  235,59                              // jmp           31e8a <_sk_lerp_565_sse2_lowp+0x8e>
   .byte  102,15,239,210                      // pxor          %xmm2,%xmm2
   .byte  102,65,15,196,84,80,4,2             // pinsrw        $0x2,0x4(%r8,%rdx,2),%xmm2
   .byte  243,69,15,16,12,80                  // movss         (%r8,%rdx,2),%xmm9
   .byte  243,65,15,16,209                    // movss         %xmm9,%xmm2
-  .byte  235,34                              // jmp           2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+  .byte  235,34                              // jmp           31e8a <_sk_lerp_565_sse2_lowp+0x8e>
   .byte  102,15,239,210                      // pxor          %xmm2,%xmm2
   .byte  102,65,15,196,84,80,12,6            // pinsrw        $0x6,0xc(%r8,%rdx,2),%xmm2
   .byte  102,65,15,196,84,80,10,5            // pinsrw        $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -52028,11 +59154,11 @@
   .byte  102,65,15,18,20,80                  // movlpd        (%r8,%rdx,2),%xmm2
   .byte  102,68,15,111,218                   // movdqa        %xmm2,%xmm11
   .byte  102,65,15,113,211,8                 // psrlw         $0x8,%xmm11
-  .byte  102,68,15,219,29,110,19,0,0         // pand          0x136e(%rip),%xmm11        # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+  .byte  102,68,15,219,29,178,19,0,0         // pand          0x13b2(%rip),%xmm11        # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
   .byte  102,68,15,111,202                   // movdqa        %xmm2,%xmm9
   .byte  102,65,15,113,209,5                 // psrlw         $0x5,%xmm9
-  .byte  102,68,15,219,13,106,19,0,0         // pand          0x136a(%rip),%xmm9        # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
-  .byte  102,68,15,111,21,113,19,0,0         // movdqa        0x1371(%rip),%xmm10        # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+  .byte  102,68,15,219,13,174,19,0,0         // pand          0x13ae(%rip),%xmm9        # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+  .byte  102,68,15,111,21,181,19,0,0         // movdqa        0x13b5(%rip),%xmm10        # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
   .byte  102,68,15,219,210                   // pand          %xmm2,%xmm10
   .byte  102,15,113,210,13                   // psrlw         $0xd,%xmm2
   .byte  102,65,15,235,211                   // por           %xmm11,%xmm2
@@ -52044,7 +59170,7 @@
   .byte  102,65,15,113,243,3                 // psllw         $0x3,%xmm11
   .byte  102,65,15,113,210,2                 // psrlw         $0x2,%xmm10
   .byte  102,69,15,235,211                   // por           %xmm11,%xmm10
-  .byte  102,68,15,111,37,205,18,0,0         // movdqa        0x12cd(%rip),%xmm12        # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+  .byte  102,68,15,111,37,17,19,0,0          // movdqa        0x1311(%rip),%xmm12        # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
   .byte  102,68,15,111,235                   // movdqa        %xmm3,%xmm13
   .byte  102,69,15,239,236                   // pxor          %xmm12,%xmm13
   .byte  102,68,15,111,223                   // movdqa        %xmm7,%xmm11
@@ -52083,7 +59209,7 @@
   .byte  102,69,15,235,222                   // por           %xmm14,%xmm11
   .byte  102,15,111,194                      // movdqa        %xmm2,%xmm0
   .byte  102,15,213,209                      // pmullw        %xmm1,%xmm2
-  .byte  102,68,15,111,5,153,10,0,0          // movdqa        0xa99(%rip),%xmm8        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,5,221,10,0,0          // movdqa        0xadd(%rip),%xmm8        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,65,15,239,192                   // pxor          %xmm8,%xmm0
   .byte  102,15,213,196                      // pmullw        %xmm4,%xmm0
   .byte  102,65,15,253,208                   // paddw         %xmm8,%xmm2
@@ -52152,26 +59278,26 @@
   .byte  65,254,202                          // dec           %r10b
   .byte  69,15,182,202                       // movzbl        %r10b,%r9d
   .byte  65,128,249,6                        // cmp           $0x6,%r9b
-  .byte  119,38                              // ja            2aa8b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+  .byte  119,38                              // ja            320c7 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  76,141,29,67,2,0,0                  // lea           0x243(%rip),%r11        # 2acb4 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+  .byte  76,141,29,67,2,0,0                  // lea           0x243(%rip),%r11        # 322f0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
   .byte  75,99,4,139                         // movslq        (%r11,%r9,4),%rax
   .byte  76,1,216                            // add           %r11,%rax
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  255,224                             // jmpq          *%rax
   .byte  243,65,15,16,60,144                 // movss         (%r8,%rdx,4),%xmm7
   .byte  102,69,15,239,192                   // pxor          %xmm8,%xmm8
-  .byte  235,102                             // jmp           2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+  .byte  235,102                             // jmp           3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
   .byte  102,65,15,16,60,144                 // movupd        (%r8,%rdx,4),%xmm7
   .byte  243,69,15,111,68,144,16             // movdqu        0x10(%r8,%rdx,4),%xmm8
-  .byte  235,87                              // jmp           2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+  .byte  235,87                              // jmp           3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
   .byte  102,65,15,110,100,144,8             // movd          0x8(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  102,15,239,228                      // pxor          %xmm4,%xmm4
   .byte  102,69,15,18,4,144                  // movlpd        (%r8,%rdx,4),%xmm8
   .byte  102,65,15,40,248                    // movapd        %xmm8,%xmm7
   .byte  102,68,15,111,196                   // movdqa        %xmm4,%xmm8
-  .byte  235,52                              // jmp           2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+  .byte  235,52                              // jmp           3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
   .byte  102,65,15,110,100,144,24            // movd          0x18(%r8,%rdx,4),%xmm4
   .byte  102,68,15,112,196,69                // pshufd        $0x45,%xmm4,%xmm8
   .byte  243,65,15,16,100,144,20             // movss         0x14(%r8,%rdx,4),%xmm4
@@ -52188,7 +59314,7 @@
   .byte  102,15,114,244,16                   // pslld         $0x10,%xmm4
   .byte  102,15,114,228,16                   // psrad         $0x10,%xmm4
   .byte  102,15,107,236                      // packssdw      %xmm4,%xmm5
-  .byte  102,68,15,111,37,5,9,0,0            // movdqa        0x905(%rip),%xmm12        # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+  .byte  102,68,15,111,37,73,9,0,0           // movdqa        0x949(%rip),%xmm12        # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
   .byte  102,15,111,229                      // movdqa        %xmm5,%xmm4
   .byte  102,65,15,219,228                   // pand          %xmm12,%xmm4
   .byte  102,15,113,213,8                    // psrlw         $0x8,%xmm5
@@ -52246,20 +59372,20 @@
   .byte  102,15,105,193                      // punpckhwd     %xmm1,%xmm0
   .byte  102,15,235,194                      // por           %xmm2,%xmm0
   .byte  65,128,250,6                        // cmp           $0x6,%r10b
-  .byte  119,24                              // ja            2ac53 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
-  .byte  76,141,21,142,0,0,0                 // lea           0x8e(%rip),%r10        # 2acd0 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+  .byte  119,24                              // ja            3228f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+  .byte  76,141,21,142,0,0,0                 // lea           0x8e(%rip),%r10        # 3230c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
   .byte  75,99,4,138                         // movslq        (%r10,%r9,4),%rax
   .byte  76,1,208                            // add           %r10,%rax
   .byte  255,224                             // jmpq          *%rax
   .byte  102,69,15,126,36,144                // movd          %xmm12,(%r8,%rdx,4)
-  .byte  235,73                              // jmp           2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+  .byte  235,73                              // jmp           322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
   .byte  243,69,15,127,36,144                // movdqu        %xmm12,(%r8,%rdx,4)
   .byte  243,65,15,127,68,144,16             // movdqu        %xmm0,0x10(%r8,%rdx,4)
-  .byte  235,58                              // jmp           2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+  .byte  235,58                              // jmp           322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
   .byte  102,65,15,112,196,78                // pshufd        $0x4e,%xmm12,%xmm0
   .byte  102,65,15,126,68,144,8              // movd          %xmm0,0x8(%r8,%rdx,4)
   .byte  102,69,15,214,36,144                // movq          %xmm12,(%r8,%rdx,4)
-  .byte  235,37                              // jmp           2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+  .byte  235,37                              // jmp           322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
   .byte  102,15,112,200,78                   // pshufd        $0x4e,%xmm0,%xmm1
   .byte  102,65,15,126,76,144,24             // movd          %xmm1,0x18(%r8,%rdx,4)
   .byte  102,15,112,200,229                  // pshufd        $0xe5,%xmm0,%xmm1
@@ -52292,7 +59418,7 @@
   .byte  254                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  123,255                             // jnp           2acd1 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+  .byte  123,255                             // jnp           3230d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
   .byte  255                                 // (bad)
   .byte  255,159,255,255,255,146             // lcall         *-0x6d000001(%rdi)
   .byte  255                                 // (bad)
@@ -52339,6 +59465,35 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,7                                 // add           %al,(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  63                                  // (bad)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  192,63,0                            // sarb          $0x0,(%rdi)
+  .byte  0,32                                // add           %ah,(%rax)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  96                                  // (bad)
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  144                                 // nop
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  176,64                              // mov           $0x40,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  208,64,0                            // rolb          0x0(%rax)
+  .byte  0,240                               // add           %dh,%al
+  .byte  64,0,0                              // add           %al,(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  1,0                                 // add           %eax,(%rax)
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  2,0                                 // add           (%rax),%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  3,0                                 // add           (%rax),%eax
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  4,0                                 // add           $0x0,%al
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  5,0,0,0,6                           // add           $0x6000000,%eax
+  .byte  0,0                                 // add           %al,(%rax)
+  .byte  0,7                                 // add           %al,(%rdi)
+  .byte  0,0                                 // add           %al,(%rax)
   .byte  0,255                               // add           %bh,%bh
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,255                               // add           %bh,%bh
@@ -52358,16 +59513,16 @@
   .byte  0,1                                 // add           %al,(%rcx)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02ad68 <_sk_srcover_rgba_8888_sse2_lowp+0xa000328>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0323e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00036c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202ad70 <_sk_srcover_rgba_8888_sse2_lowp+0x12000330>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120323f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000374>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02ad78 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000338>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0323f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00037c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302ad80 <_sk_srcover_rgba_8888_sse2_lowp+0x3000340>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3032400 <_sk_srcover_rgba_8888_sse2_lowp+0x3000384>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52410,16 +59565,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02adc8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000388>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032448 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003cc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202add0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000390>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12032450 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02add8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000398>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a032458 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003dc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302ade0 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a0>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3032460 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52462,16 +59617,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02ae28 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003e8>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0324a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00042c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202ae30 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f0>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120324b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000434>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02ae38 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003f8>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00043c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302ae40 <_sk_srcover_rgba_8888_sse2_lowp+0x3000400>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000444>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52514,16 +59669,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02ae88 <_sk_srcover_rgba_8888_sse2_lowp+0xa000448>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032508 <_sk_srcover_rgba_8888_sse2_lowp+0xa00048c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202ae90 <_sk_srcover_rgba_8888_sse2_lowp+0x12000450>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12032510 <_sk_srcover_rgba_8888_sse2_lowp+0x12000494>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02ae98 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000458>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a032518 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00049c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302aea0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000460>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3032520 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52566,16 +59721,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02aee8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004a8>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032568 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ec>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202aef0 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b0>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12032570 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02aef8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004b8>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a032578 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004fc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302af00 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c0>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3032580 <_sk_srcover_rgba_8888_sse2_lowp+0x3000504>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52618,16 +59773,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02af48 <_sk_srcover_rgba_8888_sse2_lowp+0xa000508>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a0325c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00054c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202af50 <_sk_srcover_rgba_8888_sse2_lowp+0x12000510>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 120325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000554>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02af58 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000518>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a0325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00055c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302af60 <_sk_srcover_rgba_8888_sse2_lowp+0x3000520>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000564>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52670,16 +59825,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02afa8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000568>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032628 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005ac>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202afb0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000570>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12032630 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02afb8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000578>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a032638 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005bc>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302afc0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000580>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 3032640 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c4>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -52722,16 +59877,16 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02b008 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005c8>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032688 <_sk_srcover_rgba_8888_sse2_lowp+0xa00060c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 1202b010 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d0>
+  .byte  255,13,255,255,255,17               // decl          0x11ffffff(%rip)        # 12032690 <_sk_srcover_rgba_8888_sse2_lowp+0x12000614>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a02b018 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005d8>
+  .byte  255,21,255,255,255,25               // callq         *0x19ffffff(%rip)        # 1a032698 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00061c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 302b020 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e0>
+  .byte  255,29,255,255,255,2                // lcall         *0x2ffffff(%rip)        # 30326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000624>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -53002,7 +60157,7 @@
   .byte  0,255                               // add           %bh,%bh
   .byte  0,0                                 // add           %al,(%rax)
   .byte  248                                 // clc
-  .byte  224,255                             // loopne        2b233 <.const+0x533>
+  .byte  224,255                             // loopne        328b3 <.const+0x573>
   .byte  255,0                               // incl          (%rax)
   .byte  255,0                               // incl          (%rax)
   .byte  54,0,183,0,19,0,255                 // add           %dh,%ss:-0xffed00(%rdi)
@@ -53055,14 +60210,14 @@
   .byte  252                                 // cld
   .byte  190,0,0,128,191                     // mov           $0xbf800000,%esi
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,64                              // loopne        2b2e8 <.literal4+0x64>
+  .byte  224,64                              // loopne        32968 <.literal4+0x64>
   .byte  154                                 // (bad)
   .byte  153                                 // cltd
   .byte  153                                 // cltd
   .byte  62,61,10,23,63,174                  // ds            cmp $0xae3f170a,%eax
-  .byte  71,225,61                           // rex.RXB       loope 2b2f1 <.literal4+0x6d>
+  .byte  71,225,61                           // rex.RXB       loope 32971 <.literal4+0x6d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  127,67                              // jg            2b2fb <.literal4+0x77>
+  .byte  127,67                              // jg            3297b <.literal4+0x77>
   .byte  145                                 // xchg          %eax,%ecx
   .byte  131,158,61,92,143,50,63             // sbbl          $0x3f,0x328f5c3d(%rsi)
   .byte  10,215                              // or            %bh,%dl
@@ -53072,9 +60227,11 @@
   .byte  61,82,184,78,65                     // cmp           $0x414eb852,%eax
   .byte  186,159,98,60,57                    // mov           $0x393c629f,%edx
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  32,187,109,165,144,63               // and           %bh,0x3f90a56d(%rbx)
+  .byte  32,187,180,164,144,63               // and           %bh,0x3f90a4b4(%rbx)
   .byte  252                                 // cld
-  .byte  191,16,62,168,177                   // mov           $0xb1a83e10,%edi
+  .byte  199                                 // (bad)
+  .byte  16,62                               // adc           %bh,(%rsi)
+  .byte  168,177                             // test          $0xb1,%al
   .byte  152                                 // cwtl
   .byte  59,0                                // cmp           (%rax),%eax
   .byte  0,192                               // add           %al,%al
@@ -53095,7 +60252,7 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  8,33                                // or            %ah,(%rcx)
   .byte  132,55                              // test          %dh,(%rdi)
-  .byte  224,7                               // loopne        2b311 <.literal4+0x8d>
+  .byte  224,7                               // loopne        32991 <.literal4+0x8d>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  33,8                                // and           %ecx,(%rax)
   .byte  2,58                                // add           (%rdx),%bh
@@ -53106,8 +60263,8 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,52,255                            // add           %dh,(%rdi,%rdi,8)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b324 <.literal4+0xa0>
-  .byte  119,115                             // ja            2b399 <.literal4+0x115>
+  .byte  127,0                               // jg            329a4 <.literal4+0xa0>
+  .byte  119,115                             // ja            32a19 <.literal4+0x115>
   .byte  248                                 // clc
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,249,68,180                   // mov           $0xb444f93f,%edi
@@ -53130,12 +60287,12 @@
   .byte  190,80,128,3,62                     // mov           $0x3e038050,%esi
   .byte  31                                  // (bad)
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  118,63                              // jbe           2b3af <.literal4+0x12b>
+  .byte  118,63                              // jbe           32a2f <.literal4+0x12b>
   .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  248                                 // clc
   .byte  65,0,0                              // add           %al,(%r8)
-  .byte  124,66                              // jl            2b3be <.literal4+0x13a>
+  .byte  124,66                              // jl            32a3e <.literal4+0x13a>
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  137,136,136,55,0,15                 // mov           %ecx,0xf003788(%rax)
@@ -53145,18 +60302,19 @@
   .byte  137,136,136,59,15,0                 // mov           %ecx,0xf3b88(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  137,136,136,61,0,0                  // mov           %ecx,0x3d88(%rax)
-  .byte  112,65                              // jo            2b3e1 <.literal4+0x15d>
+  .byte  112,65                              // jo            32a61 <.literal4+0x15d>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,71                              // jg            2b3eb <.literal4+0x167>
-  .byte  208                                 // (bad)
-  .byte  179,89                              // mov           $0x59,%bl
-  .byte  62,89                               // ds            pop %rcx
+  .byte  127,71                              // jg            32a6b <.literal4+0x167>
+  .byte  89                                  // pop           %rcx
   .byte  23                                  // (bad)
   .byte  55                                  // (bad)
   .byte  63                                  // (bad)
-  .byte  152                                 // cwtl
-  .byte  221,147,61,18,120,57                // fstl          0x3978123d(%rbx)
-  .byte  64,45,16,17,192,32                  // rex           sub $0x20c01110,%eax
+  .byte  208                                 // (bad)
+  .byte  179,89                              // mov           $0x59,%bl
+  .byte  62,152                              // ds            cwtl
+  .byte  221,147,61,45,16,17                 // fstl          0x11102d3d(%rbx)
+  .byte  192,18,120                          // rclb          $0x78,(%rdx)
+  .byte  57,64,32                            // cmp           %eax,0x20(%rax)
   .byte  148                                 // xchg          %eax,%esp
   .byte  90                                  // pop           %rdx
   .byte  62,4,157                            // ds            add $0x9d,%al
@@ -53174,24 +60332,29 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,0,0                             // addb          $0x0,(%rax)
   .byte  0,191,0,0,192,191                   // add           %bh,-0x40400000(%rdi)
-  .byte  114,28                              // jb            2b40a <.literal4+0x186>
+  .byte  114,28                              // jb            32a8a <.literal4+0x186>
   .byte  199                                 // (bad)
-  .byte  62,0,0                              // add           %al,%ds:(%rax)
-  .byte  192,63,85                           // sarb          $0x55,(%rdi)
+  .byte  62,85                               // ds            push %rbp
   .byte  85                                  // push          %rbp
   .byte  149                                 // xchg          %eax,%ebp
-  .byte  191,57,142,99,61                    // mov           $0x3d638e39,%edi
-  .byte  114,249                             // jb            2b3f7 <.literal4+0x173>
-  .byte  127,63                              // jg            2b43f <_sk_srcover_rgba_8888_sse2_lowp+0x9ff>
+  .byte  191,0,0,192,63                      // mov           $0x3fc00000,%edi
+  .byte  57,142,99,61,114,249                // cmp           %ecx,-0x68dc29d(%rsi)
+  .byte  127,63                              // jg            32abf <_sk_srcover_rgba_8888_sse2_lowp+0xa43>
   .byte  3,0                                 // add           (%rax),%eax
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  0,4,0                               // add           %al,(%rax,%rax,1)
+  .byte  109                                 // insl          (%dx),%es:(%rdi)
+  .byte  165                                 // movsl         %ds:(%rsi),%es:(%rdi)
+  .byte  144                                 // nop
+  .byte  63                                  // (bad)
+  .byte  252                                 // cld
+  .byte  191,16,62,0,4                       // mov           $0x4003e10,%edi
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  56,255                              // cmp           %bh,%bh
+  .byte  0,56                                // add           %bh,(%rax)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b411 <.literal4+0x18d>
+  .byte  255                                 // (bad)
+  .byte  127,0                               // jg            32a99 <.literal4+0x195>
   .byte  0,128,56,0,64,254                   // add           %al,-0x1bfffc8(%rax)
   .byte  255                                 // .byte         0xff
 
@@ -53294,11 +60457,11 @@
   .byte  0,128,191,0,0,128                   // add           %al,-0x7fffff41(%rax)
   .byte  191,0,0,224,64                      // mov           $0x40e00000,%edi
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,64                              // loopne        2b548 <.literal16+0x128>
+  .byte  224,64                              // loopne        32bc8 <.literal16+0x128>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,64                              // loopne        2b54c <.literal16+0x12c>
+  .byte  224,64                              // loopne        32bcc <.literal16+0x12c>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,64                              // loopne        2b550 <.literal16+0x130>
+  .byte  224,64                              // loopne        32bd0 <.literal16+0x130>
   .byte  154                                 // (bad)
   .byte  153                                 // cltd
   .byte  153                                 // cltd
@@ -53318,13 +60481,13 @@
   .byte  10,23                               // or            (%rdi),%dl
   .byte  63                                  // (bad)
   .byte  174                                 // scas          %es:(%rdi),%al
-  .byte  71,225,61                           // rex.RXB       loope 2b571 <.literal16+0x151>
+  .byte  71,225,61                           // rex.RXB       loope 32bf1 <.literal16+0x151>
   .byte  174                                 // scas          %es:(%rdi),%al
-  .byte  71,225,61                           // rex.RXB       loope 2b575 <.literal16+0x155>
+  .byte  71,225,61                           // rex.RXB       loope 32bf5 <.literal16+0x155>
   .byte  174                                 // scas          %es:(%rdi),%al
-  .byte  71,225,61                           // rex.RXB       loope 2b579 <.literal16+0x159>
+  .byte  71,225,61                           // rex.RXB       loope 32bf9 <.literal16+0x159>
   .byte  174                                 // scas          %es:(%rdi),%al
-  .byte  71,225,61                           // rex.RXB       loope 2b57d <.literal16+0x15d>
+  .byte  71,225,61                           // rex.RXB       loope 32bfd <.literal16+0x15d>
   .byte  255,0                               // incl          (%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255,0                               // incl          (%rax)
@@ -53335,10 +60498,10 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  1,255                               // add           %edi,%edi
   .byte  255                                 // (bad)
-  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a02b558 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b18>
+  .byte  255,5,255,255,255,9                 // incl          0x9ffffff(%rip)        # a032bd8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b5c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 302b560 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b20>
+  .byte  255,13,255,255,255,2                // decl          0x2ffffff(%rip)        # 3032be0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b64>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255,6                               // incl          (%rsi)
@@ -53353,11 +60516,11 @@
   .byte  255,0                               // incl          (%rax)
   .byte  0,127,67                            // add           %bh,0x43(%rdi)
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  127,67                              // jg            2b5bb <.literal16+0x19b>
+  .byte  127,67                              // jg            32c3b <.literal16+0x19b>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  127,67                              // jg            2b5bf <.literal16+0x19f>
+  .byte  127,67                              // jg            32c3f <.literal16+0x19f>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  127,67                              // jg            2b5c3 <.literal16+0x1a3>
+  .byte  127,67                              // jg            32c43 <.literal16+0x1a3>
   .byte  145                                 // xchg          %eax,%ecx
   .byte  131,158,61,145,131,158,61           // sbbl          $0x3d,-0x617c6ec3(%rsi)
   .byte  145                                 // xchg          %eax,%ecx
@@ -53508,13 +60671,13 @@
   .byte  132,55                              // test          %dh,(%rdi)
   .byte  8,33                                // or            %ah,(%rcx)
   .byte  132,55                              // test          %dh,(%rdi)
-  .byte  224,7                               // loopne        2b6c9 <.literal16+0x2a9>
+  .byte  224,7                               // loopne        32d49 <.literal16+0x2a9>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        2b6cd <.literal16+0x2ad>
+  .byte  224,7                               // loopne        32d4d <.literal16+0x2ad>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        2b6d1 <.literal16+0x2b1>
+  .byte  224,7                               // loopne        32d51 <.literal16+0x2b1>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  224,7                               // loopne        2b6d5 <.literal16+0x2b5>
+  .byte  224,7                               // loopne        32d55 <.literal16+0x2b5>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  33,8                                // and           %ecx,(%rax)
   .byte  2,58                                // add           (%rdx),%bh
@@ -53568,17 +60731,17 @@
   .byte  0,0                                 // add           %al,(%rax)
   .byte  52,255                              // xor           $0xff,%al
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b744 <.literal16+0x324>
+  .byte  127,0                               // jg            32dc4 <.literal16+0x324>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b748 <.literal16+0x328>
+  .byte  127,0                               // jg            32dc8 <.literal16+0x328>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b74c <.literal16+0x32c>
+  .byte  127,0                               // jg            32dcc <.literal16+0x32c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b750 <.literal16+0x330>
-  .byte  119,115                             // ja            2b7c5 <.literal16+0x3a5>
+  .byte  127,0                               // jg            32dd0 <.literal16+0x330>
+  .byte  119,115                             // ja            32e45 <.literal16+0x3a5>
   .byte  248                                 // clc
   .byte  194,119,115                         // retq          $0x7377
   .byte  248                                 // clc
@@ -53589,7 +60752,7 @@
   .byte  194,117,191                         // retq          $0xbf75
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
-  .byte  117,191                             // jne           2b729 <.literal16+0x309>
+  .byte  117,191                             // jne           32da9 <.literal16+0x309>
   .byte  191,63,117,191,191                  // mov           $0xbfbf753f,%edi
   .byte  63                                  // (bad)
   .byte  249                                 // stc
@@ -53601,7 +60764,7 @@
   .byte  249                                 // stc
   .byte  68,180,62                           // rex.R         mov $0x3e,%spl
   .byte  163,233,220,63,163,233,220,63,163   // movabs        %eax,0xa33fdce9a33fdce9
-  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a5f76a <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d2a>
+  .byte  233,220,63,163,233                  // jmpq          ffffffffe9a66dea <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d6e>
   .byte  220,63                              // fdivrl        (%rdi)
   .byte  81                                  // push          %rcx
   .byte  140,242                             // mov           %?,%edx
@@ -53691,16 +60854,16 @@
   .byte  128,3,62                            // addb          $0x3e,(%rbx)
   .byte  31                                  // (bad)
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  118,63                              // jbe           2b8b3 <.literal16+0x493>
+  .byte  118,63                              // jbe           32f33 <.literal16+0x493>
   .byte  31                                  // (bad)
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  118,63                              // jbe           2b8b7 <.literal16+0x497>
+  .byte  118,63                              // jbe           32f37 <.literal16+0x497>
   .byte  31                                  // (bad)
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  118,63                              // jbe           2b8bb <.literal16+0x49b>
+  .byte  118,63                              // jbe           32f3b <.literal16+0x49b>
   .byte  31                                  // (bad)
   .byte  215                                 // xlat          %ds:(%rbx)
-  .byte  118,63                              // jbe           2b8bf <.literal16+0x49f>
+  .byte  118,63                              // jbe           32f3f <.literal16+0x49f>
   .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
   .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
   .byte  246,64,83,63                        // testb         $0x3f,0x53(%rax)
@@ -53721,13 +60884,13 @@
   .byte  65,0,0                              // add           %al,(%r8)
   .byte  248                                 // clc
   .byte  65,0,0                              // add           %al,(%r8)
-  .byte  124,66                              // jl            2b8f6 <.literal16+0x4d6>
+  .byte  124,66                              // jl            32f76 <.literal16+0x4d6>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  124,66                              // jl            2b8fa <.literal16+0x4da>
+  .byte  124,66                              // jl            32f7a <.literal16+0x4da>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  124,66                              // jl            2b8fe <.literal16+0x4de>
+  .byte  124,66                              // jl            32f7e <.literal16+0x4de>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  124,66                              // jl            2b902 <.literal16+0x4e2>
+  .byte  124,66                              // jl            32f82 <.literal16+0x4e2>
   .byte  0,240                               // add           %dh,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,240                               // add           %dh,%al
@@ -53773,25 +60936,25 @@
   .byte  136,136,61,137,136,136              // mov           %cl,-0x777776c3(%rax)
   .byte  61,137,136,136,61                   // cmp           $0x3d888889,%eax
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  112,65                              // jo            2b985 <.literal16+0x565>
+  .byte  112,65                              // jo            33005 <.literal16+0x565>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  112,65                              // jo            2b989 <.literal16+0x569>
+  .byte  112,65                              // jo            33009 <.literal16+0x569>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  112,65                              // jo            2b98d <.literal16+0x56d>
+  .byte  112,65                              // jo            3300d <.literal16+0x56d>
   .byte  0,0                                 // add           %al,(%rax)
-  .byte  112,65                              // jo            2b991 <.literal16+0x571>
+  .byte  112,65                              // jo            33011 <.literal16+0x571>
   .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  0,128,0,0,0,128                     // add           %al,-0x80000000(%rax)
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b963 <.literal16+0x543>
+  .byte  127,0                               // jg            32fe3 <.literal16+0x543>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,0                               // jg            2b967 <.literal16+0x547>
+  .byte  127,0                               // jg            32fe7 <.literal16+0x547>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,0                               // jg            2b96b <.literal16+0x54b>
+  .byte  127,0                               // jg            32feb <.literal16+0x54b>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,0                               // jg            2b96f <.literal16+0x54f>
+  .byte  127,0                               // jg            32fef <.literal16+0x54f>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  4,0                                 // add           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
@@ -53817,13 +60980,13 @@
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,255                             // jg            2b9a8 <.literal16+0x588>
+  .byte  127,255                             // jg            33028 <.literal16+0x588>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,255                             // jg            2b9ac <.literal16+0x58c>
+  .byte  127,255                             // jg            3302c <.literal16+0x58c>
   .byte  255                                 // (bad)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2b9b1 <.literal16+0x591>
+  .byte  127,0                               // jg            33031 <.literal16+0x591>
   .byte  0,128,56,0,0,128                    // add           %al,-0x7fffffc8(%rax)
   .byte  56,0                                // cmp           %al,(%rax)
   .byte  0,128,56,0,0,128                    // add           %al,-0x7fffffc8(%rax)
@@ -53837,13 +61000,13 @@
   .byte  64,254                              // rex           (bad)
   .byte  255,0                               // incl          (%rax)
   .byte  255                                 // (bad)
-  .byte  127,71                              // jg            2ba1b <.literal16+0x5fb>
+  .byte  127,71                              // jg            3309b <.literal16+0x5fb>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,71                              // jg            2ba1f <.literal16+0x5ff>
+  .byte  127,71                              // jg            3309f <.literal16+0x5ff>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,71                              // jg            2ba23 <.literal16+0x603>
+  .byte  127,71                              // jg            330a3 <.literal16+0x603>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,71                              // jg            2ba27 <.literal16+0x607>
+  .byte  127,71                              // jg            330a7 <.literal16+0x607>
   .byte  208                                 // (bad)
   .byte  179,89                              // mov           $0x59,%bl
   .byte  62,208                              // ds            (bad)
@@ -53873,10 +61036,10 @@
   .byte  61,152,221,147,61                   // cmp           $0x3d93dd98,%eax
   .byte  152                                 // cwtl
   .byte  221,147,61,45,16,17                 // fstl          0x11102d3d(%rbx)
-  .byte  192,45,16,17,192,45,16              // shrb          $0x10,0x2dc01110(%rip)        # 2dc2cb2a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020ea>
+  .byte  192,45,16,17,192,45,16              // shrb          $0x10,0x2dc01110(%rip)        # 2dc341aa <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0212e>
   .byte  17,192                              // adc           %eax,%eax
   .byte  45,16,17,192,18                     // sub           $0x12c01110,%eax
-  .byte  120,57                              // js            2ba5c <.literal16+0x63c>
+  .byte  120,57                              // js            330dc <.literal16+0x63c>
   .byte  64,18,120,57                        // adc           0x39(%rax),%dil
   .byte  64,18,120,57                        // adc           0x39(%rax),%dil
   .byte  64,18,120,57                        // adc           0x39(%rax),%dil
@@ -53941,13 +61104,13 @@
   .byte  192,191,0,0,192,191,0               // sarb          $0x0,-0x40400000(%rdi)
   .byte  0,192                               // add           %al,%al
   .byte  191,0,0,192,191                     // mov           $0xbfc00000,%edi
-  .byte  114,28                              // jb            2bb0e <.literal16+0x6ee>
+  .byte  114,28                              // jb            3318e <.literal16+0x6ee>
   .byte  199                                 // (bad)
-  .byte  62,114,28                           // jb,pt         2bb12 <.literal16+0x6f2>
+  .byte  62,114,28                           // jb,pt         33192 <.literal16+0x6f2>
   .byte  199                                 // (bad)
-  .byte  62,114,28                           // jb,pt         2bb16 <.literal16+0x6f6>
+  .byte  62,114,28                           // jb,pt         33196 <.literal16+0x6f6>
   .byte  199                                 // (bad)
-  .byte  62,114,28                           // jb,pt         2bb1a <.literal16+0x6fa>
+  .byte  62,114,28                           // jb,pt         3319a <.literal16+0x6fa>
   .byte  199                                 // (bad)
   .byte  62,85                               // ds            push %rbp
   .byte  85                                  // push          %rbp
@@ -53966,15 +61129,15 @@
   .byte  0,192                               // add           %al,%al
   .byte  63                                  // (bad)
   .byte  57,142,99,61,57,142                 // cmp           %ecx,-0x71c6c29d(%rsi)
-  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d664965 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f25>
+  .byte  99,61,57,142,99,61                  // movslq        0x3d638e39(%rip),%edi        # 3d66bfe5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f69>
   .byte  57,142,99,61,114,249                // cmp           %ecx,-0x68dc29d(%rsi)
-  .byte  127,63                              // jg            2bb73 <.literal16+0x753>
-  .byte  114,249                             // jb            2bb2f <.literal16+0x70f>
-  .byte  127,63                              // jg            2bb77 <.literal16+0x757>
-  .byte  114,249                             // jb            2bb33 <.literal16+0x713>
-  .byte  127,63                              // jg            2bb7b <.literal16+0x75b>
-  .byte  114,249                             // jb            2bb37 <.literal16+0x717>
-  .byte  127,63                              // jg            2bb7f <.literal16+0x75f>
+  .byte  127,63                              // jg            331f3 <.literal16+0x753>
+  .byte  114,249                             // jb            331af <.literal16+0x70f>
+  .byte  127,63                              // jg            331f7 <.literal16+0x757>
+  .byte  114,249                             // jb            331b3 <.literal16+0x713>
+  .byte  127,63                              // jg            331fb <.literal16+0x75b>
+  .byte  114,249                             // jb            331b7 <.literal16+0x717>
+  .byte  127,63                              // jg            331ff <.literal16+0x75f>
   .byte  3,0                                 // add           (%rax),%eax
   .byte  0,0                                 // add           %al,(%rax)
   .byte  3,0                                 // add           (%rax),%eax
@@ -54084,14 +61247,14 @@
   .byte  0,248                               // add           %bh,%al
   .byte  0,248                               // add           %bh,%al
   .byte  0,248                               // add           %bh,%al
-  .byte  224,255                             // loopne        2bc11 <.literal16+0x7f1>
-  .byte  224,255                             // loopne        2bc13 <.literal16+0x7f3>
-  .byte  224,255                             // loopne        2bc15 <.literal16+0x7f5>
-  .byte  224,255                             // loopne        2bc17 <.literal16+0x7f7>
-  .byte  224,255                             // loopne        2bc19 <.literal16+0x7f9>
-  .byte  224,255                             // loopne        2bc1b <.literal16+0x7fb>
-  .byte  224,255                             // loopne        2bc1d <.literal16+0x7fd>
-  .byte  224,255                             // loopne        2bc1f <.literal16+0x7ff>
+  .byte  224,255                             // loopne        33291 <.literal16+0x7f1>
+  .byte  224,255                             // loopne        33293 <.literal16+0x7f3>
+  .byte  224,255                             // loopne        33295 <.literal16+0x7f5>
+  .byte  224,255                             // loopne        33297 <.literal16+0x7f7>
+  .byte  224,255                             // loopne        33299 <.literal16+0x7f9>
+  .byte  224,255                             // loopne        3329b <.literal16+0x7fb>
+  .byte  224,255                             // loopne        3329d <.literal16+0x7fd>
+  .byte  224,255                             // loopne        3329f <.literal16+0x7ff>
   .byte  54,0,54                             // add           %dh,%ss:(%rsi)
   .byte  0,54                                // add           %dh,(%rsi)
   .byte  0,54                                // add           %dh,(%rsi)
@@ -54133,9 +61296,9 @@
   .byte  4,0                                 // add           $0x0,%al
   .byte  0,0                                 // add           %al,(%rax)
   .byte  255                                 // (bad)
-  .byte  127,0                               // jg            2bc7b <.literal8+0x1b>
+  .byte  127,0                               // jg            332fb <.literal8+0x1b>
   .byte  0,255                               // add           %bh,%bh
-  .byte  127,0                               // jg            2bc7f <.literal8+0x1f>
+  .byte  127,0                               // jg            332ff <.literal8+0x1f>
   .byte  0,0                                 // add           %al,(%rax)
   .byte  128,0,0                             // addb          $0x0,(%rax)
   .byte  0                                   // .byte         0x0
diff --git a/src/jumper/SkJumper_stages.cpp b/src/jumper/SkJumper_stages.cpp
index 262b926..f70a353 100644
--- a/src/jumper/SkJumper_stages.cpp
+++ b/src/jumper/SkJumper_stages.cpp
@@ -24,6 +24,8 @@
     #define WRAP(name) sk_##name##_aarch64
 #elif defined(__arm__)
     #define WRAP(name) sk_##name##_vfp4
+#elif defined(__AVX512F__)
+    #define WRAP(name) sk_##name##_skx
 #elif defined(__AVX2__)
     #define WRAP(name) sk_##name##_hsw
 #elif defined(__AVX__)
@@ -595,8 +597,11 @@
 STAGE(to_srgb, Ctx::None) {
     auto fn = [&](F l) {
         // We tweak c and d for each instruction set to make sure fn(1) is exactly 1.
-    #if defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41) || \
-        defined(JUMPER_IS_AVX ) || defined(JUMPER_IS_AVX2 )
+    #if defined(JUMPER_IS_AVX512)
+        const float c = 1.130026340485f,
+                    d = 0.141387879848f;
+    #elif defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41) || \
+          defined(JUMPER_IS_AVX ) || defined(JUMPER_IS_AVX2 )
         const float c = 1.130048394203f,
                     d = 0.141357362270f;
     #elif defined(JUMPER_IS_NEON)
@@ -1131,7 +1136,7 @@
 SI void gradient_lookup(const SkJumper_GradientCtx* c, U32 idx, F t,
                         F* r, F* g, F* b, F* a) {
     F fr, br, fg, bg, fb, bb, fa, ba;
-#if defined(JUMPER_IS_AVX2)
+#if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
     if (c->stopCount <=8) {
         fr = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[0]), idx);
         br = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[0]), idx);
diff --git a/src/jumper/SkJumper_vectors.h b/src/jumper/SkJumper_vectors.h
index 7aa3250..2b76b03 100644
--- a/src/jumper/SkJumper_vectors.h
+++ b/src/jumper/SkJumper_vectors.h
@@ -19,6 +19,8 @@
     #define JUMPER_IS_SCALAR
 #elif defined(__aarch64__) || defined(__ARM_VFPV4__)
     #define JUMPER_IS_NEON
+#elif defined(__AVX512F__)
+    #define JUMPER_IS_AVX512
 #elif defined(__AVX2__)
     #define JUMPER_IS_AVX2
 #elif defined(__AVX__)
@@ -202,7 +204,7 @@
         }
     }
 
-#elif defined(JUMPER_IS_AVX) || defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX) || defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
     #include <immintrin.h>
 
     // These are __m256 and __m256i, but friendlier and strongly-typed.
@@ -215,7 +217,7 @@
     using U8  = V<uint8_t >;
 
     SI F mad(F f, F m, F a)  {
-    #if defined(JUMPER_IS_AVX2)
+    #if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
         return _mm256_fmadd_ps(f,m,a);
     #else
         return f*m+a;
@@ -247,7 +249,7 @@
         return { p[ix[0]], p[ix[1]], p[ix[2]], p[ix[3]],
                  p[ix[4]], p[ix[5]], p[ix[6]], p[ix[7]], };
     }
-    #if defined(JUMPER_IS_AVX2)
+    #if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
         SI F   gather(const float*    p, U32 ix) { return _mm256_i32gather_ps   (p, ix, 4); }
         SI U32 gather(const uint32_t* p, U32 ix) { return _mm256_i32gather_epi32(p, ix, 4); }
         SI U64 gather(const uint64_t* p, U32 ix) {
@@ -644,7 +646,7 @@
 #if defined(JUMPER_IS_NEON)
     return vcvt_f32_f16(h);
 
-#elif defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
     return _mm256_cvtph_ps(h);
 
 #else
@@ -664,7 +666,7 @@
 #if defined(JUMPER_IS_NEON)
     return vcvt_f16_f32(f);
 
-#elif defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
     return _mm256_cvtps_ph(f, _MM_FROUND_CUR_DIRECTION);
 
 #else
diff --git a/src/jumper/build_stages.py b/src/jumper/build_stages.py
index 52a8c8b..a5b6280 100755
--- a/src/jumper/build_stages.py
+++ b/src/jumper/build_stages.py
@@ -99,10 +99,15 @@
                       ['-c', stages_lowp] +
                       ['-o', 'win_lowp_hsw.o'])
 
+skx = ['-march=skylake-avx512']
+subprocess.check_call(clang + cflags + skx +
+                      ['-c', stages] +
+                      ['-o', 'skx.o'])
+
 # Merge x86-64 object files to deduplicate constants.
 # (No other platform has more than one specialization.)
 subprocess.check_call(['ld', '-r', '-o', 'merged.o',
-                       'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
+                       'skx.o', 'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
                        'lowp_hsw.o', 'lowp_sse41.o', 'lowp_sse2.o'])
 subprocess.check_call(['ld', '-r', '-o', 'win_merged.o',
                        'win_hsw.o', 'win_avx.o', 'win_sse41.o', 'win_sse2.o',