blob: e95de9bd492887265d5e09e89bc7aa5fb77e4082 [file] [log] [blame]
Simon Pilgrim829091e2015-08-13 20:31:03 +00001; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE2
2; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE41
3; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE42
4; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX1
5; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX2
6; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512F
7; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512bw | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512BW
8
9;
10; Unsigned Maximum (GT)
11;
12
13define <2 x i64> @max_gt_v2i64(<2 x i64> %a, <2 x i64> %b) {
14; SSE2-LABEL: max_gt_v2i64:
15; SSE2: # BB#0:
16; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
17; SSE2-NEXT: movdqa %xmm1, %xmm3
18; SSE2-NEXT: pxor %xmm2, %xmm3
19; SSE2-NEXT: pxor %xmm0, %xmm2
20; SSE2-NEXT: movdqa %xmm2, %xmm4
21; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
22; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
23; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
24; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
25; SSE2-NEXT: pand %xmm5, %xmm2
26; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
27; SSE2-NEXT: por %xmm2, %xmm3
28; SSE2-NEXT: pand %xmm3, %xmm0
29; SSE2-NEXT: pandn %xmm1, %xmm3
30; SSE2-NEXT: por %xmm3, %xmm0
31; SSE2-NEXT: retq
32;
33; SSE41-LABEL: max_gt_v2i64:
34; SSE41: # BB#0:
35; SSE41-NEXT: movdqa %xmm0, %xmm2
36; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
37; SSE41-NEXT: movdqa %xmm1, %xmm3
38; SSE41-NEXT: pxor %xmm0, %xmm3
39; SSE41-NEXT: pxor %xmm2, %xmm0
40; SSE41-NEXT: movdqa %xmm0, %xmm4
41; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
42; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
43; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
44; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
45; SSE41-NEXT: pand %xmm5, %xmm3
46; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
47; SSE41-NEXT: por %xmm3, %xmm0
48; SSE41-NEXT: blendvpd %xmm2, %xmm1
49; SSE41-NEXT: movapd %xmm1, %xmm0
50; SSE41-NEXT: retq
51;
52; SSE42-LABEL: max_gt_v2i64:
53; SSE42: # BB#0:
54; SSE42-NEXT: movdqa %xmm0, %xmm2
55; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
56; SSE42-NEXT: movdqa %xmm1, %xmm3
57; SSE42-NEXT: pxor %xmm0, %xmm3
58; SSE42-NEXT: pxor %xmm2, %xmm0
59; SSE42-NEXT: pcmpgtq %xmm3, %xmm0
60; SSE42-NEXT: blendvpd %xmm2, %xmm1
61; SSE42-NEXT: movapd %xmm1, %xmm0
62; SSE42-NEXT: retq
63;
64; AVX-LABEL: max_gt_v2i64:
65; AVX: # BB#0:
66; AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
67; AVX-NEXT: vpxor %xmm2, %xmm1, %xmm3
68; AVX-NEXT: vpxor %xmm2, %xmm0, %xmm2
69; AVX-NEXT: vpcmpgtq %xmm3, %xmm2, %xmm2
70; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
71; AVX-NEXT: retq
72 %1 = icmp ugt <2 x i64> %a, %b
73 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
74 ret <2 x i64> %2
75}
76
77define <4 x i64> @max_gt_v4i64(<4 x i64> %a, <4 x i64> %b) {
78; SSE2-LABEL: max_gt_v4i64:
79; SSE2: # BB#0:
80; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648]
81; SSE2-NEXT: movdqa %xmm3, %xmm5
82; SSE2-NEXT: pxor %xmm4, %xmm5
83; SSE2-NEXT: movdqa %xmm1, %xmm6
84; SSE2-NEXT: pxor %xmm4, %xmm6
85; SSE2-NEXT: movdqa %xmm6, %xmm7
86; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
87; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
88; SSE2-NEXT: pcmpeqd %xmm5, %xmm6
89; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
90; SSE2-NEXT: pand %xmm8, %xmm5
91; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
92; SSE2-NEXT: por %xmm5, %xmm6
93; SSE2-NEXT: movdqa %xmm2, %xmm5
94; SSE2-NEXT: pxor %xmm4, %xmm5
95; SSE2-NEXT: pxor %xmm0, %xmm4
96; SSE2-NEXT: movdqa %xmm4, %xmm7
97; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
98; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
99; SSE2-NEXT: pcmpeqd %xmm5, %xmm4
100; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
101; SSE2-NEXT: pand %xmm8, %xmm4
102; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
103; SSE2-NEXT: por %xmm4, %xmm5
104; SSE2-NEXT: pand %xmm5, %xmm0
105; SSE2-NEXT: pandn %xmm2, %xmm5
106; SSE2-NEXT: por %xmm5, %xmm0
107; SSE2-NEXT: pand %xmm6, %xmm1
108; SSE2-NEXT: pandn %xmm3, %xmm6
109; SSE2-NEXT: por %xmm6, %xmm1
110; SSE2-NEXT: retq
111;
112; SSE41-LABEL: max_gt_v4i64:
113; SSE41: # BB#0:
114; SSE41-NEXT: movdqa %xmm0, %xmm8
115; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
116; SSE41-NEXT: movdqa %xmm3, %xmm5
117; SSE41-NEXT: pxor %xmm0, %xmm5
118; SSE41-NEXT: movdqa %xmm1, %xmm6
119; SSE41-NEXT: pxor %xmm0, %xmm6
120; SSE41-NEXT: movdqa %xmm6, %xmm7
121; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
122; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
123; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
124; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
125; SSE41-NEXT: pand %xmm4, %xmm6
126; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
127; SSE41-NEXT: por %xmm6, %xmm5
128; SSE41-NEXT: movdqa %xmm2, %xmm4
129; SSE41-NEXT: pxor %xmm0, %xmm4
130; SSE41-NEXT: pxor %xmm8, %xmm0
131; SSE41-NEXT: movdqa %xmm0, %xmm6
132; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
133; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
134; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
135; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
136; SSE41-NEXT: pand %xmm7, %xmm4
137; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
138; SSE41-NEXT: por %xmm4, %xmm0
139; SSE41-NEXT: blendvpd %xmm8, %xmm2
140; SSE41-NEXT: movdqa %xmm5, %xmm0
141; SSE41-NEXT: blendvpd %xmm1, %xmm3
142; SSE41-NEXT: movapd %xmm2, %xmm0
143; SSE41-NEXT: movapd %xmm3, %xmm1
144; SSE41-NEXT: retq
145;
146; SSE42-LABEL: max_gt_v4i64:
147; SSE42: # BB#0:
148; SSE42-NEXT: movdqa %xmm0, %xmm4
149; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
150; SSE42-NEXT: movdqa %xmm3, %xmm6
151; SSE42-NEXT: pxor %xmm0, %xmm6
152; SSE42-NEXT: movdqa %xmm1, %xmm5
153; SSE42-NEXT: pxor %xmm0, %xmm5
154; SSE42-NEXT: pcmpgtq %xmm6, %xmm5
155; SSE42-NEXT: movdqa %xmm2, %xmm6
156; SSE42-NEXT: pxor %xmm0, %xmm6
157; SSE42-NEXT: pxor %xmm4, %xmm0
158; SSE42-NEXT: pcmpgtq %xmm6, %xmm0
159; SSE42-NEXT: blendvpd %xmm4, %xmm2
160; SSE42-NEXT: movdqa %xmm5, %xmm0
161; SSE42-NEXT: blendvpd %xmm1, %xmm3
162; SSE42-NEXT: movapd %xmm2, %xmm0
163; SSE42-NEXT: movapd %xmm3, %xmm1
164; SSE42-NEXT: retq
165;
166; AVX1-LABEL: max_gt_v4i64:
167; AVX1: # BB#0:
168; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
169; AVX1-NEXT: vmovaps {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
170; AVX1-NEXT: vxorps %xmm3, %xmm2, %xmm2
171; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm4
172; AVX1-NEXT: vxorps %xmm3, %xmm4, %xmm4
173; AVX1-NEXT: vpcmpgtq %xmm2, %xmm4, %xmm2
174; AVX1-NEXT: vxorps %xmm3, %xmm1, %xmm4
175; AVX1-NEXT: vxorps %xmm3, %xmm0, %xmm3
176; AVX1-NEXT: vpcmpgtq %xmm4, %xmm3, %xmm3
177; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
178; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
179; AVX1-NEXT: retq
180;
181; AVX2-LABEL: max_gt_v4i64:
182; AVX2: # BB#0:
183; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
184; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3
185; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2
186; AVX2-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
187; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
188; AVX2-NEXT: retq
189;
190; AVX512-LABEL: max_gt_v4i64:
191; AVX512: # BB#0:
192; AVX512-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
193; AVX512-NEXT: vpxor %ymm2, %ymm1, %ymm3
194; AVX512-NEXT: vpxor %ymm2, %ymm0, %ymm2
195; AVX512-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
196; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
197; AVX512-NEXT: retq
198 %1 = icmp ugt <4 x i64> %a, %b
199 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
200 ret <4 x i64> %2
201}
202
203define <4 x i32> @max_gt_v4i32(<4 x i32> %a, <4 x i32> %b) {
204; SSE2-LABEL: max_gt_v4i32:
205; SSE2: # BB#0:
206; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
207; SSE2-NEXT: movdqa %xmm1, %xmm3
208; SSE2-NEXT: pxor %xmm2, %xmm3
209; SSE2-NEXT: pxor %xmm0, %xmm2
210; SSE2-NEXT: pcmpgtd %xmm3, %xmm2
211; SSE2-NEXT: pand %xmm2, %xmm0
212; SSE2-NEXT: pandn %xmm1, %xmm2
213; SSE2-NEXT: por %xmm2, %xmm0
214; SSE2-NEXT: retq
215;
216; SSE41-LABEL: max_gt_v4i32:
217; SSE41: # BB#0:
218; SSE41-NEXT: pmaxud %xmm1, %xmm0
219; SSE41-NEXT: retq
220;
221; SSE42-LABEL: max_gt_v4i32:
222; SSE42: # BB#0:
223; SSE42-NEXT: pmaxud %xmm1, %xmm0
224; SSE42-NEXT: retq
225;
226; AVX-LABEL: max_gt_v4i32:
227; AVX: # BB#0:
228; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0
229; AVX-NEXT: retq
230 %1 = icmp ugt <4 x i32> %a, %b
231 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
232 ret <4 x i32> %2
233}
234
235define <8 x i32> @max_gt_v8i32(<8 x i32> %a, <8 x i32> %b) {
236; SSE2-LABEL: max_gt_v8i32:
237; SSE2: # BB#0:
238; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,2147483648,2147483648,2147483648]
239; SSE2-NEXT: movdqa %xmm3, %xmm6
240; SSE2-NEXT: pxor %xmm5, %xmm6
241; SSE2-NEXT: movdqa %xmm1, %xmm4
242; SSE2-NEXT: pxor %xmm5, %xmm4
243; SSE2-NEXT: pcmpgtd %xmm6, %xmm4
244; SSE2-NEXT: movdqa %xmm2, %xmm6
245; SSE2-NEXT: pxor %xmm5, %xmm6
246; SSE2-NEXT: pxor %xmm0, %xmm5
247; SSE2-NEXT: pcmpgtd %xmm6, %xmm5
248; SSE2-NEXT: pand %xmm5, %xmm0
249; SSE2-NEXT: pandn %xmm2, %xmm5
250; SSE2-NEXT: por %xmm5, %xmm0
251; SSE2-NEXT: pand %xmm4, %xmm1
252; SSE2-NEXT: pandn %xmm3, %xmm4
253; SSE2-NEXT: por %xmm1, %xmm4
254; SSE2-NEXT: movdqa %xmm4, %xmm1
255; SSE2-NEXT: retq
256;
257; SSE41-LABEL: max_gt_v8i32:
258; SSE41: # BB#0:
259; SSE41-NEXT: pmaxud %xmm2, %xmm0
260; SSE41-NEXT: pmaxud %xmm3, %xmm1
261; SSE41-NEXT: retq
262;
263; SSE42-LABEL: max_gt_v8i32:
264; SSE42: # BB#0:
265; SSE42-NEXT: pmaxud %xmm2, %xmm0
266; SSE42-NEXT: pmaxud %xmm3, %xmm1
267; SSE42-NEXT: retq
268;
269; AVX1-LABEL: max_gt_v8i32:
270; AVX1: # BB#0:
271; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
272; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
273; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2
274; AVX1-NEXT: vpmaxud %xmm1, %xmm0, %xmm0
275; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
276; AVX1-NEXT: retq
277;
278; AVX2-LABEL: max_gt_v8i32:
279; AVX2: # BB#0:
280; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0
281; AVX2-NEXT: retq
282;
283; AVX512-LABEL: max_gt_v8i32:
284; AVX512: # BB#0:
285; AVX512-NEXT: vpmaxud %ymm1, %ymm0, %ymm0
286; AVX512-NEXT: retq
287 %1 = icmp ugt <8 x i32> %a, %b
288 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
289 ret <8 x i32> %2
290}
291
292define <8 x i16> @max_gt_v8i16(<8 x i16> %a, <8 x i16> %b) {
293; SSE2-LABEL: max_gt_v8i16:
294; SSE2: # BB#0:
295; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768]
296; SSE2-NEXT: movdqa %xmm1, %xmm3
297; SSE2-NEXT: pxor %xmm2, %xmm3
298; SSE2-NEXT: pxor %xmm0, %xmm2
299; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
300; SSE2-NEXT: pand %xmm2, %xmm0
301; SSE2-NEXT: pandn %xmm1, %xmm2
302; SSE2-NEXT: por %xmm2, %xmm0
303; SSE2-NEXT: retq
304;
305; SSE41-LABEL: max_gt_v8i16:
306; SSE41: # BB#0:
307; SSE41-NEXT: pmaxuw %xmm1, %xmm0
308; SSE41-NEXT: retq
309;
310; SSE42-LABEL: max_gt_v8i16:
311; SSE42: # BB#0:
312; SSE42-NEXT: pmaxuw %xmm1, %xmm0
313; SSE42-NEXT: retq
314;
315; AVX-LABEL: max_gt_v8i16:
316; AVX: # BB#0:
317; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0
318; AVX-NEXT: retq
319 %1 = icmp ugt <8 x i16> %a, %b
320 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
321 ret <8 x i16> %2
322}
323
324define <16 x i16> @max_gt_v16i16(<16 x i16> %a, <16 x i16> %b) {
325; SSE2-LABEL: max_gt_v16i16:
326; SSE2: # BB#0:
327; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [32768,32768,32768,32768,32768,32768,32768,32768]
328; SSE2-NEXT: movdqa %xmm3, %xmm6
329; SSE2-NEXT: pxor %xmm5, %xmm6
330; SSE2-NEXT: movdqa %xmm1, %xmm4
331; SSE2-NEXT: pxor %xmm5, %xmm4
332; SSE2-NEXT: pcmpgtw %xmm6, %xmm4
333; SSE2-NEXT: movdqa %xmm2, %xmm6
334; SSE2-NEXT: pxor %xmm5, %xmm6
335; SSE2-NEXT: pxor %xmm0, %xmm5
336; SSE2-NEXT: pcmpgtw %xmm6, %xmm5
337; SSE2-NEXT: pand %xmm5, %xmm0
338; SSE2-NEXT: pandn %xmm2, %xmm5
339; SSE2-NEXT: por %xmm5, %xmm0
340; SSE2-NEXT: pand %xmm4, %xmm1
341; SSE2-NEXT: pandn %xmm3, %xmm4
342; SSE2-NEXT: por %xmm1, %xmm4
343; SSE2-NEXT: movdqa %xmm4, %xmm1
344; SSE2-NEXT: retq
345;
346; SSE41-LABEL: max_gt_v16i16:
347; SSE41: # BB#0:
348; SSE41-NEXT: pmaxuw %xmm2, %xmm0
349; SSE41-NEXT: pmaxuw %xmm3, %xmm1
350; SSE41-NEXT: retq
351;
352; SSE42-LABEL: max_gt_v16i16:
353; SSE42: # BB#0:
354; SSE42-NEXT: pmaxuw %xmm2, %xmm0
355; SSE42-NEXT: pmaxuw %xmm3, %xmm1
356; SSE42-NEXT: retq
357;
358; AVX1-LABEL: max_gt_v16i16:
359; AVX1: # BB#0:
360; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
361; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
362; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2
363; AVX1-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0
364; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
365; AVX1-NEXT: retq
366;
367; AVX2-LABEL: max_gt_v16i16:
368; AVX2: # BB#0:
369; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0
370; AVX2-NEXT: retq
371;
372; AVX512-LABEL: max_gt_v16i16:
373; AVX512: # BB#0:
374; AVX512-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0
375; AVX512-NEXT: retq
376 %1 = icmp ugt <16 x i16> %a, %b
377 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
378 ret <16 x i16> %2
379}
380
381define <16 x i8> @max_gt_v16i8(<16 x i8> %a, <16 x i8> %b) {
382; SSE-LABEL: max_gt_v16i8:
383; SSE: # BB#0:
384; SSE-NEXT: pmaxub %xmm1, %xmm0
385; SSE-NEXT: retq
386;
387; AVX-LABEL: max_gt_v16i8:
388; AVX: # BB#0:
389; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0
390; AVX-NEXT: retq
391 %1 = icmp ugt <16 x i8> %a, %b
392 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
393 ret <16 x i8> %2
394}
395
396define <32 x i8> @max_gt_v32i8(<32 x i8> %a, <32 x i8> %b) {
397; SSE-LABEL: max_gt_v32i8:
398; SSE: # BB#0:
399; SSE-NEXT: pmaxub %xmm2, %xmm0
400; SSE-NEXT: pmaxub %xmm3, %xmm1
401; SSE-NEXT: retq
402;
403; AVX1-LABEL: max_gt_v32i8:
404; AVX1: # BB#0:
405; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
406; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
407; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2
408; AVX1-NEXT: vpmaxub %xmm1, %xmm0, %xmm0
409; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
410; AVX1-NEXT: retq
411;
412; AVX2-LABEL: max_gt_v32i8:
413; AVX2: # BB#0:
414; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0
415; AVX2-NEXT: retq
416;
417; AVX512-LABEL: max_gt_v32i8:
418; AVX512: # BB#0:
419; AVX512-NEXT: vpmaxub %ymm1, %ymm0, %ymm0
420; AVX512-NEXT: retq
421 %1 = icmp ugt <32 x i8> %a, %b
422 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
423 ret <32 x i8> %2
424}
425
426;
427; Unsigned Maximum (GE)
428;
429
430define <2 x i64> @max_ge_v2i64(<2 x i64> %a, <2 x i64> %b) {
431; SSE2-LABEL: max_ge_v2i64:
432; SSE2: # BB#0:
433; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
434; SSE2-NEXT: movdqa %xmm0, %xmm3
435; SSE2-NEXT: pxor %xmm2, %xmm3
436; SSE2-NEXT: pxor %xmm1, %xmm2
437; SSE2-NEXT: movdqa %xmm2, %xmm4
438; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
439; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
440; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
441; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
442; SSE2-NEXT: pand %xmm5, %xmm2
443; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
444; SSE2-NEXT: por %xmm2, %xmm3
445; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
446; SSE2-NEXT: pxor %xmm3, %xmm2
447; SSE2-NEXT: pandn %xmm0, %xmm3
448; SSE2-NEXT: pandn %xmm1, %xmm2
449; SSE2-NEXT: por %xmm3, %xmm2
450; SSE2-NEXT: movdqa %xmm2, %xmm0
451; SSE2-NEXT: retq
452;
453; SSE41-LABEL: max_ge_v2i64:
454; SSE41: # BB#0:
455; SSE41-NEXT: movdqa %xmm0, %xmm2
456; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
457; SSE41-NEXT: movdqa %xmm2, %xmm3
458; SSE41-NEXT: pxor %xmm0, %xmm3
459; SSE41-NEXT: pxor %xmm1, %xmm0
460; SSE41-NEXT: movdqa %xmm0, %xmm4
461; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
462; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
463; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
464; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
465; SSE41-NEXT: pand %xmm5, %xmm0
466; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
467; SSE41-NEXT: por %xmm0, %xmm3
468; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
469; SSE41-NEXT: pxor %xmm3, %xmm0
470; SSE41-NEXT: blendvpd %xmm2, %xmm1
471; SSE41-NEXT: movapd %xmm1, %xmm0
472; SSE41-NEXT: retq
473;
474; SSE42-LABEL: max_ge_v2i64:
475; SSE42: # BB#0:
476; SSE42-NEXT: movdqa %xmm0, %xmm2
477; SSE42-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
478; SSE42-NEXT: pxor %xmm3, %xmm0
479; SSE42-NEXT: pxor %xmm1, %xmm3
480; SSE42-NEXT: pcmpgtq %xmm0, %xmm3
481; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
482; SSE42-NEXT: pxor %xmm3, %xmm0
483; SSE42-NEXT: blendvpd %xmm2, %xmm1
484; SSE42-NEXT: movapd %xmm1, %xmm0
485; SSE42-NEXT: retq
486;
487; AVX-LABEL: max_ge_v2i64:
488; AVX: # BB#0:
489; AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
490; AVX-NEXT: vpxor %xmm2, %xmm0, %xmm3
491; AVX-NEXT: vpxor %xmm2, %xmm1, %xmm2
492; AVX-NEXT: vpcmpgtq %xmm3, %xmm2, %xmm2
493; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
494; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
495; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
496; AVX-NEXT: retq
497 %1 = icmp uge <2 x i64> %a, %b
498 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
499 ret <2 x i64> %2
500}
501
502define <4 x i64> @max_ge_v4i64(<4 x i64> %a, <4 x i64> %b) {
503; SSE2-LABEL: max_ge_v4i64:
504; SSE2: # BB#0:
505; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648]
506; SSE2-NEXT: movdqa %xmm1, %xmm4
507; SSE2-NEXT: pxor %xmm7, %xmm4
508; SSE2-NEXT: movdqa %xmm3, %xmm5
509; SSE2-NEXT: pxor %xmm7, %xmm5
510; SSE2-NEXT: movdqa %xmm5, %xmm6
511; SSE2-NEXT: pcmpgtd %xmm4, %xmm6
512; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
513; SSE2-NEXT: pcmpeqd %xmm4, %xmm5
514; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
515; SSE2-NEXT: pand %xmm8, %xmm4
516; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
517; SSE2-NEXT: por %xmm4, %xmm8
518; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
519; SSE2-NEXT: movdqa %xmm8, %xmm9
520; SSE2-NEXT: pxor %xmm4, %xmm9
521; SSE2-NEXT: movdqa %xmm0, %xmm6
522; SSE2-NEXT: pxor %xmm7, %xmm6
523; SSE2-NEXT: pxor %xmm2, %xmm7
524; SSE2-NEXT: movdqa %xmm7, %xmm5
525; SSE2-NEXT: pcmpgtd %xmm6, %xmm5
526; SSE2-NEXT: pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
527; SSE2-NEXT: pcmpeqd %xmm6, %xmm7
528; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
529; SSE2-NEXT: pand %xmm10, %xmm6
530; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
531; SSE2-NEXT: por %xmm6, %xmm5
532; SSE2-NEXT: pxor %xmm5, %xmm4
533; SSE2-NEXT: pandn %xmm0, %xmm5
534; SSE2-NEXT: pandn %xmm2, %xmm4
535; SSE2-NEXT: por %xmm5, %xmm4
536; SSE2-NEXT: pandn %xmm1, %xmm8
537; SSE2-NEXT: pandn %xmm3, %xmm9
538; SSE2-NEXT: por %xmm8, %xmm9
539; SSE2-NEXT: movdqa %xmm4, %xmm0
540; SSE2-NEXT: movdqa %xmm9, %xmm1
541; SSE2-NEXT: retq
542;
543; SSE41-LABEL: max_ge_v4i64:
544; SSE41: # BB#0:
545; SSE41-NEXT: movdqa %xmm0, %xmm8
546; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
547; SSE41-NEXT: movdqa %xmm1, %xmm5
548; SSE41-NEXT: pxor %xmm0, %xmm5
549; SSE41-NEXT: movdqa %xmm3, %xmm6
550; SSE41-NEXT: pxor %xmm0, %xmm6
551; SSE41-NEXT: movdqa %xmm6, %xmm7
552; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
553; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
554; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
555; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
556; SSE41-NEXT: pand %xmm4, %xmm6
557; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
558; SSE41-NEXT: por %xmm6, %xmm5
559; SSE41-NEXT: pcmpeqd %xmm9, %xmm9
560; SSE41-NEXT: pxor %xmm9, %xmm5
561; SSE41-NEXT: movdqa %xmm8, %xmm6
562; SSE41-NEXT: pxor %xmm0, %xmm6
563; SSE41-NEXT: pxor %xmm2, %xmm0
564; SSE41-NEXT: movdqa %xmm0, %xmm7
565; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
566; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
567; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
568; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
569; SSE41-NEXT: pand %xmm4, %xmm6
570; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
571; SSE41-NEXT: por %xmm6, %xmm0
572; SSE41-NEXT: pxor %xmm9, %xmm0
573; SSE41-NEXT: blendvpd %xmm8, %xmm2
574; SSE41-NEXT: movdqa %xmm5, %xmm0
575; SSE41-NEXT: blendvpd %xmm1, %xmm3
576; SSE41-NEXT: movapd %xmm2, %xmm0
577; SSE41-NEXT: movapd %xmm3, %xmm1
578; SSE41-NEXT: retq
579;
580; SSE42-LABEL: max_ge_v4i64:
581; SSE42: # BB#0:
582; SSE42-NEXT: movdqa %xmm0, %xmm4
583; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
584; SSE42-NEXT: movdqa %xmm1, %xmm6
585; SSE42-NEXT: pxor %xmm0, %xmm6
586; SSE42-NEXT: movdqa %xmm3, %xmm5
587; SSE42-NEXT: pxor %xmm0, %xmm5
588; SSE42-NEXT: pcmpgtq %xmm6, %xmm5
589; SSE42-NEXT: pcmpeqd %xmm6, %xmm6
590; SSE42-NEXT: pxor %xmm6, %xmm5
591; SSE42-NEXT: movdqa %xmm4, %xmm7
592; SSE42-NEXT: pxor %xmm0, %xmm7
593; SSE42-NEXT: pxor %xmm2, %xmm0
594; SSE42-NEXT: pcmpgtq %xmm7, %xmm0
595; SSE42-NEXT: pxor %xmm6, %xmm0
596; SSE42-NEXT: blendvpd %xmm4, %xmm2
597; SSE42-NEXT: movdqa %xmm5, %xmm0
598; SSE42-NEXT: blendvpd %xmm1, %xmm3
599; SSE42-NEXT: movapd %xmm2, %xmm0
600; SSE42-NEXT: movapd %xmm3, %xmm1
601; SSE42-NEXT: retq
602;
603; AVX1-LABEL: max_ge_v4i64:
604; AVX1: # BB#0:
605; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
606; AVX1-NEXT: vmovaps {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
607; AVX1-NEXT: vxorps %xmm3, %xmm2, %xmm2
608; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4
609; AVX1-NEXT: vxorps %xmm3, %xmm4, %xmm4
610; AVX1-NEXT: vpcmpgtq %xmm2, %xmm4, %xmm2
611; AVX1-NEXT: vpcmpeqd %xmm4, %xmm4, %xmm4
612; AVX1-NEXT: vpxor %xmm4, %xmm2, %xmm2
613; AVX1-NEXT: vxorps %xmm3, %xmm0, %xmm5
614; AVX1-NEXT: vxorps %xmm3, %xmm1, %xmm3
615; AVX1-NEXT: vpcmpgtq %xmm5, %xmm3, %xmm3
616; AVX1-NEXT: vpxor %xmm4, %xmm3, %xmm3
617; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
618; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
619; AVX1-NEXT: retq
620;
621; AVX2-LABEL: max_ge_v4i64:
622; AVX2: # BB#0:
623; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
624; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3
625; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2
626; AVX2-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
627; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
628; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
629; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
630; AVX2-NEXT: retq
631;
632; AVX512-LABEL: max_ge_v4i64:
633; AVX512: # BB#0:
634; AVX512-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
635; AVX512-NEXT: vpxor %ymm2, %ymm0, %ymm3
636; AVX512-NEXT: vpxor %ymm2, %ymm1, %ymm2
637; AVX512-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
638; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
639; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
640; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
641; AVX512-NEXT: retq
642 %1 = icmp uge <4 x i64> %a, %b
643 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
644 ret <4 x i64> %2
645}
646
647define <4 x i32> @max_ge_v4i32(<4 x i32> %a, <4 x i32> %b) {
648; SSE2-LABEL: max_ge_v4i32:
649; SSE2: # BB#0:
650; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648]
651; SSE2-NEXT: movdqa %xmm0, %xmm2
652; SSE2-NEXT: pxor %xmm3, %xmm2
653; SSE2-NEXT: pxor %xmm1, %xmm3
654; SSE2-NEXT: pcmpgtd %xmm2, %xmm3
655; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
656; SSE2-NEXT: pxor %xmm3, %xmm2
657; SSE2-NEXT: pandn %xmm0, %xmm3
658; SSE2-NEXT: pandn %xmm1, %xmm2
659; SSE2-NEXT: por %xmm3, %xmm2
660; SSE2-NEXT: movdqa %xmm2, %xmm0
661; SSE2-NEXT: retq
662;
663; SSE41-LABEL: max_ge_v4i32:
664; SSE41: # BB#0:
665; SSE41-NEXT: pmaxud %xmm1, %xmm0
666; SSE41-NEXT: retq
667;
668; SSE42-LABEL: max_ge_v4i32:
669; SSE42: # BB#0:
670; SSE42-NEXT: pmaxud %xmm1, %xmm0
671; SSE42-NEXT: retq
672;
673; AVX-LABEL: max_ge_v4i32:
674; AVX: # BB#0:
675; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0
676; AVX-NEXT: retq
677 %1 = icmp uge <4 x i32> %a, %b
678 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
679 ret <4 x i32> %2
680}
681
682define <8 x i32> @max_ge_v8i32(<8 x i32> %a, <8 x i32> %b) {
683; SSE2-LABEL: max_ge_v8i32:
684; SSE2: # BB#0:
685; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648]
686; SSE2-NEXT: movdqa %xmm1, %xmm4
687; SSE2-NEXT: pxor %xmm6, %xmm4
688; SSE2-NEXT: movdqa %xmm3, %xmm7
689; SSE2-NEXT: pxor %xmm6, %xmm7
690; SSE2-NEXT: pcmpgtd %xmm4, %xmm7
691; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
692; SSE2-NEXT: movdqa %xmm7, %xmm5
693; SSE2-NEXT: pxor %xmm4, %xmm5
694; SSE2-NEXT: movdqa %xmm0, %xmm8
695; SSE2-NEXT: pxor %xmm6, %xmm8
696; SSE2-NEXT: pxor %xmm2, %xmm6
697; SSE2-NEXT: pcmpgtd %xmm8, %xmm6
698; SSE2-NEXT: pxor %xmm6, %xmm4
699; SSE2-NEXT: pandn %xmm0, %xmm6
700; SSE2-NEXT: pandn %xmm2, %xmm4
701; SSE2-NEXT: por %xmm6, %xmm4
702; SSE2-NEXT: pandn %xmm1, %xmm7
703; SSE2-NEXT: pandn %xmm3, %xmm5
704; SSE2-NEXT: por %xmm7, %xmm5
705; SSE2-NEXT: movdqa %xmm4, %xmm0
706; SSE2-NEXT: movdqa %xmm5, %xmm1
707; SSE2-NEXT: retq
708;
709; SSE41-LABEL: max_ge_v8i32:
710; SSE41: # BB#0:
711; SSE41-NEXT: pmaxud %xmm2, %xmm0
712; SSE41-NEXT: pmaxud %xmm3, %xmm1
713; SSE41-NEXT: retq
714;
715; SSE42-LABEL: max_ge_v8i32:
716; SSE42: # BB#0:
717; SSE42-NEXT: pmaxud %xmm2, %xmm0
718; SSE42-NEXT: pmaxud %xmm3, %xmm1
719; SSE42-NEXT: retq
720;
721; AVX1-LABEL: max_ge_v8i32:
722; AVX1: # BB#0:
723; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
724; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
725; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2
726; AVX1-NEXT: vpmaxud %xmm1, %xmm0, %xmm0
727; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
728; AVX1-NEXT: retq
729;
730; AVX2-LABEL: max_ge_v8i32:
731; AVX2: # BB#0:
732; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0
733; AVX2-NEXT: retq
734;
735; AVX512-LABEL: max_ge_v8i32:
736; AVX512: # BB#0:
737; AVX512-NEXT: vpmaxud %ymm1, %ymm0, %ymm0
738; AVX512-NEXT: retq
739 %1 = icmp uge <8 x i32> %a, %b
740 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
741 ret <8 x i32> %2
742}
743
744define <8 x i16> @max_ge_v8i16(<8 x i16> %a, <8 x i16> %b) {
745; SSE2-LABEL: max_ge_v8i16:
746; SSE2: # BB#0:
747; SSE2-NEXT: movdqa %xmm1, %xmm2
748; SSE2-NEXT: psubusw %xmm0, %xmm2
749; SSE2-NEXT: pxor %xmm3, %xmm3
750; SSE2-NEXT: pcmpeqw %xmm2, %xmm3
751; SSE2-NEXT: pand %xmm3, %xmm0
752; SSE2-NEXT: pandn %xmm1, %xmm3
753; SSE2-NEXT: por %xmm3, %xmm0
754; SSE2-NEXT: retq
755;
756; SSE41-LABEL: max_ge_v8i16:
757; SSE41: # BB#0:
758; SSE41-NEXT: pmaxuw %xmm1, %xmm0
759; SSE41-NEXT: retq
760;
761; SSE42-LABEL: max_ge_v8i16:
762; SSE42: # BB#0:
763; SSE42-NEXT: pmaxuw %xmm1, %xmm0
764; SSE42-NEXT: retq
765;
766; AVX-LABEL: max_ge_v8i16:
767; AVX: # BB#0:
768; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0
769; AVX-NEXT: retq
770 %1 = icmp uge <8 x i16> %a, %b
771 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
772 ret <8 x i16> %2
773}
774
775define <16 x i16> @max_ge_v16i16(<16 x i16> %a, <16 x i16> %b) {
776; SSE2-LABEL: max_ge_v16i16:
777; SSE2: # BB#0:
778; SSE2-NEXT: movdqa %xmm3, %xmm4
779; SSE2-NEXT: psubusw %xmm1, %xmm4
780; SSE2-NEXT: pxor %xmm5, %xmm5
781; SSE2-NEXT: pcmpeqw %xmm5, %xmm4
782; SSE2-NEXT: movdqa %xmm2, %xmm6
783; SSE2-NEXT: psubusw %xmm0, %xmm6
784; SSE2-NEXT: pcmpeqw %xmm5, %xmm6
785; SSE2-NEXT: pand %xmm6, %xmm0
786; SSE2-NEXT: pandn %xmm2, %xmm6
787; SSE2-NEXT: por %xmm6, %xmm0
788; SSE2-NEXT: pand %xmm4, %xmm1
789; SSE2-NEXT: pandn %xmm3, %xmm4
790; SSE2-NEXT: por %xmm4, %xmm1
791; SSE2-NEXT: retq
792;
793; SSE41-LABEL: max_ge_v16i16:
794; SSE41: # BB#0:
795; SSE41-NEXT: pmaxuw %xmm2, %xmm0
796; SSE41-NEXT: pmaxuw %xmm3, %xmm1
797; SSE41-NEXT: retq
798;
799; SSE42-LABEL: max_ge_v16i16:
800; SSE42: # BB#0:
801; SSE42-NEXT: pmaxuw %xmm2, %xmm0
802; SSE42-NEXT: pmaxuw %xmm3, %xmm1
803; SSE42-NEXT: retq
804;
805; AVX1-LABEL: max_ge_v16i16:
806; AVX1: # BB#0:
807; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
808; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
809; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2
810; AVX1-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0
811; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
812; AVX1-NEXT: retq
813;
814; AVX2-LABEL: max_ge_v16i16:
815; AVX2: # BB#0:
816; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0
817; AVX2-NEXT: retq
818;
819; AVX512-LABEL: max_ge_v16i16:
820; AVX512: # BB#0:
821; AVX512-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0
822; AVX512-NEXT: retq
823 %1 = icmp uge <16 x i16> %a, %b
824 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
825 ret <16 x i16> %2
826}
827
828define <16 x i8> @max_ge_v16i8(<16 x i8> %a, <16 x i8> %b) {
829; SSE-LABEL: max_ge_v16i8:
830; SSE: # BB#0:
831; SSE-NEXT: pmaxub %xmm1, %xmm0
832; SSE-NEXT: retq
833;
834; AVX-LABEL: max_ge_v16i8:
835; AVX: # BB#0:
836; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0
837; AVX-NEXT: retq
838 %1 = icmp uge <16 x i8> %a, %b
839 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
840 ret <16 x i8> %2
841}
842
843define <32 x i8> @max_ge_v32i8(<32 x i8> %a, <32 x i8> %b) {
844; SSE-LABEL: max_ge_v32i8:
845; SSE: # BB#0:
846; SSE-NEXT: pmaxub %xmm2, %xmm0
847; SSE-NEXT: pmaxub %xmm3, %xmm1
848; SSE-NEXT: retq
849;
850; AVX1-LABEL: max_ge_v32i8:
851; AVX1: # BB#0:
852; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
853; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
854; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2
855; AVX1-NEXT: vpmaxub %xmm1, %xmm0, %xmm0
856; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
857; AVX1-NEXT: retq
858;
859; AVX2-LABEL: max_ge_v32i8:
860; AVX2: # BB#0:
861; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0
862; AVX2-NEXT: retq
863;
864; AVX512-LABEL: max_ge_v32i8:
865; AVX512: # BB#0:
866; AVX512-NEXT: vpmaxub %ymm1, %ymm0, %ymm0
867; AVX512-NEXT: retq
868 %1 = icmp uge <32 x i8> %a, %b
869 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
870 ret <32 x i8> %2
871}
872
873;
874; Unsigned Minimum (LT)
875;
876
877define <2 x i64> @max_lt_v2i64(<2 x i64> %a, <2 x i64> %b) {
878; SSE2-LABEL: max_lt_v2i64:
879; SSE2: # BB#0:
880; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
881; SSE2-NEXT: movdqa %xmm0, %xmm3
882; SSE2-NEXT: pxor %xmm2, %xmm3
883; SSE2-NEXT: pxor %xmm1, %xmm2
884; SSE2-NEXT: movdqa %xmm2, %xmm4
885; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
886; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
887; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
888; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
889; SSE2-NEXT: pand %xmm5, %xmm2
890; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
891; SSE2-NEXT: por %xmm2, %xmm3
892; SSE2-NEXT: pand %xmm3, %xmm0
893; SSE2-NEXT: pandn %xmm1, %xmm3
894; SSE2-NEXT: por %xmm3, %xmm0
895; SSE2-NEXT: retq
896;
897; SSE41-LABEL: max_lt_v2i64:
898; SSE41: # BB#0:
899; SSE41-NEXT: movdqa %xmm0, %xmm2
900; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
901; SSE41-NEXT: movdqa %xmm2, %xmm3
902; SSE41-NEXT: pxor %xmm0, %xmm3
903; SSE41-NEXT: pxor %xmm1, %xmm0
904; SSE41-NEXT: movdqa %xmm0, %xmm4
905; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
906; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
907; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
908; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
909; SSE41-NEXT: pand %xmm5, %xmm3
910; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
911; SSE41-NEXT: por %xmm3, %xmm0
912; SSE41-NEXT: blendvpd %xmm2, %xmm1
913; SSE41-NEXT: movapd %xmm1, %xmm0
914; SSE41-NEXT: retq
915;
916; SSE42-LABEL: max_lt_v2i64:
917; SSE42: # BB#0:
918; SSE42-NEXT: movdqa %xmm0, %xmm2
919; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
920; SSE42-NEXT: movdqa %xmm2, %xmm3
921; SSE42-NEXT: pxor %xmm0, %xmm3
922; SSE42-NEXT: pxor %xmm1, %xmm0
923; SSE42-NEXT: pcmpgtq %xmm3, %xmm0
924; SSE42-NEXT: blendvpd %xmm2, %xmm1
925; SSE42-NEXT: movapd %xmm1, %xmm0
926; SSE42-NEXT: retq
927;
928; AVX-LABEL: max_lt_v2i64:
929; AVX: # BB#0:
930; AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
931; AVX-NEXT: vpxor %xmm2, %xmm0, %xmm3
932; AVX-NEXT: vpxor %xmm2, %xmm1, %xmm2
933; AVX-NEXT: vpcmpgtq %xmm3, %xmm2, %xmm2
934; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
935; AVX-NEXT: retq
936 %1 = icmp ult <2 x i64> %a, %b
937 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
938 ret <2 x i64> %2
939}
940
941define <4 x i64> @max_lt_v4i64(<4 x i64> %a, <4 x i64> %b) {
942; SSE2-LABEL: max_lt_v4i64:
943; SSE2: # BB#0:
944; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648]
945; SSE2-NEXT: movdqa %xmm1, %xmm5
946; SSE2-NEXT: pxor %xmm4, %xmm5
947; SSE2-NEXT: movdqa %xmm3, %xmm6
948; SSE2-NEXT: pxor %xmm4, %xmm6
949; SSE2-NEXT: movdqa %xmm6, %xmm7
950; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
951; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
952; SSE2-NEXT: pcmpeqd %xmm5, %xmm6
953; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
954; SSE2-NEXT: pand %xmm8, %xmm5
955; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
956; SSE2-NEXT: por %xmm5, %xmm6
957; SSE2-NEXT: movdqa %xmm0, %xmm5
958; SSE2-NEXT: pxor %xmm4, %xmm5
959; SSE2-NEXT: pxor %xmm2, %xmm4
960; SSE2-NEXT: movdqa %xmm4, %xmm7
961; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
962; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
963; SSE2-NEXT: pcmpeqd %xmm5, %xmm4
964; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
965; SSE2-NEXT: pand %xmm8, %xmm4
966; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
967; SSE2-NEXT: por %xmm4, %xmm5
968; SSE2-NEXT: pand %xmm5, %xmm0
969; SSE2-NEXT: pandn %xmm2, %xmm5
970; SSE2-NEXT: por %xmm5, %xmm0
971; SSE2-NEXT: pand %xmm6, %xmm1
972; SSE2-NEXT: pandn %xmm3, %xmm6
973; SSE2-NEXT: por %xmm6, %xmm1
974; SSE2-NEXT: retq
975;
976; SSE41-LABEL: max_lt_v4i64:
977; SSE41: # BB#0:
978; SSE41-NEXT: movdqa %xmm0, %xmm8
979; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
980; SSE41-NEXT: movdqa %xmm1, %xmm5
981; SSE41-NEXT: pxor %xmm0, %xmm5
982; SSE41-NEXT: movdqa %xmm3, %xmm6
983; SSE41-NEXT: pxor %xmm0, %xmm6
984; SSE41-NEXT: movdqa %xmm6, %xmm7
985; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
986; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
987; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
988; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
989; SSE41-NEXT: pand %xmm4, %xmm6
990; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
991; SSE41-NEXT: por %xmm6, %xmm5
992; SSE41-NEXT: movdqa %xmm8, %xmm4
993; SSE41-NEXT: pxor %xmm0, %xmm4
994; SSE41-NEXT: pxor %xmm2, %xmm0
995; SSE41-NEXT: movdqa %xmm0, %xmm6
996; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
997; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
998; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
999; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
1000; SSE41-NEXT: pand %xmm7, %xmm4
1001; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
1002; SSE41-NEXT: por %xmm4, %xmm0
1003; SSE41-NEXT: blendvpd %xmm8, %xmm2
1004; SSE41-NEXT: movdqa %xmm5, %xmm0
1005; SSE41-NEXT: blendvpd %xmm1, %xmm3
1006; SSE41-NEXT: movapd %xmm2, %xmm0
1007; SSE41-NEXT: movapd %xmm3, %xmm1
1008; SSE41-NEXT: retq
1009;
1010; SSE42-LABEL: max_lt_v4i64:
1011; SSE42: # BB#0:
1012; SSE42-NEXT: movdqa %xmm0, %xmm4
1013; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
1014; SSE42-NEXT: movdqa %xmm1, %xmm6
1015; SSE42-NEXT: pxor %xmm0, %xmm6
1016; SSE42-NEXT: movdqa %xmm3, %xmm5
1017; SSE42-NEXT: pxor %xmm0, %xmm5
1018; SSE42-NEXT: pcmpgtq %xmm6, %xmm5
1019; SSE42-NEXT: movdqa %xmm4, %xmm6
1020; SSE42-NEXT: pxor %xmm0, %xmm6
1021; SSE42-NEXT: pxor %xmm2, %xmm0
1022; SSE42-NEXT: pcmpgtq %xmm6, %xmm0
1023; SSE42-NEXT: blendvpd %xmm4, %xmm2
1024; SSE42-NEXT: movdqa %xmm5, %xmm0
1025; SSE42-NEXT: blendvpd %xmm1, %xmm3
1026; SSE42-NEXT: movapd %xmm2, %xmm0
1027; SSE42-NEXT: movapd %xmm3, %xmm1
1028; SSE42-NEXT: retq
1029;
1030; AVX1-LABEL: max_lt_v4i64:
1031; AVX1: # BB#0:
1032; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
1033; AVX1-NEXT: vmovaps {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
1034; AVX1-NEXT: vxorps %xmm3, %xmm2, %xmm2
1035; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4
1036; AVX1-NEXT: vxorps %xmm3, %xmm4, %xmm4
1037; AVX1-NEXT: vpcmpgtq %xmm2, %xmm4, %xmm2
1038; AVX1-NEXT: vxorps %xmm3, %xmm0, %xmm4
1039; AVX1-NEXT: vxorps %xmm3, %xmm1, %xmm3
1040; AVX1-NEXT: vpcmpgtq %xmm4, %xmm3, %xmm3
1041; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
1042; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1043; AVX1-NEXT: retq
1044;
1045; AVX2-LABEL: max_lt_v4i64:
1046; AVX2: # BB#0:
1047; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
1048; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3
1049; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2
1050; AVX2-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
1051; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1052; AVX2-NEXT: retq
1053;
1054; AVX512-LABEL: max_lt_v4i64:
1055; AVX512: # BB#0:
1056; AVX512-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
1057; AVX512-NEXT: vpxor %ymm2, %ymm0, %ymm3
1058; AVX512-NEXT: vpxor %ymm2, %ymm1, %ymm2
1059; AVX512-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
1060; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1061; AVX512-NEXT: retq
1062 %1 = icmp ult <4 x i64> %a, %b
1063 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
1064 ret <4 x i64> %2
1065}
1066
1067define <4 x i32> @max_lt_v4i32(<4 x i32> %a, <4 x i32> %b) {
1068; SSE2-LABEL: max_lt_v4i32:
1069; SSE2: # BB#0:
1070; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
1071; SSE2-NEXT: movdqa %xmm0, %xmm3
1072; SSE2-NEXT: pxor %xmm2, %xmm3
1073; SSE2-NEXT: pxor %xmm1, %xmm2
1074; SSE2-NEXT: pcmpgtd %xmm3, %xmm2
1075; SSE2-NEXT: pand %xmm2, %xmm0
1076; SSE2-NEXT: pandn %xmm1, %xmm2
1077; SSE2-NEXT: por %xmm2, %xmm0
1078; SSE2-NEXT: retq
1079;
1080; SSE41-LABEL: max_lt_v4i32:
1081; SSE41: # BB#0:
1082; SSE41-NEXT: pminud %xmm1, %xmm0
1083; SSE41-NEXT: retq
1084;
1085; SSE42-LABEL: max_lt_v4i32:
1086; SSE42: # BB#0:
1087; SSE42-NEXT: pminud %xmm1, %xmm0
1088; SSE42-NEXT: retq
1089;
1090; AVX-LABEL: max_lt_v4i32:
1091; AVX: # BB#0:
1092; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0
1093; AVX-NEXT: retq
1094 %1 = icmp ult <4 x i32> %a, %b
1095 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1096 ret <4 x i32> %2
1097}
1098
1099define <8 x i32> @max_lt_v8i32(<8 x i32> %a, <8 x i32> %b) {
1100; SSE2-LABEL: max_lt_v8i32:
1101; SSE2: # BB#0:
1102; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648]
1103; SSE2-NEXT: movdqa %xmm1, %xmm5
1104; SSE2-NEXT: pxor %xmm4, %xmm5
1105; SSE2-NEXT: movdqa %xmm3, %xmm6
1106; SSE2-NEXT: pxor %xmm4, %xmm6
1107; SSE2-NEXT: pcmpgtd %xmm5, %xmm6
1108; SSE2-NEXT: movdqa %xmm0, %xmm5
1109; SSE2-NEXT: pxor %xmm4, %xmm5
1110; SSE2-NEXT: pxor %xmm2, %xmm4
1111; SSE2-NEXT: pcmpgtd %xmm5, %xmm4
1112; SSE2-NEXT: pand %xmm4, %xmm0
1113; SSE2-NEXT: pandn %xmm2, %xmm4
1114; SSE2-NEXT: por %xmm4, %xmm0
1115; SSE2-NEXT: pand %xmm6, %xmm1
1116; SSE2-NEXT: pandn %xmm3, %xmm6
1117; SSE2-NEXT: por %xmm6, %xmm1
1118; SSE2-NEXT: retq
1119;
1120; SSE41-LABEL: max_lt_v8i32:
1121; SSE41: # BB#0:
1122; SSE41-NEXT: pminud %xmm2, %xmm0
1123; SSE41-NEXT: pminud %xmm3, %xmm1
1124; SSE41-NEXT: retq
1125;
1126; SSE42-LABEL: max_lt_v8i32:
1127; SSE42: # BB#0:
1128; SSE42-NEXT: pminud %xmm2, %xmm0
1129; SSE42-NEXT: pminud %xmm3, %xmm1
1130; SSE42-NEXT: retq
1131;
1132; AVX1-LABEL: max_lt_v8i32:
1133; AVX1: # BB#0:
1134; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1135; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1136; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2
1137; AVX1-NEXT: vpminud %xmm1, %xmm0, %xmm0
1138; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1139; AVX1-NEXT: retq
1140;
1141; AVX2-LABEL: max_lt_v8i32:
1142; AVX2: # BB#0:
1143; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0
1144; AVX2-NEXT: retq
1145;
1146; AVX512-LABEL: max_lt_v8i32:
1147; AVX512: # BB#0:
1148; AVX512-NEXT: vpminud %ymm1, %ymm0, %ymm0
1149; AVX512-NEXT: retq
1150 %1 = icmp ult <8 x i32> %a, %b
1151 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1152 ret <8 x i32> %2
1153}
1154
1155define <8 x i16> @max_lt_v8i16(<8 x i16> %a, <8 x i16> %b) {
1156; SSE2-LABEL: max_lt_v8i16:
1157; SSE2: # BB#0:
1158; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768]
1159; SSE2-NEXT: movdqa %xmm0, %xmm3
1160; SSE2-NEXT: pxor %xmm2, %xmm3
1161; SSE2-NEXT: pxor %xmm1, %xmm2
1162; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
1163; SSE2-NEXT: pand %xmm2, %xmm0
1164; SSE2-NEXT: pandn %xmm1, %xmm2
1165; SSE2-NEXT: por %xmm2, %xmm0
1166; SSE2-NEXT: retq
1167;
1168; SSE41-LABEL: max_lt_v8i16:
1169; SSE41: # BB#0:
1170; SSE41-NEXT: pminuw %xmm1, %xmm0
1171; SSE41-NEXT: retq
1172;
1173; SSE42-LABEL: max_lt_v8i16:
1174; SSE42: # BB#0:
1175; SSE42-NEXT: pminuw %xmm1, %xmm0
1176; SSE42-NEXT: retq
1177;
1178; AVX-LABEL: max_lt_v8i16:
1179; AVX: # BB#0:
1180; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0
1181; AVX-NEXT: retq
1182 %1 = icmp ult <8 x i16> %a, %b
1183 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1184 ret <8 x i16> %2
1185}
1186
1187define <16 x i16> @max_lt_v16i16(<16 x i16> %a, <16 x i16> %b) {
1188; SSE2-LABEL: max_lt_v16i16:
1189; SSE2: # BB#0:
1190; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768]
1191; SSE2-NEXT: movdqa %xmm1, %xmm5
1192; SSE2-NEXT: pxor %xmm4, %xmm5
1193; SSE2-NEXT: movdqa %xmm3, %xmm6
1194; SSE2-NEXT: pxor %xmm4, %xmm6
1195; SSE2-NEXT: pcmpgtw %xmm5, %xmm6
1196; SSE2-NEXT: movdqa %xmm0, %xmm5
1197; SSE2-NEXT: pxor %xmm4, %xmm5
1198; SSE2-NEXT: pxor %xmm2, %xmm4
1199; SSE2-NEXT: pcmpgtw %xmm5, %xmm4
1200; SSE2-NEXT: pand %xmm4, %xmm0
1201; SSE2-NEXT: pandn %xmm2, %xmm4
1202; SSE2-NEXT: por %xmm4, %xmm0
1203; SSE2-NEXT: pand %xmm6, %xmm1
1204; SSE2-NEXT: pandn %xmm3, %xmm6
1205; SSE2-NEXT: por %xmm6, %xmm1
1206; SSE2-NEXT: retq
1207;
1208; SSE41-LABEL: max_lt_v16i16:
1209; SSE41: # BB#0:
1210; SSE41-NEXT: pminuw %xmm2, %xmm0
1211; SSE41-NEXT: pminuw %xmm3, %xmm1
1212; SSE41-NEXT: retq
1213;
1214; SSE42-LABEL: max_lt_v16i16:
1215; SSE42: # BB#0:
1216; SSE42-NEXT: pminuw %xmm2, %xmm0
1217; SSE42-NEXT: pminuw %xmm3, %xmm1
1218; SSE42-NEXT: retq
1219;
1220; AVX1-LABEL: max_lt_v16i16:
1221; AVX1: # BB#0:
1222; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1223; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1224; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2
1225; AVX1-NEXT: vpminuw %xmm1, %xmm0, %xmm0
1226; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1227; AVX1-NEXT: retq
1228;
1229; AVX2-LABEL: max_lt_v16i16:
1230; AVX2: # BB#0:
1231; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0
1232; AVX2-NEXT: retq
1233;
1234; AVX512-LABEL: max_lt_v16i16:
1235; AVX512: # BB#0:
1236; AVX512-NEXT: vpminuw %ymm1, %ymm0, %ymm0
1237; AVX512-NEXT: retq
1238 %1 = icmp ult <16 x i16> %a, %b
1239 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1240 ret <16 x i16> %2
1241}
1242
1243define <16 x i8> @max_lt_v16i8(<16 x i8> %a, <16 x i8> %b) {
1244; SSE-LABEL: max_lt_v16i8:
1245; SSE: # BB#0:
1246; SSE-NEXT: pminub %xmm1, %xmm0
1247; SSE-NEXT: retq
1248;
1249; AVX-LABEL: max_lt_v16i8:
1250; AVX: # BB#0:
1251; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0
1252; AVX-NEXT: retq
1253 %1 = icmp ult <16 x i8> %a, %b
1254 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1255 ret <16 x i8> %2
1256}
1257
1258define <32 x i8> @max_lt_v32i8(<32 x i8> %a, <32 x i8> %b) {
1259; SSE-LABEL: max_lt_v32i8:
1260; SSE: # BB#0:
1261; SSE-NEXT: pminub %xmm2, %xmm0
1262; SSE-NEXT: pminub %xmm3, %xmm1
1263; SSE-NEXT: retq
1264;
1265; AVX1-LABEL: max_lt_v32i8:
1266; AVX1: # BB#0:
1267; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1268; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1269; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2
1270; AVX1-NEXT: vpminub %xmm1, %xmm0, %xmm0
1271; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1272; AVX1-NEXT: retq
1273;
1274; AVX2-LABEL: max_lt_v32i8:
1275; AVX2: # BB#0:
1276; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0
1277; AVX2-NEXT: retq
1278;
1279; AVX512-LABEL: max_lt_v32i8:
1280; AVX512: # BB#0:
1281; AVX512-NEXT: vpminub %ymm1, %ymm0, %ymm0
1282; AVX512-NEXT: retq
1283 %1 = icmp ult <32 x i8> %a, %b
1284 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1285 ret <32 x i8> %2
1286}
1287
1288;
1289; Unsigned Minimum (LE)
1290;
1291
1292define <2 x i64> @max_le_v2i64(<2 x i64> %a, <2 x i64> %b) {
1293; SSE2-LABEL: max_le_v2i64:
1294; SSE2: # BB#0:
1295; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648]
1296; SSE2-NEXT: movdqa %xmm1, %xmm3
1297; SSE2-NEXT: pxor %xmm2, %xmm3
1298; SSE2-NEXT: pxor %xmm0, %xmm2
1299; SSE2-NEXT: movdqa %xmm2, %xmm4
1300; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
1301; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1302; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
1303; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
1304; SSE2-NEXT: pand %xmm5, %xmm2
1305; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1306; SSE2-NEXT: por %xmm2, %xmm3
1307; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
1308; SSE2-NEXT: pxor %xmm3, %xmm2
1309; SSE2-NEXT: pandn %xmm0, %xmm3
1310; SSE2-NEXT: pandn %xmm1, %xmm2
1311; SSE2-NEXT: por %xmm3, %xmm2
1312; SSE2-NEXT: movdqa %xmm2, %xmm0
1313; SSE2-NEXT: retq
1314;
1315; SSE41-LABEL: max_le_v2i64:
1316; SSE41: # BB#0:
1317; SSE41-NEXT: movdqa %xmm0, %xmm2
1318; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
1319; SSE41-NEXT: movdqa %xmm1, %xmm3
1320; SSE41-NEXT: pxor %xmm0, %xmm3
1321; SSE41-NEXT: pxor %xmm2, %xmm0
1322; SSE41-NEXT: movdqa %xmm0, %xmm4
1323; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
1324; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1325; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
1326; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1327; SSE41-NEXT: pand %xmm5, %xmm0
1328; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1329; SSE41-NEXT: por %xmm0, %xmm3
1330; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
1331; SSE41-NEXT: pxor %xmm3, %xmm0
1332; SSE41-NEXT: blendvpd %xmm2, %xmm1
1333; SSE41-NEXT: movapd %xmm1, %xmm0
1334; SSE41-NEXT: retq
1335;
1336; SSE42-LABEL: max_le_v2i64:
1337; SSE42: # BB#0:
1338; SSE42-NEXT: movdqa %xmm0, %xmm2
1339; SSE42-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
1340; SSE42-NEXT: movdqa %xmm1, %xmm0
1341; SSE42-NEXT: pxor %xmm3, %xmm0
1342; SSE42-NEXT: pxor %xmm2, %xmm3
1343; SSE42-NEXT: pcmpgtq %xmm0, %xmm3
1344; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
1345; SSE42-NEXT: pxor %xmm3, %xmm0
1346; SSE42-NEXT: blendvpd %xmm2, %xmm1
1347; SSE42-NEXT: movapd %xmm1, %xmm0
1348; SSE42-NEXT: retq
1349;
1350; AVX-LABEL: max_le_v2i64:
1351; AVX: # BB#0:
1352; AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808]
1353; AVX-NEXT: vpxor %xmm2, %xmm1, %xmm3
1354; AVX-NEXT: vpxor %xmm2, %xmm0, %xmm2
1355; AVX-NEXT: vpcmpgtq %xmm3, %xmm2, %xmm2
1356; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
1357; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
1358; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
1359; AVX-NEXT: retq
1360 %1 = icmp ule <2 x i64> %a, %b
1361 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
1362 ret <2 x i64> %2
1363}
1364
1365define <4 x i64> @max_le_v4i64(<4 x i64> %a, <4 x i64> %b) {
1366; SSE2-LABEL: max_le_v4i64:
1367; SSE2: # BB#0:
1368; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648]
1369; SSE2-NEXT: movdqa %xmm3, %xmm4
1370; SSE2-NEXT: pxor %xmm7, %xmm4
1371; SSE2-NEXT: movdqa %xmm1, %xmm5
1372; SSE2-NEXT: pxor %xmm7, %xmm5
1373; SSE2-NEXT: movdqa %xmm5, %xmm6
1374; SSE2-NEXT: pcmpgtd %xmm4, %xmm6
1375; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
1376; SSE2-NEXT: pcmpeqd %xmm4, %xmm5
1377; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
1378; SSE2-NEXT: pand %xmm8, %xmm4
1379; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
1380; SSE2-NEXT: por %xmm4, %xmm8
1381; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
1382; SSE2-NEXT: movdqa %xmm8, %xmm9
1383; SSE2-NEXT: pxor %xmm4, %xmm9
1384; SSE2-NEXT: movdqa %xmm2, %xmm6
1385; SSE2-NEXT: pxor %xmm7, %xmm6
1386; SSE2-NEXT: pxor %xmm0, %xmm7
1387; SSE2-NEXT: movdqa %xmm7, %xmm5
1388; SSE2-NEXT: pcmpgtd %xmm6, %xmm5
1389; SSE2-NEXT: pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
1390; SSE2-NEXT: pcmpeqd %xmm6, %xmm7
1391; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
1392; SSE2-NEXT: pand %xmm10, %xmm6
1393; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
1394; SSE2-NEXT: por %xmm6, %xmm5
1395; SSE2-NEXT: pxor %xmm5, %xmm4
1396; SSE2-NEXT: pandn %xmm0, %xmm5
1397; SSE2-NEXT: pandn %xmm2, %xmm4
1398; SSE2-NEXT: por %xmm5, %xmm4
1399; SSE2-NEXT: pandn %xmm1, %xmm8
1400; SSE2-NEXT: pandn %xmm3, %xmm9
1401; SSE2-NEXT: por %xmm8, %xmm9
1402; SSE2-NEXT: movdqa %xmm4, %xmm0
1403; SSE2-NEXT: movdqa %xmm9, %xmm1
1404; SSE2-NEXT: retq
1405;
1406; SSE41-LABEL: max_le_v4i64:
1407; SSE41: # BB#0:
1408; SSE41-NEXT: movdqa %xmm0, %xmm8
1409; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648]
1410; SSE41-NEXT: movdqa %xmm3, %xmm5
1411; SSE41-NEXT: pxor %xmm0, %xmm5
1412; SSE41-NEXT: movdqa %xmm1, %xmm6
1413; SSE41-NEXT: pxor %xmm0, %xmm6
1414; SSE41-NEXT: movdqa %xmm6, %xmm7
1415; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
1416; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1417; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
1418; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1419; SSE41-NEXT: pand %xmm4, %xmm6
1420; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
1421; SSE41-NEXT: por %xmm6, %xmm5
1422; SSE41-NEXT: pcmpeqd %xmm9, %xmm9
1423; SSE41-NEXT: pxor %xmm9, %xmm5
1424; SSE41-NEXT: movdqa %xmm2, %xmm6
1425; SSE41-NEXT: pxor %xmm0, %xmm6
1426; SSE41-NEXT: pxor %xmm8, %xmm0
1427; SSE41-NEXT: movdqa %xmm0, %xmm7
1428; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
1429; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1430; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
1431; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
1432; SSE41-NEXT: pand %xmm4, %xmm6
1433; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
1434; SSE41-NEXT: por %xmm6, %xmm0
1435; SSE41-NEXT: pxor %xmm9, %xmm0
1436; SSE41-NEXT: blendvpd %xmm8, %xmm2
1437; SSE41-NEXT: movdqa %xmm5, %xmm0
1438; SSE41-NEXT: blendvpd %xmm1, %xmm3
1439; SSE41-NEXT: movapd %xmm2, %xmm0
1440; SSE41-NEXT: movapd %xmm3, %xmm1
1441; SSE41-NEXT: retq
1442;
1443; SSE42-LABEL: max_le_v4i64:
1444; SSE42: # BB#0:
1445; SSE42-NEXT: movdqa %xmm0, %xmm4
1446; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808]
1447; SSE42-NEXT: movdqa %xmm3, %xmm6
1448; SSE42-NEXT: pxor %xmm0, %xmm6
1449; SSE42-NEXT: movdqa %xmm1, %xmm5
1450; SSE42-NEXT: pxor %xmm0, %xmm5
1451; SSE42-NEXT: pcmpgtq %xmm6, %xmm5
1452; SSE42-NEXT: pcmpeqd %xmm6, %xmm6
1453; SSE42-NEXT: pxor %xmm6, %xmm5
1454; SSE42-NEXT: movdqa %xmm2, %xmm7
1455; SSE42-NEXT: pxor %xmm0, %xmm7
1456; SSE42-NEXT: pxor %xmm4, %xmm0
1457; SSE42-NEXT: pcmpgtq %xmm7, %xmm0
1458; SSE42-NEXT: pxor %xmm6, %xmm0
1459; SSE42-NEXT: blendvpd %xmm4, %xmm2
1460; SSE42-NEXT: movdqa %xmm5, %xmm0
1461; SSE42-NEXT: blendvpd %xmm1, %xmm3
1462; SSE42-NEXT: movapd %xmm2, %xmm0
1463; SSE42-NEXT: movapd %xmm3, %xmm1
1464; SSE42-NEXT: retq
1465;
1466; AVX1-LABEL: max_le_v4i64:
1467; AVX1: # BB#0:
1468; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1469; AVX1-NEXT: vmovaps {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808]
1470; AVX1-NEXT: vxorps %xmm3, %xmm2, %xmm2
1471; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm4
1472; AVX1-NEXT: vxorps %xmm3, %xmm4, %xmm4
1473; AVX1-NEXT: vpcmpgtq %xmm2, %xmm4, %xmm2
1474; AVX1-NEXT: vpcmpeqd %xmm4, %xmm4, %xmm4
1475; AVX1-NEXT: vpxor %xmm4, %xmm2, %xmm2
1476; AVX1-NEXT: vxorps %xmm3, %xmm1, %xmm5
1477; AVX1-NEXT: vxorps %xmm3, %xmm0, %xmm3
1478; AVX1-NEXT: vpcmpgtq %xmm5, %xmm3, %xmm3
1479; AVX1-NEXT: vpxor %xmm4, %xmm3, %xmm3
1480; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
1481; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1482; AVX1-NEXT: retq
1483;
1484; AVX2-LABEL: max_le_v4i64:
1485; AVX2: # BB#0:
1486; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
1487; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3
1488; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2
1489; AVX2-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
1490; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
1491; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
1492; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1493; AVX2-NEXT: retq
1494;
1495; AVX512-LABEL: max_le_v4i64:
1496; AVX512: # BB#0:
1497; AVX512-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
1498; AVX512-NEXT: vpxor %ymm2, %ymm1, %ymm3
1499; AVX512-NEXT: vpxor %ymm2, %ymm0, %ymm2
1500; AVX512-NEXT: vpcmpgtq %ymm3, %ymm2, %ymm2
1501; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
1502; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
1503; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1504; AVX512-NEXT: retq
1505 %1 = icmp ule <4 x i64> %a, %b
1506 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
1507 ret <4 x i64> %2
1508}
1509
1510define <4 x i32> @max_le_v4i32(<4 x i32> %a, <4 x i32> %b) {
1511; SSE2-LABEL: max_le_v4i32:
1512; SSE2: # BB#0:
1513; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648]
1514; SSE2-NEXT: movdqa %xmm1, %xmm2
1515; SSE2-NEXT: pxor %xmm3, %xmm2
1516; SSE2-NEXT: pxor %xmm0, %xmm3
1517; SSE2-NEXT: pcmpgtd %xmm2, %xmm3
1518; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
1519; SSE2-NEXT: pxor %xmm3, %xmm2
1520; SSE2-NEXT: pandn %xmm0, %xmm3
1521; SSE2-NEXT: pandn %xmm1, %xmm2
1522; SSE2-NEXT: por %xmm3, %xmm2
1523; SSE2-NEXT: movdqa %xmm2, %xmm0
1524; SSE2-NEXT: retq
1525;
1526; SSE41-LABEL: max_le_v4i32:
1527; SSE41: # BB#0:
1528; SSE41-NEXT: pminud %xmm1, %xmm0
1529; SSE41-NEXT: retq
1530;
1531; SSE42-LABEL: max_le_v4i32:
1532; SSE42: # BB#0:
1533; SSE42-NEXT: pminud %xmm1, %xmm0
1534; SSE42-NEXT: retq
1535;
1536; AVX-LABEL: max_le_v4i32:
1537; AVX: # BB#0:
1538; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0
1539; AVX-NEXT: retq
1540 %1 = icmp ule <4 x i32> %a, %b
1541 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1542 ret <4 x i32> %2
1543}
1544
1545define <8 x i32> @max_le_v8i32(<8 x i32> %a, <8 x i32> %b) {
1546; SSE2-LABEL: max_le_v8i32:
1547; SSE2: # BB#0:
1548; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648]
1549; SSE2-NEXT: movdqa %xmm3, %xmm4
1550; SSE2-NEXT: pxor %xmm6, %xmm4
1551; SSE2-NEXT: movdqa %xmm1, %xmm7
1552; SSE2-NEXT: pxor %xmm6, %xmm7
1553; SSE2-NEXT: pcmpgtd %xmm4, %xmm7
1554; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
1555; SSE2-NEXT: movdqa %xmm7, %xmm5
1556; SSE2-NEXT: pxor %xmm4, %xmm5
1557; SSE2-NEXT: movdqa %xmm2, %xmm8
1558; SSE2-NEXT: pxor %xmm6, %xmm8
1559; SSE2-NEXT: pxor %xmm0, %xmm6
1560; SSE2-NEXT: pcmpgtd %xmm8, %xmm6
1561; SSE2-NEXT: pxor %xmm6, %xmm4
1562; SSE2-NEXT: pandn %xmm0, %xmm6
1563; SSE2-NEXT: pandn %xmm2, %xmm4
1564; SSE2-NEXT: por %xmm6, %xmm4
1565; SSE2-NEXT: pandn %xmm1, %xmm7
1566; SSE2-NEXT: pandn %xmm3, %xmm5
1567; SSE2-NEXT: por %xmm7, %xmm5
1568; SSE2-NEXT: movdqa %xmm4, %xmm0
1569; SSE2-NEXT: movdqa %xmm5, %xmm1
1570; SSE2-NEXT: retq
1571;
1572; SSE41-LABEL: max_le_v8i32:
1573; SSE41: # BB#0:
1574; SSE41-NEXT: pminud %xmm2, %xmm0
1575; SSE41-NEXT: pminud %xmm3, %xmm1
1576; SSE41-NEXT: retq
1577;
1578; SSE42-LABEL: max_le_v8i32:
1579; SSE42: # BB#0:
1580; SSE42-NEXT: pminud %xmm2, %xmm0
1581; SSE42-NEXT: pminud %xmm3, %xmm1
1582; SSE42-NEXT: retq
1583;
1584; AVX1-LABEL: max_le_v8i32:
1585; AVX1: # BB#0:
1586; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1587; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1588; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2
1589; AVX1-NEXT: vpminud %xmm1, %xmm0, %xmm0
1590; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1591; AVX1-NEXT: retq
1592;
1593; AVX2-LABEL: max_le_v8i32:
1594; AVX2: # BB#0:
1595; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0
1596; AVX2-NEXT: retq
1597;
1598; AVX512-LABEL: max_le_v8i32:
1599; AVX512: # BB#0:
1600; AVX512-NEXT: vpminud %ymm1, %ymm0, %ymm0
1601; AVX512-NEXT: retq
1602 %1 = icmp ule <8 x i32> %a, %b
1603 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1604 ret <8 x i32> %2
1605}
1606
1607define <8 x i16> @max_le_v8i16(<8 x i16> %a, <8 x i16> %b) {
1608; SSE2-LABEL: max_le_v8i16:
1609; SSE2: # BB#0:
1610; SSE2-NEXT: movdqa %xmm0, %xmm2
1611; SSE2-NEXT: psubusw %xmm1, %xmm2
1612; SSE2-NEXT: pxor %xmm3, %xmm3
1613; SSE2-NEXT: pcmpeqw %xmm2, %xmm3
1614; SSE2-NEXT: pand %xmm3, %xmm0
1615; SSE2-NEXT: pandn %xmm1, %xmm3
1616; SSE2-NEXT: por %xmm3, %xmm0
1617; SSE2-NEXT: retq
1618;
1619; SSE41-LABEL: max_le_v8i16:
1620; SSE41: # BB#0:
1621; SSE41-NEXT: pminuw %xmm1, %xmm0
1622; SSE41-NEXT: retq
1623;
1624; SSE42-LABEL: max_le_v8i16:
1625; SSE42: # BB#0:
1626; SSE42-NEXT: pminuw %xmm1, %xmm0
1627; SSE42-NEXT: retq
1628;
1629; AVX-LABEL: max_le_v8i16:
1630; AVX: # BB#0:
1631; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0
1632; AVX-NEXT: retq
1633 %1 = icmp ule <8 x i16> %a, %b
1634 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1635 ret <8 x i16> %2
1636}
1637
1638define <16 x i16> @max_le_v16i16(<16 x i16> %a, <16 x i16> %b) {
1639; SSE2-LABEL: max_le_v16i16:
1640; SSE2: # BB#0:
1641; SSE2-NEXT: movdqa %xmm1, %xmm4
1642; SSE2-NEXT: psubusw %xmm3, %xmm4
1643; SSE2-NEXT: pxor %xmm6, %xmm6
1644; SSE2-NEXT: pcmpeqw %xmm6, %xmm4
1645; SSE2-NEXT: movdqa %xmm0, %xmm5
1646; SSE2-NEXT: psubusw %xmm2, %xmm5
1647; SSE2-NEXT: pcmpeqw %xmm6, %xmm5
1648; SSE2-NEXT: pand %xmm5, %xmm0
1649; SSE2-NEXT: pandn %xmm2, %xmm5
1650; SSE2-NEXT: por %xmm0, %xmm5
1651; SSE2-NEXT: pand %xmm4, %xmm1
1652; SSE2-NEXT: pandn %xmm3, %xmm4
1653; SSE2-NEXT: por %xmm1, %xmm4
1654; SSE2-NEXT: movdqa %xmm5, %xmm0
1655; SSE2-NEXT: movdqa %xmm4, %xmm1
1656; SSE2-NEXT: retq
1657;
1658; SSE41-LABEL: max_le_v16i16:
1659; SSE41: # BB#0:
1660; SSE41-NEXT: pminuw %xmm2, %xmm0
1661; SSE41-NEXT: pminuw %xmm3, %xmm1
1662; SSE41-NEXT: retq
1663;
1664; SSE42-LABEL: max_le_v16i16:
1665; SSE42: # BB#0:
1666; SSE42-NEXT: pminuw %xmm2, %xmm0
1667; SSE42-NEXT: pminuw %xmm3, %xmm1
1668; SSE42-NEXT: retq
1669;
1670; AVX1-LABEL: max_le_v16i16:
1671; AVX1: # BB#0:
1672; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1673; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1674; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2
1675; AVX1-NEXT: vpminuw %xmm1, %xmm0, %xmm0
1676; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1677; AVX1-NEXT: retq
1678;
1679; AVX2-LABEL: max_le_v16i16:
1680; AVX2: # BB#0:
1681; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0
1682; AVX2-NEXT: retq
1683;
1684; AVX512-LABEL: max_le_v16i16:
1685; AVX512: # BB#0:
1686; AVX512-NEXT: vpminuw %ymm1, %ymm0, %ymm0
1687; AVX512-NEXT: retq
1688 %1 = icmp ule <16 x i16> %a, %b
1689 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1690 ret <16 x i16> %2
1691}
1692
1693define <16 x i8> @max_le_v16i8(<16 x i8> %a, <16 x i8> %b) {
1694; SSE-LABEL: max_le_v16i8:
1695; SSE: # BB#0:
1696; SSE-NEXT: pminub %xmm1, %xmm0
1697; SSE-NEXT: retq
1698;
1699; AVX-LABEL: max_le_v16i8:
1700; AVX: # BB#0:
1701; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0
1702; AVX-NEXT: retq
1703 %1 = icmp ule <16 x i8> %a, %b
1704 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1705 ret <16 x i8> %2
1706}
1707
1708define <32 x i8> @max_le_v32i8(<32 x i8> %a, <32 x i8> %b) {
1709; SSE-LABEL: max_le_v32i8:
1710; SSE: # BB#0:
1711; SSE-NEXT: pminub %xmm2, %xmm0
1712; SSE-NEXT: pminub %xmm3, %xmm1
1713; SSE-NEXT: retq
1714;
1715; AVX1-LABEL: max_le_v32i8:
1716; AVX1: # BB#0:
1717; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1718; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1719; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2
1720; AVX1-NEXT: vpminub %xmm1, %xmm0, %xmm0
1721; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1722; AVX1-NEXT: retq
1723;
1724; AVX2-LABEL: max_le_v32i8:
1725; AVX2: # BB#0:
1726; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0
1727; AVX2-NEXT: retq
1728;
1729; AVX512-LABEL: max_le_v32i8:
1730; AVX512: # BB#0:
1731; AVX512-NEXT: vpminub %ymm1, %ymm0, %ymm0
1732; AVX512-NEXT: retq
1733 %1 = icmp ule <32 x i8> %a, %b
1734 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1735 ret <32 x i8> %2
1736}