blob: 592a196dc84d20d797ec8fd3d89f181e41a66e80 [file] [log] [blame]
Craig Topper925be542011-12-19 05:04:33 +00001// RUN: %clang_cc1 %s -O3 -triple=x86_64-apple-darwin -target-feature +avx2 -emit-llvm -o - | FileCheck %s
2
3// Don't include mm_malloc.h, it's system specific.
4#define __MM_MALLOC_H
5
6#include <immintrin.h>
7
8__m256 test_mm256_mpsadbw_epu8(__m256 x, __m256 y) {
9 // CHECK: @llvm.x86.avx2.mpsadbw({{.*}}, {{.*}}, i32 3)
10 return _mm256_mpsadbw_epu8(x, y, 3);
11}
12
13__m256 test_mm256_abs_epi8(__m256 a) {
14 // CHECK: @llvm.x86.avx2.pabs.b
15 return _mm256_abs_epi8(a);
16}
17
18__m256 test_mm256_abs_epi16(__m256 a) {
19 // CHECK: @llvm.x86.avx2.pabs.w
20 return _mm256_abs_epi16(a);
21}
22
23__m256 test_mm256_abs_epi32(__m256 a) {
24 // CHECK: @llvm.x86.avx2.pabs.d
25 return _mm256_abs_epi32(a);
26}
27
28__m256 test_mm256_packs_epi16(__m256 a, __m256 b) {
29 // CHECK: @llvm.x86.avx2.packsswb
30 return _mm256_packs_epi16(a, b);
31}
32
33__m256 test_mm256_packs_epi32(__m256 a, __m256 b) {
34 // CHECK: @llvm.x86.avx2.packssdw
35 return _mm256_packs_epi32(a, b);
36}
37
38__m256 test_mm256_packs_epu16(__m256 a, __m256 b) {
39 // CHECK: @llvm.x86.avx2.packuswb
40 return _mm256_packus_epi16(a, b);
41}
42
43__m256 test_mm256_packs_epu32(__m256 a, __m256 b) {
44 // CHECK: @llvm.x86.avx2.packusdw
45 return _mm256_packus_epi32(a, b);
46}
47
48__m256 test_mm256_add_epi8(__m256 a, __m256 b) {
49 // CHECK: add <32 x i8>
50 return _mm256_add_epi8(a, b);
51}
52
53__m256 test_mm256_add_epi16(__m256 a, __m256 b) {
54 // CHECK: add <16 x i16>
55 return _mm256_add_epi16(a, b);
56}
57
58__m256 test_mm256_add_epi32(__m256 a, __m256 b) {
59 // CHECK: add <8 x i32>
60 return _mm256_add_epi32(a, b);
61}
62
63__m256 test_mm256_add_epi64(__m256 a, __m256 b) {
64 // CHECK: add <4 x i64>
65 return _mm256_add_epi64(a, b);
66}
67
Craig Topper9c2ffd82011-12-19 07:03:25 +000068__m256 test_mm256_adds_epi8(__m256 a, __m256 b) {
69 // CHECK: @llvm.x86.avx2.padds.b
70 return _mm256_adds_epi8(a, b);
71}
72
73__m256 test_mm256_adds_epi16(__m256 a, __m256 b) {
74 // CHECK: @llvm.x86.avx2.padds.w
75 return _mm256_adds_epi16(a, b);
76}
77
78__m256 test_mm256_adds_epu8(__m256 a, __m256 b) {
79 // CHECK: @llvm.x86.avx2.paddus.b
80 return _mm256_adds_epu8(a, b);
81}
82
83__m256 test_mm256_adds_epu16(__m256 a, __m256 b) {
84 // CHECK: @llvm.x86.avx2.paddus.w
85 return _mm256_adds_epu16(a, b);
86}
87
88__m256 test_mm256_alignr_epi8(__m256 a, __m256 b) {
Eli Friedmanaad21d72011-12-19 20:09:01 +000089 // CHECK: shufflevector <32 x i8> %{{.*}}, <32 x i8> %{{.*}}, <32 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15, i32 32, i32 33, i32 18, i32 19, i32 20, i32 21, i32 22, i32 23, i32 24, i32 25, i32 26, i32 27, i32 28, i32 29, i32 30, i32 31, i32 48, i32 49>
Craig Topper9c2ffd82011-12-19 07:03:25 +000090 return _mm256_alignr_epi8(a, b, 2);
91}
92
93__m256 test2_mm256_alignr_epi8(__m256 a, __m256 b) {
94 // CHECK: @llvm.x86.avx2.psrl.dq({{.*}}, i32 8)
95 return _mm256_alignr_epi8(a, b, 17);
96}
97
Craig Topper925be542011-12-19 05:04:33 +000098__m256 test_mm256_sub_epi8(__m256 a, __m256 b) {
99 // CHECK: sub <32 x i8>
100 return _mm256_sub_epi8(a, b);
101}
102
103__m256 test_mm256_sub_epi16(__m256 a, __m256 b) {
104 // CHECK: sub <16 x i16>
105 return _mm256_sub_epi16(a, b);
106}
107
108__m256 test_mm256_sub_epi32(__m256 a, __m256 b) {
109 // CHECK: sub <8 x i32>
110 return _mm256_sub_epi32(a, b);
111}
112
113__m256 test_mm256_sub_epi64(__m256 a, __m256 b) {
114 // CHECK: sub <4 x i64>
115 return _mm256_sub_epi64(a, b);
116}
Craig Topper9c2ffd82011-12-19 07:03:25 +0000117
118__m256 test_mm256_subs_epi8(__m256 a, __m256 b) {
119 // CHECK: @llvm.x86.avx2.psubs.b
120 return _mm256_subs_epi8(a, b);
121}
122
123__m256 test_mm256_subs_epi16(__m256 a, __m256 b) {
124 // CHECK: @llvm.x86.avx2.psubs.w
125 return _mm256_subs_epi16(a, b);
126}
127
128__m256 test_mm256_subs_epu8(__m256 a, __m256 b) {
129 // CHECK: @llvm.x86.avx2.psubus.b
130 return _mm256_subs_epu8(a, b);
131}
132
133__m256 test_mm256_subs_epu16(__m256 a, __m256 b) {
134 // CHECK: @llvm.x86.avx2.psubus.w
135 return _mm256_subs_epu16(a, b);
136}
Craig Topper735ceaa2011-12-19 09:03:48 +0000137
138__m256 test_mm256_and_si256(__m256 a, __m256 b) {
139 // CHECK: and <4 x i64>
140 return _mm256_and_si256(a, b);
141}
142
143__m256 test_mm256_andnot_si256(__m256 a, __m256 b) {
144 // CHECK: xor <4 x i64>
145 // CHECK: and <4 x i64>
146 return _mm256_andnot_si256(a, b);
147}
148
149__m256 test_mm256_or_si256(__m256 a, __m256 b) {
150 // CHECK: or <4 x i64>
151 return _mm256_or_si256(a, b);
152}
153
154__m256 test_mm256_xor_si256(__m256 a, __m256 b) {
155 // CHECK: xor <4 x i64>
156 return _mm256_xor_si256(a, b);
157}
Craig Topper4c07c5d2011-12-20 09:55:26 +0000158
159__m256 test_mm256_avg_epu8(__m256 a, __m256 b) {
160 // CHECK: @llvm.x86.avx2.pavg.b
161 return _mm256_avg_epu8(a, b);
162}
163
164__m256 test_mm256_avg_epu16(__m256 a, __m256 b) {
165 // CHECK: @llvm.x86.avx2.pavg.w
166 return _mm256_avg_epu16(a, b);
167}
168
169__m256 test_mm256_blendv_epi8(__m256 a, __m256 b, __m256 m) {
170 // CHECK: @llvm.x86.avx2.pblendvb
171 return _mm256_blendv_epi8(a, b, m);
172}
173
174__m256 test_mm256_blend_epi16(__m256 a, __m256 b) {
175 // CHECK: @llvm.x86.avx2.pblendw(<16 x i16> %{{.*}}, <16 x i16> %{{.*}}, i32 2)
176 return _mm256_blend_epi16(a, b, 2);
177}
178
179__m256 test_mm256_cmpeq_epi8(__m256 a, __m256 b) {
180 // CHECK: icmp eq <32 x i8>
181 return _mm256_cmpeq_epi8(a, b);
182}
183
184__m256 test_mm256_cmpeq_epi16(__m256 a, __m256 b) {
185 // CHECK: icmp eq <16 x i16>
186 return _mm256_cmpeq_epi16(a, b);
187}
188
189__m256 test_mm256_cmpeq_epi32(__m256 a, __m256 b) {
190 // CHECK: icmp eq <8 x i32>
191 return _mm256_cmpeq_epi32(a, b);
192}
193
194__m256 test_mm256_cmpeq_epi64(__m256 a, __m256 b) {
195 // CHECK: icmp eq <4 x i64>
196 return _mm256_cmpeq_epi64(a, b);
197}
198
199__m256 test_mm256_cmpgt_epi8(__m256 a, __m256 b) {
200 // CHECK: icmp sgt <32 x i8>
201 return _mm256_cmpgt_epi8(a, b);
202}
203
204__m256 test_mm256_cmpgt_epi16(__m256 a, __m256 b) {
205 // CHECK: icmp sgt <16 x i16>
206 return _mm256_cmpgt_epi16(a, b);
207}
208
209__m256 test_mm256_cmpgt_epi32(__m256 a, __m256 b) {
210 // CHECK: icmp sgt <8 x i32>
211 return _mm256_cmpgt_epi32(a, b);
212}
213
214__m256 test_mm256_cmpgt_epi64(__m256 a, __m256 b) {
215 // CHECK: icmp sgt <4 x i64>
216 return _mm256_cmpgt_epi64(a, b);
217}
Craig Topper318e4602011-12-21 08:17:40 +0000218
219__m256 test_mm256_hadd_epi16(__m256 a, __m256 b) {
220 // CHECK: @llvm.x86.avx2.phadd.w
221 return _mm256_hadd_epi16(a, b);
222}
223
224__m256 test_mm256_hadd_epi32(__m256 a, __m256 b) {
225 // CHECK: @llvm.x86.avx2.phadd.d
226 return _mm256_hadd_epi32(a, b);
227}
228
229__m256 test_mm256_hadds_epi16(__m256 a, __m256 b) {
230 // CHECK: @llvm.x86.avx2.phadd.sw
231 return _mm256_hadds_epi16(a, b);
232}
233
234__m256 test_mm256_hsub_epi16(__m256 a, __m256 b) {
235 // CHECK: @llvm.x86.avx2.phsub.w
236 return _mm256_hsub_epi16(a, b);
237}
238
239__m256 test_mm256_hsub_epi32(__m256 a, __m256 b) {
240 // CHECK: @llvm.x86.avx2.phsub.d
241 return _mm256_hsub_epi32(a, b);
242}
243
244__m256 test_mm256_hsubs_epi16(__m256 a, __m256 b) {
245 // CHECK: @llvm.x86.avx2.phsub.sw
246 return _mm256_hsubs_epi16(a, b);
247}
Craig Topper4a4f25a2011-12-21 08:35:05 +0000248
249__m256 test_mm256_maddubs_epi16(__m256 a, __m256 b) {
250 // CHECK: @llvm.x86.avx2.pmadd.ub.sw
251 return _mm256_maddubs_epi16(a, b);
252}
253
254__m256 test_mm256_madd_epi16(__m256 a, __m256 b) {
255 // CHECK: @llvm.x86.avx2.pmadd.wd
256 return _mm256_madd_epi16(a, b);
257}