@@ -150,7 +150,7 @@ define <8 x i64> @splatvar_shift_v8i64(<8 x i64> %a, <8 x i64> %b) nounwind {
150150; ALL: # %bb.0:
151151; ALL-NEXT: vpsraq %xmm1, %zmm0, %zmm0
152152; ALL-NEXT: retq
153- %splat = shufflevector <8 x i64 > %b , <8 x i64 > undef , <8 x i32 > zeroinitializer
153+ %splat = shufflevector <8 x i64 > %b , <8 x i64 > poison , <8 x i32 > zeroinitializer
154154 %shift = ashr <8 x i64 > %a , %splat
155155 ret <8 x i64 > %shift
156156}
@@ -161,7 +161,7 @@ define <16 x i32> @splatvar_shift_v16i32(<16 x i32> %a, <16 x i32> %b) nounwind
161161; ALL-NEXT: vpmovzxdq {{.*#+}} xmm1 = xmm1[0],zero,xmm1[1],zero
162162; ALL-NEXT: vpsrad %xmm1, %zmm0, %zmm0
163163; ALL-NEXT: retq
164- %splat = shufflevector <16 x i32 > %b , <16 x i32 > undef , <16 x i32 > zeroinitializer
164+ %splat = shufflevector <16 x i32 > %b , <16 x i32 > poison , <16 x i32 > zeroinitializer
165165 %shift = ashr <16 x i32 > %a , %splat
166166 ret <16 x i32 > %shift
167167}
@@ -181,7 +181,7 @@ define <32 x i16> @splatvar_shift_v32i16(<32 x i16> %a, <32 x i16> %b) nounwind
181181; AVX512BW-NEXT: vpmovzxwq {{.*#+}} xmm1 = xmm1[0],zero,zero,zero,xmm1[1],zero,zero,zero
182182; AVX512BW-NEXT: vpsraw %xmm1, %zmm0, %zmm0
183183; AVX512BW-NEXT: retq
184- %splat = shufflevector <32 x i16 > %b , <32 x i16 > undef , <32 x i32 > zeroinitializer
184+ %splat = shufflevector <32 x i16 > %b , <32 x i16 > poison , <32 x i32 > zeroinitializer
185185 %shift = ashr <32 x i16 > %a , %splat
186186 ret <32 x i16 > %shift
187187}
@@ -221,7 +221,7 @@ define <64 x i8> @splatvar_shift_v64i8(<64 x i8> %a, <64 x i8> %b) nounwind {
221221; AVX512BW-NEXT: vpternlogq $108, %zmm0, %zmm2, %zmm1
222222; AVX512BW-NEXT: vpsubb %zmm2, %zmm1, %zmm0
223223; AVX512BW-NEXT: retq
224- %splat = shufflevector <64 x i8 > %b , <64 x i8 > undef , <64 x i32 > zeroinitializer
224+ %splat = shufflevector <64 x i8 > %b , <64 x i8 > poison , <64 x i32 > zeroinitializer
225225 %shift = ashr <64 x i8 > %a , %splat
226226 ret <64 x i8 > %shift
227227}
@@ -237,7 +237,7 @@ define <8 x i64> @splatvar_modulo_shift_v8i64(<8 x i64> %a, <8 x i64> %b) nounwi
237237; ALL-NEXT: vpsraq %xmm1, %zmm0, %zmm0
238238; ALL-NEXT: retq
239239 %mod = and <8 x i64 > %b , <i64 63 , i64 63 , i64 63 , i64 63 , i64 63 , i64 63 , i64 63 , i64 63 >
240- %splat = shufflevector <8 x i64 > %mod , <8 x i64 > undef , <8 x i32 > zeroinitializer
240+ %splat = shufflevector <8 x i64 > %mod , <8 x i64 > poison , <8 x i32 > zeroinitializer
241241 %shift = ashr <8 x i64 > %a , %splat
242242 ret <8 x i64 > %shift
243243}
@@ -249,7 +249,7 @@ define <16 x i32> @splatvar_modulo_shift_v16i32(<16 x i32> %a, <16 x i32> %b) no
249249; ALL-NEXT: vpsrad %xmm1, %zmm0, %zmm0
250250; ALL-NEXT: retq
251251 %mod = and <16 x i32 > %b , <i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 , i32 31 >
252- %splat = shufflevector <16 x i32 > %mod , <16 x i32 > undef , <16 x i32 > zeroinitializer
252+ %splat = shufflevector <16 x i32 > %mod , <16 x i32 > poison , <16 x i32 > zeroinitializer
253253 %shift = ashr <16 x i32 > %a , %splat
254254 ret <16 x i32 > %shift
255255}
@@ -270,7 +270,7 @@ define <32 x i16> @splatvar_modulo_shift_v32i16(<32 x i16> %a, <32 x i16> %b) no
270270; AVX512BW-NEXT: vpsraw %xmm1, %zmm0, %zmm0
271271; AVX512BW-NEXT: retq
272272 %mod = and <32 x i16 > %b , <i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 , i16 15 >
273- %splat = shufflevector <32 x i16 > %mod , <32 x i16 > undef , <32 x i32 > zeroinitializer
273+ %splat = shufflevector <32 x i16 > %mod , <32 x i16 > poison , <32 x i32 > zeroinitializer
274274 %shift = ashr <32 x i16 > %a , %splat
275275 ret <32 x i16 > %shift
276276}
@@ -311,7 +311,7 @@ define <64 x i8> @splatvar_modulo_shift_v64i8(<64 x i8> %a, <64 x i8> %b) nounwi
311311; AVX512BW-NEXT: vpsubb %zmm2, %zmm1, %zmm0
312312; AVX512BW-NEXT: retq
313313 %mod = and <64 x i8 > %b , <i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 >
314- %splat = shufflevector <64 x i8 > %mod , <64 x i8 > undef , <64 x i32 > zeroinitializer
314+ %splat = shufflevector <64 x i8 > %mod , <64 x i8 > poison , <64 x i32 > zeroinitializer
315315 %shift = ashr <64 x i8 > %a , %splat
316316 ret <64 x i8 > %shift
317317}
0 commit comments