From: Craig Topper Date: Wed, 6 Jul 2016 04:24:29 +0000 (+0000) Subject: [AVX512] Use the generic ctlz intrinsic to implement the vplzcntd/q builtins. X-Git-Url: https://granicus.if.org/sourcecode?a=commitdiff_plain;h=8541bc55008770a8e167c7932ecb52ddc5067437;p=clang [AVX512] Use the generic ctlz intrinsic to implement the vplzcntd/q builtins. git-svn-id: https://llvm.org/svn/llvm-project/cfe/trunk@274603 91177308-0d34-0410-b5e6-96231b3b80d8 --- diff --git a/lib/CodeGen/CGBuiltin.cpp b/lib/CodeGen/CGBuiltin.cpp index 6f45007172..dc0b164e6a 100644 --- a/lib/CodeGen/CGBuiltin.cpp +++ b/lib/CodeGen/CGBuiltin.cpp @@ -7163,6 +7163,18 @@ Value *CodeGenFunction::EmitX86BuiltinExpr(unsigned BuiltinID, return EmitX86MaskedCompare(*this, CC, false, Ops); } + case X86::BI__builtin_ia32_vplzcntd_128_mask: + case X86::BI__builtin_ia32_vplzcntd_256_mask: + case X86::BI__builtin_ia32_vplzcntd_512_mask: + case X86::BI__builtin_ia32_vplzcntq_128_mask: + case X86::BI__builtin_ia32_vplzcntq_256_mask: + case X86::BI__builtin_ia32_vplzcntq_512_mask: { + Function *F = CGM.getIntrinsic(Intrinsic::ctlz, Ops[0]->getType()); + return EmitX86Select(*this, Ops[2], + Builder.CreateCall(F, {Ops[0],Builder.getInt1(false)}), + Ops[1]); + } + // TODO: Handle 64/512-bit vector widths of min/max. case X86::BI__builtin_ia32_pmaxsb128: case X86::BI__builtin_ia32_pmaxsw128: diff --git a/test/CodeGen/avx512cdintrin.c b/test/CodeGen/avx512cdintrin.c index 9dd26ea150..415a82c2c1 100644 --- a/test/CodeGen/avx512cdintrin.c +++ b/test/CodeGen/avx512cdintrin.c @@ -37,32 +37,36 @@ __m512i test_mm512_maskz_conflict_epi32(__mmask16 __U, __m512i __A) { } __m512i test_mm512_lzcnt_epi32(__m512i __A) { // CHECK-LABEL: @test_mm512_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d.512 + // CHECK: call <16 x i32> @llvm.ctlz.v16i32(<16 x i32> %{{.*}}, i1 false) return _mm512_lzcnt_epi32(__A); } __m512i test_mm512_mask_lzcnt_epi32(__m512i __W, __mmask16 __U, __m512i __A) { // CHECK-LABEL: @test_mm512_mask_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d.512 + // CHECK: call <16 x i32> @llvm.ctlz.v16i32(<16 x i32> %{{.*}}, i1 false) + // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} return _mm512_mask_lzcnt_epi32(__W,__U,__A); } __m512i test_mm512_maskz_lzcnt_epi32(__mmask16 __U, __m512i __A) { // CHECK-LABEL: @test_mm512_maskz_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d.512 + // CHECK: call <16 x i32> @llvm.ctlz.v16i32(<16 x i32> %{{.*}}, i1 false) + // CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}} return _mm512_maskz_lzcnt_epi32(__U,__A); } __m512i test_mm512_lzcnt_epi64(__m512i __A) { // CHECK-LABEL: @test_mm512_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q.512 + // CHECK: call <8 x i64> @llvm.ctlz.v8i64(<8 x i64> %{{.*}}, i1 false) return _mm512_lzcnt_epi64(__A); } __m512i test_mm512_mask_lzcnt_epi64(__m512i __W, __mmask8 __U, __m512i __A) { // CHECK-LABEL: @test_mm512_mask_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q.512 + // CHECK: call <8 x i64> @llvm.ctlz.v8i64(<8 x i64> %{{.*}}, i1 false) + // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} return _mm512_mask_lzcnt_epi64(__W,__U,__A); } __m512i test_mm512_maskz_lzcnt_epi64(__mmask8 __U, __m512i __A) { // CHECK-LABEL: @test_mm512_maskz_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q.512 + // CHECK: call <8 x i64> @llvm.ctlz.v8i64(<8 x i64> %{{.*}}, i1 false) + // CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}} return _mm512_maskz_lzcnt_epi64(__U,__A); } diff --git a/test/CodeGen/avx512vlcd-builtins.c b/test/CodeGen/avx512vlcd-builtins.c index 9ca42b509e..f69da039a4 100644 --- a/test/CodeGen/avx512vlcd-builtins.c +++ b/test/CodeGen/avx512vlcd-builtins.c @@ -103,72 +103,80 @@ __m256i test_mm256_maskz_conflict_epi32(__mmask8 __U, __m256i __A) { __m128i test_mm_lzcnt_epi32(__m128i __A) { // CHECK-LABEL: @test_mm_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false) return _mm_lzcnt_epi32(__A); } __m128i test_mm_mask_lzcnt_epi32(__m128i __W, __mmask8 __U, __m128i __A) { // CHECK-LABEL: @test_mm_mask_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false) + // CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}} return _mm_mask_lzcnt_epi32(__W, __U, __A); } __m128i test_mm_maskz_lzcnt_epi32(__mmask8 __U, __m128i __A) { // CHECK-LABEL: @test_mm_maskz_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false) + // CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}} return _mm_maskz_lzcnt_epi32(__U, __A); } __m256i test_mm256_lzcnt_epi32(__m256i __A) { // CHECK-LABEL: @test_mm256_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <8 x i32> @llvm.ctlz.v8i32(<8 x i32> %{{.*}}, i1 false) return _mm256_lzcnt_epi32(__A); } __m256i test_mm256_mask_lzcnt_epi32(__m256i __W, __mmask8 __U, __m256i __A) { // CHECK-LABEL: @test_mm256_mask_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <8 x i32> @llvm.ctlz.v8i32(<8 x i32> %{{.*}}, i1 false) + // CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}} return _mm256_mask_lzcnt_epi32(__W, __U, __A); } __m256i test_mm256_maskz_lzcnt_epi32(__mmask8 __U, __m256i __A) { // CHECK-LABEL: @test_mm256_maskz_lzcnt_epi32 - // CHECK: @llvm.x86.avx512.mask.lzcnt.d + // CHECK: call <8 x i32> @llvm.ctlz.v8i32(<8 x i32> %{{.*}}, i1 false) + // CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}} return _mm256_maskz_lzcnt_epi32(__U, __A); } __m128i test_mm_lzcnt_epi64(__m128i __A) { // CHECK-LABEL: @test_mm_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false) return _mm_lzcnt_epi64(__A); } __m128i test_mm_mask_lzcnt_epi64(__m128i __W, __mmask8 __U, __m128i __A) { // CHECK-LABEL: @test_mm_mask_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false) + // CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}} return _mm_mask_lzcnt_epi64(__W, __U, __A); } __m128i test_mm_maskz_lzcnt_epi64(__mmask8 __U, __m128i __A) { // CHECK-LABEL: @test_mm_maskz_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false) + // CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}} return _mm_maskz_lzcnt_epi64(__U, __A); } __m256i test_mm256_lzcnt_epi64(__m256i __A) { // CHECK-LABEL: @test_mm256_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <4 x i64> @llvm.ctlz.v4i64(<4 x i64> %{{.*}}, i1 false) return _mm256_lzcnt_epi64(__A); } __m256i test_mm256_mask_lzcnt_epi64(__m256i __W, __mmask8 __U, __m256i __A) { // CHECK-LABEL: @test_mm256_mask_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <4 x i64> @llvm.ctlz.v4i64(<4 x i64> %{{.*}}, i1 false) + // CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}} return _mm256_mask_lzcnt_epi64(__W, __U, __A); } __m256i test_mm256_maskz_lzcnt_epi64(__mmask8 __U, __m256i __A) { // CHECK-LABEL: @test_mm256_maskz_lzcnt_epi64 - // CHECK: @llvm.x86.avx512.mask.lzcnt.q + // CHECK: call <4 x i64> @llvm.ctlz.v4i64(<4 x i64> %{{.*}}, i1 false) + // CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}} return _mm256_maskz_lzcnt_epi64(__U, __A); }