]> granicus.if.org Git - llvm/commitdiff
[x86] eliminate movddup of horizontal op
authorSanjay Patel <spatel@rotateright.com>
Wed, 3 Apr 2019 22:15:29 +0000 (22:15 +0000)
committerSanjay Patel <spatel@rotateright.com>
Wed, 3 Apr 2019 22:15:29 +0000 (22:15 +0000)
This pattern would show up as a regression if we more
aggressively convert vector FP ops to scalar ops.

There's still a missed optimization for the v4f64 legal
case (AVX) because we create that h-op with an undef operand.
We should probably just duplicate the operands for that
pattern to avoid trouble.

git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@357642 91177308-0d34-0410-b5e6-96231b3b80d8

lib/Target/X86/X86ISelLowering.cpp
test/CodeGen/X86/haddsub-shuf.ll

index f22e8934fff7ccd361829786953c797a4093c07a..84009979ea172f918169fe135acc4f50281b598e 100644 (file)
@@ -32866,8 +32866,10 @@ static SDValue combineShuffleOfConcatUndef(SDNode *N, SelectionDAG &DAG,
 
 /// Eliminate a redundant shuffle of a horizontal math op.
 static SDValue foldShuffleOfHorizOp(SDNode *N) {
-  if (N->getOpcode() != ISD::VECTOR_SHUFFLE || !N->getOperand(1).isUndef())
-    return SDValue();
+  unsigned Opcode = N->getOpcode();
+  if (Opcode != X86ISD::MOVDDUP)
+    if (Opcode != ISD::VECTOR_SHUFFLE || !N->getOperand(1).isUndef())
+      return SDValue();
 
   SDValue HOp = N->getOperand(0);
   if (HOp.getOpcode() != X86ISD::HADD && HOp.getOpcode() != X86ISD::FHADD &&
@@ -32885,6 +32887,13 @@ static SDValue foldShuffleOfHorizOp(SDNode *N) {
   // When the operands of a horizontal math op are identical, the low half of
   // the result is the same as the high half. If the shuffle is also replicating
   // low and high halves, we don't need the shuffle.
+  if (Opcode == X86ISD::MOVDDUP) {
+    // movddup (hadd X, X) --> hadd X, X
+    assert((HOp.getValueType() == MVT::v2f64 ||
+            HOp.getValueType() == MVT::v4f64) && "Unexpected type for h-op");
+    return HOp;
+  }
+
   // shuffle (hadd X, X), undef, [low half...high half] --> hadd X, X
   ArrayRef<int> Mask = cast<ShuffleVectorSDNode>(N)->getMask();
   // TODO: Other mask possibilities like {1,1} and {1,0} could be added here,
index 92bb55a4a750638dc04f0edeb058f17f38155ab0..e50d6af6e09404c48ce175bdcdb216c4cd17a340 100644 (file)
@@ -325,7 +325,6 @@ define <2 x double> @hadd_v2f64_scalar_splat(<2 x double> %a) {
 ; SSSE3_FAST-LABEL: hadd_v2f64_scalar_splat:
 ; SSSE3_FAST:       # %bb.0:
 ; SSSE3_FAST-NEXT:    haddpd %xmm0, %xmm0
-; SSSE3_FAST-NEXT:    movddup {{.*#+}} xmm0 = xmm0[0,0]
 ; SSSE3_FAST-NEXT:    retq
 ;
 ; AVX1_SLOW-LABEL: hadd_v2f64_scalar_splat:
@@ -338,7 +337,6 @@ define <2 x double> @hadd_v2f64_scalar_splat(<2 x double> %a) {
 ; AVX1_FAST-LABEL: hadd_v2f64_scalar_splat:
 ; AVX1_FAST:       # %bb.0:
 ; AVX1_FAST-NEXT:    vhaddpd %xmm0, %xmm0, %xmm0
-; AVX1_FAST-NEXT:    vmovddup {{.*#+}} xmm0 = xmm0[0,0]
 ; AVX1_FAST-NEXT:    retq
 ;
 ; AVX2_SLOW-LABEL: hadd_v2f64_scalar_splat:
@@ -378,8 +376,6 @@ define <4 x double> @hadd_v4f64_scalar_splat(<4 x double> %a) {
 ; SSSE3_FAST:       # %bb.0:
 ; SSSE3_FAST-NEXT:    haddpd %xmm0, %xmm0
 ; SSSE3_FAST-NEXT:    haddpd %xmm1, %xmm1
-; SSSE3_FAST-NEXT:    movddup {{.*#+}} xmm0 = xmm0[0,0]
-; SSSE3_FAST-NEXT:    movddup {{.*#+}} xmm1 = xmm1[0,0]
 ; SSSE3_FAST-NEXT:    retq
 ;
 ; AVX-LABEL: hadd_v4f64_scalar_splat: