; XMM versions.
-define void @test_zero_v2f64_align1(<2 x double>* %dst) {
+define void @test_zero_v2f64_align1(<2 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v2f64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v4f32_align1(<4 x float>* %dst) {
+define void @test_zero_v4f32_align1(<4 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v4f32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v2i64_align1(<2 x i64>* %dst) {
+define void @test_zero_v2i64_align1(<2 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v2i64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v4i32_align1(<4 x i32>* %dst) {
+define void @test_zero_v4i32_align1(<4 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v4i32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i16_align1(<8 x i16>* %dst) {
+define void @test_zero_v8i16_align1(<8 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i16_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i8_align1(<16 x i8>* %dst) {
+define void @test_zero_v16i8_align1(<16 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i8_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
; YMM versions.
-define void @test_zero_v4f64_align1(<4 x double>* %dst) {
+define void @test_zero_v4f64_align1(<4 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v4f64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8f32_align1(<8 x float>* %dst) {
+define void @test_zero_v8f32_align1(<8 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v8f32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v4i64_align1(<4 x i64>* %dst) {
+define void @test_zero_v4i64_align1(<4 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v4i64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i32_align1(<8 x i32>* %dst) {
+define void @test_zero_v8i32_align1(<8 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i16_align1(<16 x i16>* %dst) {
+define void @test_zero_v16i16_align1(<16 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i16_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v32i8_align1(<32 x i8>* %dst) {
+define void @test_zero_v32i8_align1(<32 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v32i8_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v4f64_align16(<4 x double>* %dst) {
+define void @test_zero_v4f64_align16(<4 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v4f64_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8f32_align16(<8 x float>* %dst) {
+define void @test_zero_v8f32_align16(<8 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v8f32_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v4i64_align16(<4 x i64>* %dst) {
+define void @test_zero_v4i64_align16(<4 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v4i64_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i32_align16(<8 x i32>* %dst) {
+define void @test_zero_v8i32_align16(<8 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i32_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i16_align16(<16 x i16>* %dst) {
+define void @test_zero_v16i16_align16(<16 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i16_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v32i8_align16(<32 x i8>* %dst) {
+define void @test_zero_v32i8_align16(<32 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v32i8_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
; ZMM versions.
-define void @test_zero_v8f64_align1(<8 x double>* %dst) {
+define void @test_zero_v8f64_align1(<8 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v8f64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16f32_align1(<16 x float>* %dst) {
+define void @test_zero_v16f32_align1(<16 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v16f32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i64_align1(<8 x i64>* %dst) {
+define void @test_zero_v8i64_align1(<8 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i64_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i32_align1(<16 x i32>* %dst) {
+define void @test_zero_v16i32_align1(<16 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i32_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v32i16_align1(<32 x i16>* %dst) {
+define void @test_zero_v32i16_align1(<32 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v32i16_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v64i8_align1(<64 x i8>* %dst) {
+define void @test_zero_v64i8_align1(<64 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v64i8_align1:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8f64_align16(<8 x double>* %dst) {
+define void @test_zero_v8f64_align16(<8 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v8f64_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16f32_align16(<16 x float>* %dst) {
+define void @test_zero_v16f32_align16(<16 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v16f32_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i64_align16(<8 x i64>* %dst) {
+define void @test_zero_v8i64_align16(<8 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i64_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i32_align16(<16 x i32>* %dst) {
+define void @test_zero_v16i32_align16(<16 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i32_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v32i16_align16(<32 x i16>* %dst) {
+define void @test_zero_v32i16_align16(<32 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v32i16_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v64i8_align16(<64 x i8>* %dst) {
+define void @test_zero_v64i8_align16(<64 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v64i8_align16:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8f64_align32(<8 x double>* %dst) {
+define void @test_zero_v8f64_align32(<8 x double>* %dst) nounwind {
; SSE-LABEL: test_zero_v8f64_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16f32_align32(<16 x float>* %dst) {
+define void @test_zero_v16f32_align32(<16 x float>* %dst) nounwind {
; SSE-LABEL: test_zero_v16f32_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v8i64_align32(<8 x i64>* %dst) {
+define void @test_zero_v8i64_align32(<8 x i64>* %dst) nounwind {
; SSE-LABEL: test_zero_v8i64_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v16i32_align32(<16 x i32>* %dst) {
+define void @test_zero_v16i32_align32(<16 x i32>* %dst) nounwind {
; SSE-LABEL: test_zero_v16i32_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v32i16_align32(<32 x i16>* %dst) {
+define void @test_zero_v32i16_align32(<32 x i16>* %dst) nounwind {
; SSE-LABEL: test_zero_v32i16_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0
ret void
}
-define void @test_zero_v64i8_align32(<64 x i8>* %dst) {
+define void @test_zero_v64i8_align32(<64 x i8>* %dst) nounwind {
; SSE-LABEL: test_zero_v64i8_align32:
; SSE: # %bb.0:
; SSE-NEXT: xorps %xmm0, %xmm0