@@ -48,7 +48,7 @@ declare <vscale x 8 x half> @llvm.riscv.vfmv.s.f.nxv8f16(<vscale x 8 x half>, ha
48
48
define <vscale x 8 x half > @intrinsic_vfmv.s.f_f_nxv8f16 (<vscale x 8 x half > %0 , half %1 , iXLen %2 ) nounwind {
49
49
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv8f16:
50
50
; CHECK: # %bb.0: # %entry
51
- ; CHECK-NEXT: vsetvli zero, a0, e16, m2 , tu, ma
51
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
52
52
; CHECK-NEXT: vfmv.s.f v8, fa0
53
53
; CHECK-NEXT: ret
54
54
entry:
@@ -61,7 +61,7 @@ declare <vscale x 16 x half> @llvm.riscv.vfmv.s.f.nxv16f16(<vscale x 16 x half>,
61
61
define <vscale x 16 x half > @intrinsic_vfmv.s.f_f_nxv16f16 (<vscale x 16 x half > %0 , half %1 , iXLen %2 ) nounwind {
62
62
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv16f16:
63
63
; CHECK: # %bb.0: # %entry
64
- ; CHECK-NEXT: vsetvli zero, a0, e16, m4 , tu, ma
64
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
65
65
; CHECK-NEXT: vfmv.s.f v8, fa0
66
66
; CHECK-NEXT: ret
67
67
entry:
@@ -74,7 +74,7 @@ declare <vscale x 32 x half> @llvm.riscv.vfmv.s.f.nxv32f16(<vscale x 32 x half>,
74
74
define <vscale x 32 x half > @intrinsic_vfmv.s.f_f_nxv32f16 (<vscale x 32 x half > %0 , half %1 , iXLen %2 ) nounwind {
75
75
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv32f16:
76
76
; CHECK: # %bb.0: # %entry
77
- ; CHECK-NEXT: vsetvli zero, a0, e16, m8 , tu, ma
77
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
78
78
; CHECK-NEXT: vfmv.s.f v8, fa0
79
79
; CHECK-NEXT: ret
80
80
entry:
@@ -113,7 +113,7 @@ declare <vscale x 4 x float> @llvm.riscv.vfmv.s.f.nxv4f32(<vscale x 4 x float>,
113
113
define <vscale x 4 x float > @intrinsic_vfmv.s.f_f_nxv4f32 (<vscale x 4 x float > %0 , float %1 , iXLen %2 ) nounwind {
114
114
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv4f32:
115
115
; CHECK: # %bb.0: # %entry
116
- ; CHECK-NEXT: vsetvli zero, a0, e32, m2 , tu, ma
116
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
117
117
; CHECK-NEXT: vfmv.s.f v8, fa0
118
118
; CHECK-NEXT: ret
119
119
entry:
@@ -126,7 +126,7 @@ declare <vscale x 8 x float> @llvm.riscv.vfmv.s.f.nxv8f32(<vscale x 8 x float>,
126
126
define <vscale x 8 x float > @intrinsic_vfmv.s.f_f_nxv8f32 (<vscale x 8 x float > %0 , float %1 , iXLen %2 ) nounwind {
127
127
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv8f32:
128
128
; CHECK: # %bb.0: # %entry
129
- ; CHECK-NEXT: vsetvli zero, a0, e32, m4 , tu, ma
129
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
130
130
; CHECK-NEXT: vfmv.s.f v8, fa0
131
131
; CHECK-NEXT: ret
132
132
entry:
@@ -139,7 +139,7 @@ declare <vscale x 16 x float> @llvm.riscv.vfmv.s.f.nxv16f32(<vscale x 16 x float
139
139
define <vscale x 16 x float > @intrinsic_vfmv.s.f_f_nxv16f32 (<vscale x 16 x float > %0 , float %1 , iXLen %2 ) nounwind {
140
140
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv16f32:
141
141
; CHECK: # %bb.0: # %entry
142
- ; CHECK-NEXT: vsetvli zero, a0, e32, m8 , tu, ma
142
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
143
143
; CHECK-NEXT: vfmv.s.f v8, fa0
144
144
; CHECK-NEXT: ret
145
145
entry:
@@ -165,7 +165,7 @@ declare <vscale x 2 x double> @llvm.riscv.vfmv.s.f.nxv2f64(<vscale x 2 x double>
165
165
define <vscale x 2 x double > @intrinsic_vfmv.s.f_f_nxv2f64 (<vscale x 2 x double > %0 , double %1 , iXLen %2 ) nounwind {
166
166
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv2f64:
167
167
; CHECK: # %bb.0: # %entry
168
- ; CHECK-NEXT: vsetvli zero, a0, e64, m2 , tu, ma
168
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
169
169
; CHECK-NEXT: vfmv.s.f v8, fa0
170
170
; CHECK-NEXT: ret
171
171
entry:
@@ -178,7 +178,7 @@ declare <vscale x 4 x double> @llvm.riscv.vfmv.s.f.nxv4f64(<vscale x 4 x double>
178
178
define <vscale x 4 x double > @intrinsic_vfmv.s.f_f_nxv4f64 (<vscale x 4 x double > %0 , double %1 , iXLen %2 ) nounwind {
179
179
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv4f64:
180
180
; CHECK: # %bb.0: # %entry
181
- ; CHECK-NEXT: vsetvli zero, a0, e64, m4 , tu, ma
181
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
182
182
; CHECK-NEXT: vfmv.s.f v8, fa0
183
183
; CHECK-NEXT: ret
184
184
entry:
@@ -191,7 +191,7 @@ declare <vscale x 8 x double> @llvm.riscv.vfmv.s.f.nxv8f64(<vscale x 8 x double>
191
191
define <vscale x 8 x double > @intrinsic_vfmv.s.f_f_nxv8f64 (<vscale x 8 x double > %0 , double %1 , iXLen %2 ) nounwind {
192
192
; CHECK-LABEL: intrinsic_vfmv.s.f_f_nxv8f64:
193
193
; CHECK: # %bb.0: # %entry
194
- ; CHECK-NEXT: vsetvli zero, a0, e64, m8 , tu, ma
194
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
195
195
; CHECK-NEXT: vfmv.s.f v8, fa0
196
196
; CHECK-NEXT: ret
197
197
entry:
@@ -235,7 +235,7 @@ entry:
235
235
define <vscale x 8 x half > @intrinsic_vfmv.s.f_f_zero_nxv8f16 (<vscale x 8 x half > %0 , iXLen %1 ) nounwind {
236
236
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv8f16:
237
237
; CHECK: # %bb.0: # %entry
238
- ; CHECK-NEXT: vsetvli zero, a0, e16, m2 , tu, ma
238
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
239
239
; CHECK-NEXT: vmv.s.x v8, zero
240
240
; CHECK-NEXT: ret
241
241
entry:
@@ -246,7 +246,7 @@ entry:
246
246
define <vscale x 16 x half > @intrinsic_vfmv.s.f_f_zero_nxv16f16 (<vscale x 16 x half > %0 , iXLen %1 ) nounwind {
247
247
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv16f16:
248
248
; CHECK: # %bb.0: # %entry
249
- ; CHECK-NEXT: vsetvli zero, a0, e16, m4 , tu, ma
249
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
250
250
; CHECK-NEXT: vmv.s.x v8, zero
251
251
; CHECK-NEXT: ret
252
252
entry:
@@ -257,7 +257,7 @@ entry:
257
257
define <vscale x 32 x half > @intrinsic_vfmv.s.f_f_zero_nxv32f16 (<vscale x 32 x half > %0 , iXLen %1 ) nounwind {
258
258
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv32f16:
259
259
; CHECK: # %bb.0: # %entry
260
- ; CHECK-NEXT: vsetvli zero, a0, e16, m8 , tu, ma
260
+ ; CHECK-NEXT: vsetvli zero, a0, e16, m1 , tu, ma
261
261
; CHECK-NEXT: vmv.s.x v8, zero
262
262
; CHECK-NEXT: ret
263
263
entry:
@@ -290,7 +290,7 @@ entry:
290
290
define <vscale x 4 x float > @intrinsic_vfmv.s.f_f_zero_nxv4f32 (<vscale x 4 x float > %0 , iXLen %1 ) nounwind {
291
291
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv4f32:
292
292
; CHECK: # %bb.0: # %entry
293
- ; CHECK-NEXT: vsetvli zero, a0, e32, m2 , tu, ma
293
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
294
294
; CHECK-NEXT: vmv.s.x v8, zero
295
295
; CHECK-NEXT: ret
296
296
entry:
@@ -301,7 +301,7 @@ entry:
301
301
define <vscale x 8 x float > @intrinsic_vfmv.s.f_f_zero_nxv8f32 (<vscale x 8 x float > %0 , iXLen %1 ) nounwind {
302
302
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv8f32:
303
303
; CHECK: # %bb.0: # %entry
304
- ; CHECK-NEXT: vsetvli zero, a0, e32, m4 , tu, ma
304
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
305
305
; CHECK-NEXT: vmv.s.x v8, zero
306
306
; CHECK-NEXT: ret
307
307
entry:
@@ -312,7 +312,7 @@ entry:
312
312
define <vscale x 16 x float > @intrinsic_vfmv.s.f_f_zero_nxv16f32 (<vscale x 16 x float > %0 , iXLen %1 ) nounwind {
313
313
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv16f32:
314
314
; CHECK: # %bb.0: # %entry
315
- ; CHECK-NEXT: vsetvli zero, a0, e32, m8 , tu, ma
315
+ ; CHECK-NEXT: vsetvli zero, a0, e32, m1 , tu, ma
316
316
; CHECK-NEXT: vmv.s.x v8, zero
317
317
; CHECK-NEXT: ret
318
318
entry:
@@ -334,7 +334,7 @@ entry:
334
334
define <vscale x 2 x double > @intrinsic_vfmv.s.f_f_zero_nxv2f64 (<vscale x 2 x double > %0 , iXLen %1 ) nounwind {
335
335
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv2f64:
336
336
; CHECK: # %bb.0: # %entry
337
- ; CHECK-NEXT: vsetvli zero, a0, e64, m2 , tu, ma
337
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
338
338
; CHECK-NEXT: vmv.s.x v8, zero
339
339
; CHECK-NEXT: ret
340
340
entry:
@@ -345,7 +345,7 @@ entry:
345
345
define <vscale x 4 x double > @intrinsic_vfmv.s.f_f_zero_nxv4f64 (<vscale x 4 x double > %0 , iXLen %1 ) nounwind {
346
346
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv4f64:
347
347
; CHECK: # %bb.0: # %entry
348
- ; CHECK-NEXT: vsetvli zero, a0, e64, m4 , tu, ma
348
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
349
349
; CHECK-NEXT: vmv.s.x v8, zero
350
350
; CHECK-NEXT: ret
351
351
entry:
@@ -356,7 +356,7 @@ entry:
356
356
define <vscale x 8 x double > @intrinsic_vfmv.s.f_f_zero_nxv8f64 (<vscale x 8 x double > %0 , iXLen %1 ) nounwind {
357
357
; CHECK-LABEL: intrinsic_vfmv.s.f_f_zero_nxv8f64:
358
358
; CHECK: # %bb.0: # %entry
359
- ; CHECK-NEXT: vsetvli zero, a0, e64, m8 , tu, ma
359
+ ; CHECK-NEXT: vsetvli zero, a0, e64, m1 , tu, ma
360
360
; CHECK-NEXT: vmv.s.x v8, zero
361
361
; CHECK-NEXT: ret
362
362
entry:
0 commit comments