From 68f37d7934885c32f809e3803c65abc877a15c2c Mon Sep 17 00:00:00 2001 From: Sun Yimin Date: Thu, 29 Aug 2024 14:05:47 +0800 Subject: [PATCH] internal/sm2ec: ppc64le, change to use VMULUWM as WMLF --- internal/sm2ec/p256_asm_ppc64le.s | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/internal/sm2ec/p256_asm_ppc64le.s b/internal/sm2ec/p256_asm_ppc64le.s index b4966a3..6bf745c 100644 --- a/internal/sm2ec/p256_asm_ppc64le.s +++ b/internal/sm2ec/p256_asm_ppc64le.s @@ -547,7 +547,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -624,7 +624,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -663,7 +663,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -702,7 +702,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -741,7 +741,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -780,7 +780,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -819,7 +819,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -858,7 +858,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULOUW ADD1, K0, MK0 + VMULUWM ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1