diff --git a/internal/sm2ec/p256_asm_ppc64le.s b/internal/sm2ec/p256_asm_ppc64le.s index 484b4cd..b4966a3 100644 --- a/internal/sm2ec/p256_asm_ppc64le.s +++ b/internal/sm2ec/p256_asm_ppc64le.s @@ -547,9 +547,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -626,9 +624,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -667,9 +663,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -708,9 +702,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -749,9 +741,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -790,9 +780,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -831,9 +819,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1 @@ -872,9 +858,7 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 - VMULEUW ADD1, K0, TMP1 - VMULOUW ADD1, K0, TMP2 - VMRGOW TMP1, TMP2, MK0 + VMULOUW ADD1, K0, MK0 VSPLTW $3, MK0, MK0 // VMALF M0, MK0, ADD1, RED1