Skip to content

Commit

Permalink
apply code-format changes
Browse files Browse the repository at this point in the history
  • Loading branch information
nihui authored and github-actions[bot] committed Aug 26, 2024
1 parent e3d5104 commit ad9d977
Show file tree
Hide file tree
Showing 3 changed files with 130 additions and 130 deletions.
4 changes: 2 additions & 2 deletions src/layer/riscv/riscv_activation.h
Original file line number Diff line number Diff line change
Expand Up @@ -34,7 +34,7 @@
else if (activation_type == 2) \
{ \
vbool##MLEN##_t _lemask = __riscv_vmfle_vf_f##SEW##m##LMUL##_b##MLEN(_v, 0.f, vl); \
_v = __riscv_vfmul_vf_f##SEW##m##LMUL##_mu(_lemask, _v, _v, activation_params[0], vl); \
_v = __riscv_vfmul_vf_f##SEW##m##LMUL##_mu(_lemask, _v, _v, activation_params[0], vl); \
} \
else if (activation_type == 3) \
{ \
Expand All @@ -61,7 +61,7 @@
_v = __riscv_vfmerge_vfm_f##SEW##m##LMUL(_v, .0f, _lower, vl); \
\
vfloat##SEW##m##LMUL##_t _p0 = __riscv_vfadd_vf_f##SEW##m##LMUL##_m(_apply, __riscv_vfmul_vf_f##SEW##m##LMUL##_m(_apply, _v, alpha, vl), beta, vl); \
_v = __riscv_vfmul_vv_f##SEW##m##LMUL##_mu(_apply, _v, _v, _p0, vl); \
_v = __riscv_vfmul_vv_f##SEW##m##LMUL##_mu(_apply, _v, _v, _p0, vl); \
} \
\
return _v; \
Expand Down
128 changes: 64 additions & 64 deletions src/layer/riscv/rvv_mathfun.h
Original file line number Diff line number Diff line change
Expand Up @@ -31,71 +31,71 @@
#define c_cephes_log_q1 -2.12194440e-4
#define c_cephes_log_q2 0.693359375

#define _RVV_FLOAT32_LOG_OP(LMUL, MLEN) \
static inline vfloat32m##LMUL##_t log_ps(vfloat32m##LMUL##_t x, size_t vl) \
{ \
x = __riscv_vfmax_vf_f32m##LMUL(x, 0.f, vl); /* force flush to zero on denormal values */ \
vbool##MLEN##_t invalid_mask = __riscv_vmfle_vf_f32m##LMUL##_b##MLEN(x, 0.f, vl); \
\
vint32m##LMUL##_t ux = __riscv_vreinterpret_v_f32m##LMUL##_i32m##LMUL(x); \
\
vint32m##LMUL##_t emm0 = __riscv_vsra_vx_i32m##LMUL(ux, 23, vl); \
\
/* keep only the fractional part */ \
ux = __riscv_vand_vx_i32m##LMUL(ux, c_inv_mant_mask, vl); \
ux = __riscv_vor_vx_i32m##LMUL(ux, 1056964608 /* reinterpret_cast<int>(0.5) */, vl); \
x = __riscv_vreinterpret_v_i32m##LMUL##_f32m##LMUL(ux); \
\
emm0 = __riscv_vsub_vx_i32m##LMUL(emm0, 0x7f, vl); \
vfloat32m##LMUL##_t e = __riscv_vfcvt_f_x_v_f32m##LMUL(emm0, vl); \
\
e = __riscv_vfadd_vf_f32m##LMUL(e, 1.f, vl); \
\
/* part2: */ \
/* if( x < SQRTHF ) { */ \
/* e -= 1; */ \
/* x = x + x - 1.0; */ \
/* } else { x = x - 1.0; } */ \
vbool##MLEN##_t mask = __riscv_vmflt_vf_f32m##LMUL##_b##MLEN(x, c_cephes_SQRTHF, vl); \
x = __riscv_vfadd_vv_f32m##LMUL##_mu(mask, x, x, x, vl); \
x = __riscv_vfsub_vf_f32m##LMUL(x, 1.f, vl); \
e = __riscv_vfsub_vf_f32m##LMUL##_mu(mask, e, e, 1.f, vl); \
\
vfloat32m##LMUL##_t z = __riscv_vfmul_vv_f32m##LMUL(x, x, vl); \
\
vfloat32m##LMUL##_t y = __riscv_vfmul_vf_f32m##LMUL(x, c_cephes_log_p0, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p1, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p2, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p3, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p4, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p5, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p6, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p7, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p8, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
\
y = __riscv_vfmul_vv_f32m##LMUL(y, z, vl); \
\
vfloat32m##LMUL##_t tmp = __riscv_vfmul_vf_f32m##LMUL(e, c_cephes_log_q1, vl); \
y = __riscv_vfadd_vv_f32m##LMUL(y, tmp, vl); \
\
tmp = __riscv_vfmul_vf_f32m##LMUL(z, 0.5f, vl); \
y = __riscv_vfsub_vv_f32m##LMUL(y, tmp, vl); \
\
tmp = __riscv_vfmul_vf_f32m##LMUL(e, c_cephes_log_q2, vl); \
x = __riscv_vfadd_vv_f32m##LMUL(x, y, vl); \
x = __riscv_vfadd_vv_f32m##LMUL(x, tmp, vl); \
/* negative arg will be NAN */ \
vuint32m##LMUL##_t xtmp = __riscv_vreinterpret_v_f32m##LMUL##_u32m##LMUL(x); \
#define _RVV_FLOAT32_LOG_OP(LMUL, MLEN) \
static inline vfloat32m##LMUL##_t log_ps(vfloat32m##LMUL##_t x, size_t vl) \
{ \
x = __riscv_vfmax_vf_f32m##LMUL(x, 0.f, vl); /* force flush to zero on denormal values */ \
vbool##MLEN##_t invalid_mask = __riscv_vmfle_vf_f32m##LMUL##_b##MLEN(x, 0.f, vl); \
\
vint32m##LMUL##_t ux = __riscv_vreinterpret_v_f32m##LMUL##_i32m##LMUL(x); \
\
vint32m##LMUL##_t emm0 = __riscv_vsra_vx_i32m##LMUL(ux, 23, vl); \
\
/* keep only the fractional part */ \
ux = __riscv_vand_vx_i32m##LMUL(ux, c_inv_mant_mask, vl); \
ux = __riscv_vor_vx_i32m##LMUL(ux, 1056964608 /* reinterpret_cast<int>(0.5) */, vl); \
x = __riscv_vreinterpret_v_i32m##LMUL##_f32m##LMUL(ux); \
\
emm0 = __riscv_vsub_vx_i32m##LMUL(emm0, 0x7f, vl); \
vfloat32m##LMUL##_t e = __riscv_vfcvt_f_x_v_f32m##LMUL(emm0, vl); \
\
e = __riscv_vfadd_vf_f32m##LMUL(e, 1.f, vl); \
\
/* part2: */ \
/* if( x < SQRTHF ) { */ \
/* e -= 1; */ \
/* x = x + x - 1.0; */ \
/* } else { x = x - 1.0; } */ \
vbool##MLEN##_t mask = __riscv_vmflt_vf_f32m##LMUL##_b##MLEN(x, c_cephes_SQRTHF, vl); \
x = __riscv_vfadd_vv_f32m##LMUL##_mu(mask, x, x, x, vl); \
x = __riscv_vfsub_vf_f32m##LMUL(x, 1.f, vl); \
e = __riscv_vfsub_vf_f32m##LMUL##_mu(mask, e, e, 1.f, vl); \
\
vfloat32m##LMUL##_t z = __riscv_vfmul_vv_f32m##LMUL(x, x, vl); \
\
vfloat32m##LMUL##_t y = __riscv_vfmul_vf_f32m##LMUL(x, c_cephes_log_p0, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p1, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p2, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p3, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p4, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p5, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p6, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p7, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
y = __riscv_vfadd_vf_f32m##LMUL(y, c_cephes_log_p8, vl); \
y = __riscv_vfmul_vv_f32m##LMUL(y, x, vl); \
\
y = __riscv_vfmul_vv_f32m##LMUL(y, z, vl); \
\
vfloat32m##LMUL##_t tmp = __riscv_vfmul_vf_f32m##LMUL(e, c_cephes_log_q1, vl); \
y = __riscv_vfadd_vv_f32m##LMUL(y, tmp, vl); \
\
tmp = __riscv_vfmul_vf_f32m##LMUL(z, 0.5f, vl); \
y = __riscv_vfsub_vv_f32m##LMUL(y, tmp, vl); \
\
tmp = __riscv_vfmul_vf_f32m##LMUL(e, c_cephes_log_q2, vl); \
x = __riscv_vfadd_vv_f32m##LMUL(x, y, vl); \
x = __riscv_vfadd_vv_f32m##LMUL(x, tmp, vl); \
/* negative arg will be NAN */ \
vuint32m##LMUL##_t xtmp = __riscv_vreinterpret_v_f32m##LMUL##_u32m##LMUL(x); \
x = __riscv_vreinterpret_v_u32m##LMUL##_f32m##LMUL(__riscv_vor_vx_u32m##LMUL##_mu(invalid_mask, xtmp, xtmp, 0xffffffff, vl)); \
return x; \
return x; \
}

_RVV_FLOAT32_LOG_OP(1, 32)
Expand Down
Loading

0 comments on commit ad9d977

Please sign in to comment.