1# Activation 2 3 4## 概述 5 6激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型一句参数来确定。 7 8该算子对应的[NodeType](_n_n_rt_v20.md#nodetype)为NODE_TYPE_ACTIVATION。 9 10输入: 11 12- x,n维张量。 13 14输出: 15 16- 输出x经过激活函数之后的张量。 17 18**起始版本:** 3.2 19 20**相关模块:**[NNRt](_n_n_rt_v20.md) 21 22 23## 汇总 24 25 26### Public 属性 27 28| 名称 | 描述 | 29| -------- | -------- | 30| enum [ActivationType](_n_n_rt_v20.md#activationtype)[activationType](#activationtype) | 激活函数类型。 | 31| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。 | 32| float [minVal](#minval) | 最小值,用于HardTanh激活函数。 | 33| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。 | 34| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。 | 35 36 37## 类成员变量说明 38 39 40### activationType 41 42``` 43enum ActivationType Activation::activationType 44``` 45**描述** 46 47激活函数类型。 48 49 50### alpha 51 52``` 53float Activation::alpha 54``` 55**描述** 56 57尺寸因子,用于LeakyReLU和ELU激活函数。 58 59 60### approximate 61 62``` 63boolean Activation::approximate 64``` 65**描述** 66 67是否使用近似算法,用于GRLU激活函数。 68 69 70### maxVal 71 72``` 73float Activation::maxVal 74``` 75**描述** 76 77最大值,用于HardTanh激活函数。 78 79 80### minVal 81 82``` 83float Activation::minVal 84``` 85**描述** 86 87最小值,用于HardTanh激活函数。 88