1# Activation
2
3
4## 概述
5
6激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型一句参数来确定。
7
8该算子对应的[NodeType](_n_n_rt_v20.md#nodetype)为NODE_TYPE_ACTIVATION。
9
10输入:
11
12- x,n维张量。
13
14输出:
15
16- 输出x经过激活函数之后的张量。
17
18**起始版本:** 3.2
19
20**相关模块:**[NNRt](_n_n_rt_v20.md)
21
22
23## 汇总
24
25
26### Public 属性
27
28| 名称 | 描述 |
29| -------- | -------- |
30| enum [ActivationType](_n_n_rt_v20.md#activationtype)[activationType](#activationtype) | 激活函数类型。  |
31| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。  |
32| float [minVal](#minval) | 最小值,用于HardTanh激活函数。  |
33| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。  |
34| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。  |
35
36
37## 类成员变量说明
38
39
40### activationType
41
42```
43enum ActivationType Activation::activationType
44```
45**描述**
46
47激活函数类型。
48
49
50### alpha
51
52```
53float Activation::alpha
54```
55**描述**
56
57尺寸因子,用于LeakyReLU和ELU激活函数。
58
59
60### approximate
61
62```
63boolean Activation::approximate
64```
65**描述**
66
67是否使用近似算法,用于GRLU激活函数。
68
69
70### maxVal
71
72```
73float Activation::maxVal
74```
75**描述**
76
77最大值,用于HardTanh激活函数。
78
79
80### minVal
81
82```
83float Activation::minVal
84```
85**描述**
86
87最小值,用于HardTanh激活函数。
88