以下是一些常见的激活函数,包括 TensorFlow 中的激活函数以及其他常用的激活函数:
TensorFlow 中的激活函数:
1. `"relu"`:线性整流单元(Rectified Linear Unit)
2. `"sigmoid"`:Sigmoid 函数
3. `"tanh"`:双曲正切函数(Hyperbolic Tangent)
4. `"softmax"`:Softmax 函数
5. `"softplus"`:Softplus 函数
6. `"swish"`:Swish 激活函数
7. `"leaky_relu"`:泄漏线性整流单元(Leaky ReLU)
8. `"prelu"`:参数化泄漏线性整流单元(Parametric ReLU)
9. `"rrelu"`:随机泄漏线性整流单元(Randomized Leaky ReLU)
10. `"elu"`:指数线性单元(Exponential Linear Unit)
11. `"selu"`:自归一化指数线性单元(Scaled Exponential Linear Unit)
12. `"gelu"`:高斯误差线性单元(Gaussian Error Linear Unit)
其他常见的激活函数:
13. Identity(恒等函数)
14. ArcTan(反正切函数)
15. ReLU6(限制线性整流单元)
16. Hard Sigmoid(硬 Sigmoid 函数)
17. Hard Tanh(硬双曲正切函数)
18. Mish(Mish 激活函数)
19. ISRU(逐点平方根线性单元)
20. Bent Identity(弯曲恒等函数)
21. SQNL(平方非线性函数)
22. Soft Clip(软剪辑函数)
您可以根据具体的问题和实验情况选择适合的激活函数。