8个深度学习中常用的激活函数
ztj100 2024-12-07 18:51 21 浏览 0 评论
激活函数,又称转换函数,是设计神经网络的关键。激活函数在某种意义上是重要的,因为它被用来确定神经网络的输出。它将结果值映射为0到1或-1到1等(取决于函数)。激活函数还有另一个名称,称为Squashing函数,当限制了激活函数的范围时使用这个名称。激活函数应用于神经网络的每个节点,并决定该神经元是否应该被“触发”/“激活”。
为什么选择激活函数是非常重要的。
当在隐藏层和输出层中实现时,激活函数的选择非常关键。模型的准确性和损失很大程度上依赖于激活函数。此外,必须根据您对模型的期望来选择它们。例如,在二值分类问题中,sigmoid函数是一种最优选择。
激活函数类型。大致可分为两类:
线性激活函数。
非线性激活函数。
为了方便展示我们导入如下库:
import math as m
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
Sigmoid
sigmoid激活函数也称为logistic函数。Sigmoid函数在回归分类问题中非常流行。sigmoid函数给出的值的范围是0和1。
def sigmoid(x):
return 1 / (1 + m.exp(-x))values_of_sigmoid = []
values_of_x = []
for i in range(-500,500,1):
i = i*0.01
values_of_x.append(i)
values_of_sigmoid.append(sigmoid(i))plt.plot( values_of_x ,values_of_sigmoid)
plt.xlabel("values of x")
plt.ylabel("value of sigmoid")
tanH
这个函数非常类似于sigmoid激活函数。这个函数在-1到1的范围内接受任何实值作为输入和输出值。输入越大(越正),输出值越接近1.0,而输入越小(越负),输出越接近-1.0。Tanh激活函数计算如下。
def tanh(x):
return (m.exp(x) - m.exp(-x)) / (m.exp(x) + m.exp(-x))values_of_tanh = []
values_of_x = []
for i in range(-500,500,1):
i = i*0.001
values_of_x.append(i)
values_of_tanh.append(tanh(i))plt.plot( values_of_x ,values_of_tanh)
plt.xlabel("values of x")
plt.ylabel("value of tanh")
Softmax
Softmax激活函数输出一个和为1.0的值向量,可以解释为类隶属度的概率。Softmax是argmax函数的“软”版本,它允许一个“赢家通吃”函数的似然输出。
def softmax(x):
e_x = np.exp(x - np.max(x))
return e_x / e_x.sum()values_of_x = [i*0.01 for i in range(-500,500)]
plt.plot(scores ,softmax(values_of_x))
plt.xlabel("values of x")
plt.ylabel("value of softmax")
RELU 线性整流单元
ReLU可能是用于隐藏层的最常见的函数。它还可以有效地克服其他以前流行的激活函数(如Sigmoid和Tanh)的限制。具体来说,它不太容易受到阻止深度模型被训练的梯度下降消失问题的影响,尽管它可能会遇到诸如饱和单元等其他问题。
def ReLU(x):
return max(0,x)values_of_relu = []
values_of_x = []
for i in range(-500,500,1):
i = i*0.01
values_of_x.append(i)
values_of_relu.append(ReLU(i))plt.plot(values_of_x,values_of_relu)
Leaky ReLU
ReLU的问题:当给ReLU一个负值时,它立即变成零,这降低了模型合适地拟合或从数据训练的能力。这意味着ReLU激活函数的任何负输入都会在图中立即将该值转换为零,这反过来又会通过不适当地映射负值而影响结果图。
为了克服这个问题,Leaky ReLU被引入。
def leaky_ReLU(x):
return max(0.1*x,x)values_of_L_relu = []
values_of_x = []
for i in range(-500,500,1):
i = i*0.01
values_of_x.append(i)
values_of_L_relu.append(leaky_ReLU(i))plt.plot(values_of_x,values_of_L_relu)
下面几个函数都是RELU的变体基本上都是与Leaky 类似优化了激活函数负值时的返回
ELU
activation_elu = layers.Activation(‘elu’)x = tf.linspace(-3.0, 3.0, 100)
y = activation_elu(x) # once created, a layer is callable just like a functionplt.figure(dpi=100)
plt.plot(x, y)
plt.xlim(-3, 3)
plt.xlabel(“Input”)
plt.ylabel(“Output”)
plt.show()
SELU
activation_selu = layers.Activation('selu')x = tf.linspace(-3.0, 3.0, 100)
y = activation_selu(x) # once created, a layer is callable just like a functionplt.figure(dpi=100)
plt.plot(x, y)
plt.xlim(-3, 3)
plt.xlabel("Input")
plt.ylabel("Output")
plt.show()
Swish
activation_swish = layers.Activation(‘swish’)x = tf.linspace(-3.0, 3.0, 100)
y = activation_swish(x) # once created, a layer is callable just like a functionplt.figure(dpi=100)
plt.plot(x, y)
plt.xlim(-3, 3)
plt.xlabel(“Input”)
plt.ylabel(“Output”)
plt.show()
总结
常用于隐藏层激活函数:
一般递归神经网络使用Tanh或sigmoid激活函数,甚至两者都使用。例如,LSTM通常对循环连接使用Sigmoid激活,对输出使用Tanh激活。
1.多层感知器(MLP): ReLU激活函数。
2.卷积神经网络(CNN): ReLU激活函数。
3.递归神经网络:Tanh和/或Sigmoid激活函数。
如果你不确定使用哪个激活函数,你肯定可以尝试不同的组合,并寻找最适合的,但是可以从RELU开始
输出层激活功能:
输出层激活函数必须根据你要解决的问题类型来选择。例如,如果你有一个线性回归问题,那么线性激活函数将是有用的。下面是您可能面临的一些常见问题和使用的激活函数。
二进制分类:一个节点,sigmoid激活。
多类分类:每个类一个节点,softmax激活。
多标签分类:每个类一个节点,sigmoid激活。
以下是一些常用激活函数的公式和可视化显示,希望对你有帮助
作者:Rishabh sharma
deephub翻译组
相关推荐
- 离谱!写了5年Vue,还不会自动化测试?
-
前言大家好,我是倔强青铜三。是一名热情的软件工程师,我热衷于分享和传播IT技术,致力于通过我的知识和技能推动技术交流与创新,欢迎关注我,微信公众号:倔强青铜三。Playwright是一个功能强大的端到...
- package.json 与 package-lock.json 的关系
-
模块化开发在前端越来越流行,使用node和npm可以很方便的下载管理项目所需的依赖模块。package.json用来描述项目及项目所依赖的模块信息。那package-lock.json和...
- Github 标星35k 的 SpringBoot整合acvtiviti开源分享,看完献上膝盖
-
前言activiti是目前比较流行的工作流框架,但是activiti学起来还是费劲,还是有点难度的,如何整合在线编辑器,如何和业务表单绑定,如何和系统权限绑定,这些问题都是要考虑到的,不是说纯粹的把a...
- Vue3 + TypeScript 前端研发模板仓库
-
我们把这个Vue3+TypeScript前端研发模板仓库的初始化脚本一次性补全到可直接运行的状态,包括:完整的目录结构所有配置文件研发规范文档示例功能模块(ExampleFeature)...
- Vue 2迁移Vue 3:从响应式到性能优化
-
小伙伴们注意啦!Vue2已经在2023年底正式停止维护,再不升级就要面临安全漏洞没人管的风险啦!而且Vue3带来的性能提升可不是一点点——渲染速度快40%,内存占用少一半,更新速度直接翻倍!还在...
- VUE学习笔记:声明式渲染详解,对比WEB与VUE
-
声明式渲染是指使用简洁的模板语法,声明式的方式将数据渲染进DOM系统。声明式是相对于编程式而言,声明式是面向对象的,告诉框架做什么,具体操作由框架完成。编程式是面向过程思想,需要手动编写代码完成具...
- 苏州web前端培训班, 苏州哪里有web前端工程师培训
-
前端+HTML5德学习内容:第一阶段:前端页面重构:PC端网站布局、HTML5+CSS3基础项目、WebAPP页面布局;第二阶段:高级程序设计:原生交互功能开发、面向对象开发与ES5/ES6、工具库...
- 跟我一起开发微信小程序——扩展组件的代码提示补全
-
用户自定义代码块步骤:1.HBuilderX中工具栏:工具-代码块设置-vue代码块2.通过“1”步骤打开设置文件...
- JimuReport 积木报表 v1.9.3发布,免费可视化报表
-
项目介绍积木报表JimuReport,是一款免费的数据可视化报表,含报表、大屏和仪表盘,像搭建积木一样完全在线设计!功能涵盖:数据报表、打印设计、图表报表、门户设计、大屏设计等!...
- 软开企服开源的无忧企业文档(V2.1.3)产品说明书
-
目录1....
- 一款面向 AI 的下一代富文本编辑器,已开源
-
简介AiEditor是一个面向AI的下一代富文本编辑器。开箱即用、支持所有前端框架、支持Markdown书写模式什么是AiEditor?AiEditor是一个面向AI的下一代富文本编辑...
- 玩转Markdown(2)——抽象语法树的提取与操纵
-
上一篇玩转Markdown——数据的分离存储与组件的原生渲染发布,转眼已经鸽了大半年了。最近在操纵mdast生成md文件的时候,心血来潮,把玩转Markdown(2)给补上了。...
- DeepseekR1+ollama+dify1.0.0搭建企业/个人知识库(入门避坑版)
-
找了网上的视频和相关文档看了之后,可能由于版本不对或文档格式不对,很容易走弯路,看完这一章,可以让你少踩三天的坑。步骤和注意事项我一一列出来:1,前提条件是在你的电脑上已配置好ollama,dify1...
- 升级JDK17的理由,核心是降低GC时间
-
升级前后对比升级方法...
- 一个vsCode格式化插件_vscode格式化插件缩进量
-
ESlint...
你 发表评论:
欢迎- 一周热门
-
-
MySQL中这14个小玩意,让人眼前一亮!
-
旗舰机新标杆 OPPO Find X2系列正式发布 售价5499元起
-
【VueTorrent】一款吊炸天的qBittorrent主题,人人都可用
-
面试官:使用int类型做加减操作,是线程安全吗
-
C++编程知识:ToString()字符串转换你用正确了吗?
-
【Spring Boot】WebSocket 的 6 种集成方式
-
PyTorch 深度学习实战(26):多目标强化学习Multi-Objective RL
-
pytorch中的 scatter_()函数使用和详解
-
与 Java 17 相比,Java 21 究竟有多快?
-
基于TensorRT_LLM的大模型推理加速与OpenAI兼容服务优化
-
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)