python绘制神经网络中的ReLU激活函数图像(附代码)
2017-10-18 16:19
751 查看
上一篇,绘制了Sigmoid与Tanh激活函数的图像,今天分享一下ReLU激活函数的代码,代码整体结构与上一篇相似,只是把函数换了一下:
当然Relu函数不用这么复杂,只需要手动就可以画出,在这里给出方法,只是希望能在画别的函数的时候得到启发。结果如下:
import math import matplotlib.pyplot as plt import numpy as np import matplotlib as mpl mpl.rcParams['axes.unicode_minus']=False fig = plt.figure(figsize=(6,4)) ax = fig.add_subplot(111) x = np.arange(-10, 10) y = np.where(x<0,0,x) plt.xlim(-11,11) plt.ylim(-11,11) ax.spines['top'].set_color('none') ax.spines['right'].set_color('none') ax.xaxis.set_ticks_position('bottom') ax.spines['bottom'].set_position(('data',0)) ax.set_xticks([-10,-5,0,5,10]) ax.yaxis.set_ticks_position('left') ax.spines['left'].set_position(('data',0)) ax.set_yticks([-10,-5,5,10]) plt.plot(x,y,label="ReLU",color = "blue") plt.legend() plt.show()
当然Relu函数不用这么复杂,只需要手动就可以画出,在这里给出方法,只是希望能在画别的函数的时候得到启发。结果如下:
相关文章推荐
- python绘制神经网络中的Sigmoid和Tanh激活函数图像(附代码)
- 机器学习09--神经网络的激活函数(Activation Function)及python代码实现
- 采用ReLU作为激活函数的简单深度神经网络matlab代码设计
- 神经网络中的激活函数tanh sigmoid RELU softplus softmatx
- 神经网络中的激活函数——加入一些非线性的激活函数,整个网络中就引入了非线性部分,sigmoid 和 tanh作为激活函数的话,一定要注意一定要对 input 进行归一话,但是 ReLU 并不需要输入归一化
- 神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
- 神经网络中的激活函数-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus简述
- 神经网络之激活函数 dropout原理解读 BatchNormalization 代码实现
- 【机器学习】神经网络-激活函数-面面观(Activation Function) (Sigmoid Relu tanh)
- 机器学习笔记-神经网络中激活函数(activation function)对比--Sigmoid、ReLu,tanh
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 【神经网络】RELU 激活函数及其他相关的函数
- 神经网络回顾-Relu激活函数
- 神经网络常用激活函数对比:sigmoid VS sofmax(附python源码)
- 人人都能用Python写出LSTM-RNN的代码![你的神经网络学习最佳起步]
- 通用图像识别的神经网络代码描述
- 笔记+R︱信用风险建模中神经网络激活函数与感知器简述
- Python图像处理(14):神经网络分类器
- 【机器学习】神经网络-激活函数-面面观(Activation Function)
- python函数图像绘制