文章目录
- 神经网络的起源:线性回归
- 一个线性回归问题
- 线性回归优化方法:梯度下降
 
- 梯度计算
- 梯度计算总结
- 线性回归:输出
- 线性回归:局限
 
- 从线性到非线性
- 非线性激励
- 常用的非线性激励函数
- tanh
- RELU
- Lecky RELU
- 神经元—神经网络
 
- 神经网络构建
- 神经元的并联和串联
- 神经网络优化
- Tensorflow实现
 
- 神经网络“配件”
- 损失函数-Loss
- Softmax
- Cross entropy
- 自定义损失函数
- 学习率
- 动量
- 过拟合
- 应对方法:正则化
- 应对方法:Drop out
- Fine turning
 
神经网络的起源:线性回归
概念:线性关系描述输入到输出的映射关系
 应用:网络分析,银行风险分析,基金股价预测,天气预报
一个线性回归问题

线性回归优化方法:梯度下降

梯度计算

梯度计算总结
- 随机初始化参数
- 开始循环:t=0,1,2,……
  
线性回归:输出

线性回归:局限

从线性到非线性
非线性激励

常用的非线性激励函数

 一般神经网络最后一层用sigmoid
tanh

RELU

 特征足够多情况下运用
Lecky RELU

 线性了
神经元—神经网络

 是否存在线性回归网络
 
神经网络构建
神经元的并联和串联
从第一层神经网络到最终输出,每一个神经元的数值由前一层神经元数值,神经元参数w,b以及激励函数共同决定第n+1层第k个神经元方程,由公式表示为:
 
 在这里,m表示第n层神经网络的宽度,n为当前神经网络的深度
 
神经网络优化

Tensorflow实现

神经网络“配件”
损失函数-Loss
影响深度学习性能重要因素之一。是外部世界对神经网络模型训练的直接指导
 合适的损失函数能够确保深度学习模型收敛
 设计合适的损失函数是研究工作主要内容之一
Softmax

Cross entropy

自定义损失函数

学习率

 
动量

 直接调大学习率有什么区别?
 矢量标量区别
 
过拟合

 训练100% 测试数据差过拟合
应对方法:正则化

应对方法:Drop out

 随机选择50%神经元,进行预测 需乘2
pooling:四个分别两个选最大出来
Fine turning

 旋转改变平移1张图变10张然后运用model