【TensorFlow】随机训练和批训练的比较与实现

一、随机训练和批训练

  1. 随机训练:一次随机抽样训练数据和目标数据对完成训练。
  2. 批训练:一次大批量训练取平均损失来进行梯度计算,批量训练大小可以一次上扩到整个数据集。
  3. 批训练和随机训练的差异优化器方法收敛的不同
  4. 批训练的难点在于:确定合适的batch_size
  5. 二者比较
训练类型优点缺点
随机训练脱离局部最小一般需要更多的迭代次数才收敛
批训练快速得到最小损失耗费更多的计算资源

二、实现随机训练

import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
from tensorflow.python.framework import ops
ops.reset_default_graph()
# 一、随机训练:# 1.创建计算图
sess = tf.Session()# 2.创建数据
x_vals = np.random.normal(1, 0.1, 100)
y_vals = np.repeat(10., 100)
x_data = tf.placeholder(shape=[1], dtype=tf.float32)
y_target = tf.placeholder(shape=[1], dtype=tf.float32)# 3.创建变量
A = tf.Variable(tf.random_normal(shape=[1]))# 4.增加图操作
my_output = tf.multiply(x_data, A)# 5.声明L2正则损失
loss = tf.square(my_output - y_target)# 6.声明优化器 学习率为0.02
my_opt = tf.train.GradientDescentOptimizer(0.02)
train_step = my_opt.minimize(loss)# 7.初始化变量
init = tf.global_variables_initializer()
sess.run(init)# 8.保存loss数据用于绘图
loss_stochastic = []# 9.开始训练
for i in range(100):rand_index = np.random.choice(100)rand_x = [x_vals[rand_index]]rand_y = [y_vals[rand_index]]sess.run(train_step, feed_dict={x_data: rand_x, y_target: rand_y})if (i+1)%5==0:print('Step #' + str(i+1) + ' A = ' + str(sess.run(A)))temp_loss = sess.run(loss, feed_dict={x_data: rand_x, y_target: rand_y})print('Loss = ' + str(temp_loss))loss_stochastic.append(temp_loss)
# 输出结果
Step #5 A = [2.0631378]
Loss = [60.90259]
Step #10 A = [3.560384]
Loss = [35.39518]
Step #15 A = [4.7225595]
Loss = [37.812637]
Step #20 A = [5.681144]
Loss = [13.796157]
Step #25 A = [6.4919457]
Loss = [13.752169]
Step #30 A = [7.1609416]
Loss = [9.70855]
Step #35 A = [7.710085]
Loss = [5.826261]
Step #40 A = [8.253489]
Loss = [7.3934216]
Step #45 A = [8.671478]
Loss = [2.5475926]
Step #50 A = [8.993064]
Loss = [1.32571]
Step #55 A = [9.101872]
Loss = [0.67589337]
Step #60 A = [9.256593]
Loss = [5.34419]
Step #65 A = [9.329251]
Loss = [0.58555096]
Step #70 A = [9.421848]
Loss = [3.088755]
Step #75 A = [9.563117]
Loss = [6.0601945]
Step #80 A = [9.661991]
Loss = [0.05205128]
Step #85 A = [9.8208685]
Loss = [2.3963788]
Step #90 A = [9.8652935]
Loss = [0.19284673]
Step #95 A = [9.842097]
Loss = [4.9211507]
Step #100 A = [10.044914]
Loss = [4.2354054]

三、实现批训练

import numpy as np
import tensorflow as tf
import matplotlib as pltfrom tensorflow.python.framework import ops
ops.reset_default_graph()sess = tf.Session()# 1.声明批量大小(一次传入多少训练数据)
batch_size = 20# 2.声明模型的数据、占位符和变量。
# 这里能做的是改变占位符的形状,占位符有两个维度:
# 第一个维度为None,第二个维度是批量训练中的数据量。
# 我们能显式地设置维度为20,也能设为None。
# 我们必须知道训练模型中的维度,从而阻止不合法的矩阵操作
x_vals = np.random.normal(1,0.1,100)
y_vals = np.repeat(10.,100)
x_data = tf.placeholder(shape=[None, 1], dtype=tf.float32)
y_target = tf.placeholder(shape=[None, 1], dtype=tf.float32)
A = tf.Variable(tf.random_normal(shape=[1,1]))# 3.现在在计算图中增加矩阵乘法操作,
# 切记矩阵乘法不满足交换律,所以在matmul()函数中的矩阵参数顺序要正确:
my_output = tf.multiply(x_data, A)# 4.改变损失函数
# 批量训练时损失函数是每个数据点L2损失的平均值
loss = tf.reduce_mean(tf.square(my_output - y_target))# 5.声明优化器
my_opt = tf.train.GradientDescentOptimizer(0.02)
train_step = my_opt.minimize(loss)# 6.在训练中通过循环迭代优化模型算法。
# 为了绘制损失值图与随机训练对比
# 这里初始化一个列表每间隔5次迭代保存损失函数# 初始化变量
init = tf.global_variables_initializer()
sess.run(init)loss_batch = []
for i in range(100):# 每次用0~100中取20个数作为索引值rand_index = np.random.choice(100, size=batch_size)# 转置rand_x = np.transpose([x_vals[rand_index]])rand_y = np.transpose([y_vals[rand_index]])sess.run(train_step, feed_dict={x_data:rand_x,y_target:rand_y})if (i+1)%5 == 0:print("Step # " + str(i+1) + ' A = ' + str(sess.run(A)))temp_loss = sess.run(loss, feed_dict={x_data:rand_x,y_target:rand_y})print('Loss = ' + str(temp_loss))loss_batch.append(temp_loss)
在这里插入代码片
# 输出结果
Step # 5 A = [[2.626382]]
Loss = 55.444374
Step # 10 A = [[3.980196]]
Loss = 36.855064
Step # 15 A = [[5.0858808]]
Loss = 22.765038
Step # 20 A = [[5.9751787]]
Loss = 15.496961
Step # 25 A = [[6.713659]]
Loss = 12.349718
Step # 30 A = [[7.2950797]]
Loss = 7.5467796
Step # 35 A = [[7.782353]]
Loss = 5.17468
Step # 40 A = [[8.20625]]
Loss = 4.1199327
Step # 45 A = [[8.509094]]
Loss = 2.6329637
Step # 50 A = [[8.760488]]
Loss = 1.9998455
Step # 55 A = [[8.967735]]
Loss = 1.6577679
Step # 60 A = [[9.1537]]
Loss = 1.4356906
Step # 65 A = [[9.317189]]
Loss = 1.9666836
Step # 70 A = [[9.387019]]
Loss = 1.9287064
Step # 75 A = [[9.499526]]
Loss = 1.7477573
Step # 80 A = [[9.594302]]
Loss = 1.719229
Step # 85 A = [[9.666611]]
Loss = 1.4769726
Step # 90 A = [[9.711805]]
Loss = 1.1235845
Step # 95 A = [[9.784608]]
Loss = 1.9176414
Step # 100 A = [[9.849552]]
Loss = 1.1561565

四、绘制图像

plt.plot(range(0, 100, 5), loss_stochastic, 'b-', label='Stochastic Loss')
plt.plot(range(0, 100, 5), loss_batch, 'r--', label='Batch Loss, size=20')
plt.legend(loc='upper right', prop={'size': 11})
plt.show()

在这里插入图片描述
从图中可以看出批训练损失更平滑,随机训练损失更不规则

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481105.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

「小公式」平均数与级数

喵喵喵,小夕最近准备复习一下数学和基础算法,所以可能会推送或者附带推送点数学和基础算法的小文章。说不定哪天就用(考)到了呢( ̄∇ ̄)注意哦,与头条位的文章推送不同,「小公式」和「…

最新出炉-阿里 2020届算法工程师-自然语言处理(实习生)以及补充:快递最短路径

问题2感觉跟下面的分苹果类似; 问题 G: 分梨 题目描述 zzq非常喜欢吃梨,有一天他得到了ACMCLUB送给他的一筐梨子。由于他比较仗义,就打算把梨子分给好朋友们吃。现在他要把M个梨子放到N个盘子里面(我们允许有的盘子为空&#xff0…

如何匹配两段文本的语义?

喵喵喵,好久不见啦。首先很抱歉大家期待的调参手册(下)迟迟没有出稿,最近两个月连着赶了4个DDL,整个人都不好了。最近几天终于有时间赶一下未完成的稿子了。在赶DDL的时候夹着写了这篇文章,就先发布这一篇吧…

【TensorFlow】实现简单的鸢尾花分类器

代码实现及说明 # python 3.6 # TensorFlow实现简单的鸢尾花分类器 import matplotlib.pyplot as plt import tensorflow as tf import numpy as np from sklearn import datasetssess tf.Session()#导入数据 iris datasets.load_iris() # 是否是山鸢尾 0/1 binary_target …

偏差-方差全面解释

偏差(Bias)与方差(Variance) 目录: 为什么会有偏差和方差?偏差、方差、噪声是什么?泛化误差、偏差和方差的关系?用图形解释偏差和方差。偏差、方差窘境。偏差、方差与过拟合、欠拟合…

「小算法」回文数与数值合法性检验

喵喵喵,小夕最近准备复习一下数学和基础算法,尽量每篇推送下面会附带点数学和基础算法的小文章。说不定哪天就用(考)到了呢( ̄∇ ̄)注意哦,与头条位的文章推送不同,「小公式」和「小算…

【TensorFlow】实现、训练并评估简单的回归模型和分类模型

1 回归模型 回归算法模型用来预测连续数值型,其目标不是分类值而是数字。为了评估这些回归预测值是否与实际目标相符,我们需要度量两者间的距离,打印训练过程中的损失,最终评估模型损失。 这里使用的例子是从均值为1、标准差为0…

关于”算法工程师/机器学习工程师”的笔试和面试总结

从16年九月份开始,参加了一些公司的算法工程师/机器学习工程师岗位的校园招聘,做一些总结,希望可以给大家准备这个职位提供些信息。 一、需要的基本技能 数据结构知识掌握一门编程语言,c/c/Java/Python 机器学习常用算法或者某一…

史上最通熟易懂的检索式聊天机器人讲解

喵喵喵,一不小心又匿了三个月,突然诈尸害不害怕( ̄∇ ̄) 小夕从7月份开始收到第一场面试邀请,到9月初基本结束了校招(面够了面够了T_T),深深的意识到今年的对话系统/chatbot方向是真的…

【LeetCode】3月16日打卡-Day1

题1 字符串压缩 描述 字符串压缩。利用字符重复出现的次数,编写一种方法,实现基本的字符串压缩功能。比如,字符串aabcccccaaa会变为a2b1c5a3。若“压缩”后的字符串没有变短,则返回原先的字符串。你可以假设字符串中只包含大小写…

Python pandas数据分析中常用方法

官方教程 读取写入文件 官方IO 读取 写入 read_csv       to_csv read_excel      to_excel read_hdf       to_hdf read_sql       to_sql read_json      to_json read_msgpack (experimental)   to_msgpack (experimental) read_html    …

【LeetCode】3月17日打卡-Day2

题1 拼写单词 描述 给你一份『词汇表』(字符串数组) words 和一张『字母表』(字符串) chars。 假如你可以用 chars 中的『字母』(字符)拼写出 words 中的某个『单词』(字符串)&…

小哥哥,检索式chatbot了解一下?

喵喵喵,一不小心又匿了三个月,突然诈尸害不害怕( ̄∇ ̄) 小夕从7月份开始收到第一场面试邀请,到9月初基本结束了校招(面够了面够了T_T),深深的意识到今年的对话系统/chatbot方向是真的…

多重共线性、异方差和自相关性

https://www.jianshu.com/p/1e5389ca9829

【LeetCode】3月18日打卡-Day3

题1 无重复字符的最长子串 描述 给定一个字符串,请你找出其中不含有重复字符的 最长子串 的长度。 示例 1: 输入: “abcabcbb” 输出: 3 解释: 因为无重复字符的最长子串是 “abc”,所以其长度为 3。 示例 2: 输入: “bbbbb” 输出: 1 解释: 因为无重复…

别求面经了!小夕手把手教你如何斩下和选择NLP算法岗offer!(2020.4.14更新)...

推完上一篇文章,订阅号和知乎后台有好多小伙伴跟小夕要面经(还有个要买简历的是什么鬼),然鹅小夕真的没有整理面经呀,真的木有时间(。 ́︿ ̀。)。不过话说回来,面经有多大用呢&#…

机器学习算法优缺点改进总结

https://wenku.baidu.com/view/5df50157f121dd36a22d82bf.html

领域应用 | 中医临床术语系统

本文转载自公众号中医药知识组织与标准。什么是中医药术语系统?它是干什么用的呢?中医药术语系统是运用计算机与信息技术等工具,对中医药学各领域中的事物、现象、特性、关系和过程进行标记和概括,并为每个概念赋予指称形成概念体…

鸿蒙(HarmonyOS)项目方舟框架(ArkUI)之Image图片组件

鸿蒙(HarmonyOS)项目方舟框架(ArkUI)之Image图片组件 一、操作环境 操作系统: Windows 10 专业版、IDE:DevEco Studio 3.1、SDK:HarmonyOS 3.1 二、Image组件 Image 用来加载并显示图片的基础组件,它支持从内存、本…

【LeetCode】3月19日打卡-Day4

题1 最长回文串 描述 给定一个包含大写字母和小写字母的字符串,找到通过这些字母构造成的最长的回文串。 在构造过程中,请注意区分大小写。比如 “Aa” 不能当做一个回文字符串。 注意: 假设字符串的长度不会超过 1010。 示例 1: 输入: “abccccdd” 输…