网页站点wordpress app插件

diannao/2025/10/18 7:19:40/文章来源:
网页站点,wordpress app插件,网站建设 模板,东莞有哪些好企业一、CNN训练模型 模型尺寸分析#xff1a;卷积层全都采用了补0#xff0c;所以经过卷积层长和宽不变#xff0c;只有深度加深。池化层全都没有补0#xff0c;所以经过池化层长和宽均减小#xff0c;深度不变。http://download.tensorflow.org/example_images/flower_photo…一、CNN训练模型 模型尺寸分析卷积层全都采用了补0所以经过卷积层长和宽不变只有深度加深。池化层全都没有补0所以经过池化层长和宽均减小深度不变。http://download.tensorflow.org/example_images/flower_photos.tgz 模型尺寸变化100×100×3-100×100×32-50×50×32-50×50×64-25×25×64-25×25×128-12×12×128-12×12×128-6×6×128 CNN训练代码如下 ?123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174from skimage import io,transformimport globimport osimport tensorflow as tfimport numpy as npimport time#数据集地址pathE:/data/datasets/flower_photos/#模型保存地址model_pathE:/data/model/flower/model.ckpt#将所有的图片resize成100*100w100h100c3#读取图片def read_img(path):    cate[pathx for x in os.listdir(path) if os.path.isdir(pathx)]    imgs[]    labels[]    for idx,folder in enumerate(cate):        for im in glob.glob(folder/*.jpg):            print(reading the images:%s%(im))            imgio.imread(im)            imgtransform.resize(img,(w,h))            imgs.append(img)            labels.append(idx)    return np.asarray(imgs,np.float32),np.asarray(labels,np.int32)data,labelread_img(path)#打乱顺序num_exampledata.shape[0]arrnp.arange(num_example)np.random.shuffle(arr)datadata[arr]labellabel[arr]#将所有数据分为训练集和验证集ratio0.8snp.int(num_example*ratio)x_traindata[:s]y_trainlabel[:s]x_valdata[s:]y_vallabel[s:]#-----------------构建网络----------------------#占位符xtf.placeholder(tf.float32,shape[None,w,h,c],namex)y_tf.placeholder(tf.int32,shape[None,],namey_)def inference(input_tensor, train, regularizer):    with tf.variable_scope(layer1-conv1):        conv1_weights tf.get_variable(weight,[5,5,3,32],initializertf.truncated_normal_initializer(stddev0.1))        conv1_biases tf.get_variable(bias, [32], initializertf.constant_initializer(0.0))        conv1 tf.nn.conv2d(input_tensor, conv1_weights, strides[1, 1, 1, 1], paddingSAME)        relu1 tf.nn.relu(tf.nn.bias_add(conv1, conv1_biases))    with tf.name_scope(layer2-pool1):        pool1 tf.nn.max_pool(relu1, ksize [1,2,2,1],strides[1,2,2,1],paddingVALID)    with tf.variable_scope(layer3-conv2):        conv2_weights tf.get_variable(weight,[5,5,32,64],initializertf.truncated_normal_initializer(stddev0.1))        conv2_biases tf.get_variable(bias, [64], initializertf.constant_initializer(0.0))        conv2 tf.nn.conv2d(pool1, conv2_weights, strides[1, 1, 1, 1], paddingSAME)        relu2 tf.nn.relu(tf.nn.bias_add(conv2, conv2_biases))    with tf.name_scope(layer4-pool2):        pool2 tf.nn.max_pool(relu2, ksize[1, 2, 2, 1], strides[1, 2, 2, 1], paddingVALID)    with tf.variable_scope(layer5-conv3):        conv3_weights tf.get_variable(weight,[3,3,64,128],initializertf.truncated_normal_initializer(stddev0.1))        conv3_biases tf.get_variable(bias, [128], initializertf.constant_initializer(0.0))        conv3 tf.nn.conv2d(pool2, conv3_weights, strides[1, 1, 1, 1], paddingSAME)        relu3 tf.nn.relu(tf.nn.bias_add(conv3, conv3_biases))    with tf.name_scope(layer6-pool3):        pool3 tf.nn.max_pool(relu3, ksize[1, 2, 2, 1], strides[1, 2, 2, 1], paddingVALID)    with tf.variable_scope(layer7-conv4):        conv4_weights tf.get_variable(weight,[3,3,128,128],initializertf.truncated_normal_initializer(stddev0.1))        conv4_biases tf.get_variable(bias, [128], initializertf.constant_initializer(0.0))        conv4 tf.nn.conv2d(pool3, conv4_weights, strides[1, 1, 1, 1], paddingSAME)        relu4 tf.nn.relu(tf.nn.bias_add(conv4, conv4_biases))    with tf.name_scope(layer8-pool4):        pool4 tf.nn.max_pool(relu4, ksize[1, 2, 2, 1], strides[1, 2, 2, 1], paddingVALID)        nodes 6*6*128        reshaped tf.reshape(pool4,[-1,nodes])    with tf.variable_scope(layer9-fc1):        fc1_weights tf.get_variable(weight, [nodes, 1024],                                      initializertf.truncated_normal_initializer(stddev0.1))        if regularizer ! None: tf.add_to_collection(losses, regularizer(fc1_weights))        fc1_biases tf.get_variable(bias, [1024], initializertf.constant_initializer(0.1))        fc1 tf.nn.relu(tf.matmul(reshaped, fc1_weights) fc1_biases)        if train: fc1 tf.nn.dropout(fc1, 0.5)    with tf.variable_scope(layer10-fc2):        fc2_weights tf.get_variable(weight, [1024, 512],                                      initializertf.truncated_normal_initializer(stddev0.1))        if regularizer ! None: tf.add_to_collection(losses, regularizer(fc2_weights))        fc2_biases tf.get_variable(bias, [512], initializertf.constant_initializer(0.1))        fc2 tf.nn.relu(tf.matmul(fc1, fc2_weights) fc2_biases)        if train: fc2 tf.nn.dropout(fc2, 0.5)    with tf.variable_scope(layer11-fc3):        fc3_weights tf.get_variable(weight, [512, 5],                                      initializertf.truncated_normal_initializer(stddev0.1))        if regularizer ! None: tf.add_to_collection(losses, regularizer(fc3_weights))        fc3_biases tf.get_variable(bias, [5], initializertf.constant_initializer(0.1))        logit tf.matmul(fc2, fc3_weights) fc3_biases    return logit#---------------------------网络结束---------------------------regularizer tf.contrib.layers.l2_regularizer(0.0001)logits inference(x,False,regularizer)#(小处理)将logits乘以1赋值给logits_eval定义name方便在后续调用模型时通过tensor名字调用输出tensorb tf.constant(value1,dtypetf.float32)logits_eval tf.multiply(logits,b,namelogits_eval) losstf.nn.sparse_softmax_cross_entropy_with_logits(logitslogits, labelsy_)train_optf.train.AdamOptimizer(learning_rate0.001).minimize(loss)correct_prediction tf.equal(tf.cast(tf.argmax(logits,1),tf.int32), y_)    acc tf.reduce_mean(tf.cast(correct_prediction, tf.float32))#定义一个函数按批次取数据def minibatches(inputsNone, targetsNone, batch_sizeNone, shuffleFalse):    assert len(inputs) len(targets)    if shuffle:        indices np.arange(len(inputs))        np.random.shuffle(indices)    for start_idx in range(0, len(inputs) - batch_size 1, batch_size):        if shuffle:            excerpt indices[start_idx:start_idx batch_size]        else:            excerpt slice(start_idx, start_idx batch_size)        yield inputs[excerpt], targets[excerpt]#训练和测试数据可将n_epoch设置更大一些n_epoch10                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                          batch_size64savertf.train.Saver()sesstf.Session()  sess.run(tf.global_variables_initializer())for epoch in range(n_epoch):    start_time time.time()    #training    train_loss, train_acc, n_batch 0, 0, 0    for x_train_a, y_train_a in minibatches(x_train, y_train, batch_size, shuffleTrue):        _,err,acsess.run([train_op,loss,acc], feed_dict{x: x_train_a, y_: y_train_a})        train_loss err; train_acc ac; n_batch 1    print(   train loss: %f % (np.sum(train_loss)/ n_batch))    print(   train acc: %f % (np.sum(train_acc)/ n_batch))    #validation    val_loss, val_acc, n_batch 0, 0, 0    for x_val_a, y_val_a in minibatches(x_val, y_val, batch_size, shuffleFalse):        err, ac sess.run([loss,acc], feed_dict{x: x_val_a, y_: y_val_a})        val_loss err; val_acc ac; n_batch 1    print(   validation loss: %f % (np.sum(val_loss)/ n_batch))    print(   validation acc: %f % (np.sum(val_acc)/ n_batch))saver.save(sess,model_path)sess.close()二、调用模型进行预测 调用模型进行花卉的预测代码如下 ?12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455from skimage import io,transformimport tensorflow as tfimport numpy as nppath1 E:/data/datasets/flower_photos/daisy/5547758_eea9edfd54_n.jpgpath2 E:/data/datasets/flower_photos/dandelion/7355522_b66e5d3078_m.jpgpath3 E:/data/datasets/flower_photos/roses/394990940_7af082cf8d_n.jpgpath4 E:/data/datasets/flower_photos/sunflowers/6953297_8576bf4ea3.jpgpath5 E:/data/datasets/flower_photos/tulips/10791227_7168491604.jpgflower_dict {0:dasiy,1:dandelion,2:roses,3:sunflowers,4:tulips}w100h100c3def read_one_image(path):    img io.imread(path)    img transform.resize(img,(w,h))    return np.asarray(img)with tf.Session() as sess:    data []    data1 read_one_image(path1)    data2 read_one_image(path2)    data3 read_one_image(path3)    data4 read_one_image(path4)    data5 read_one_image(path5)    data.append(data1)    data.append(data2)    data.append(data3)    data.append(data4)    data.append(data5)    saver tf.train.import_meta_graph(E:/data/model/flower/model.ckpt.meta)    saver.restore(sess,tf.train.latest_checkpoint(E:/data/model/flower/))    graph tf.get_default_graph()    x graph.get_tensor_by_name(x:0)    feed_dict {x:data}    logits graph.get_tensor_by_name(logits_eval:0)    classification_result sess.run(logits,feed_dict)    #打印出预测矩阵    print(classification_result)    #打印出预测矩阵每一行最大值的索引    print(tf.argmax(classification_result,1).eval())    #根据索引通过字典对应花的分类    output []    output tf.argmax(classification_result,1).eval()    for i in range(len(output)):        print(第,i1,朵花预测:flower_dict[output[i]])运行结果 ?1234567891011[[  5.76620245   3.18228579  -3.89464641  -2.81310582   1.40294015] [ -1.01490593   3.55570269  -2.76053429   2.93104005  -3.47138596] [ -8.05292606  -7.26499033  11.70479774   0.59627819   2.15948296] [ -5.12940931   2.18423128  -3.33257103   9.0591135    5.03963232] [ -4.25288343  -0.95963973  -2.33347392   1.54485476   5.76069307]][0 1 2 3 4]第 1 朵花预测:dasiy第 2 朵花预测:dandelion第 3 朵花预测:roses第 4 朵花预测:sunflowers第 5 朵花预测:tulips预测结果和调用模型代码中的五个路径相比较是完全准确的。 本文的模型对于花卉的分类准确率大概在70%左右采用迁移学习调用Inception-v3模型对本文中的花卉数据集分类准确率在95%左右。主要的原因在于本文的CNN模型较于简单而且花卉数据集本身就比mnist手写数字数据集分类难度就要大一点同样的模型在mnist手写数字的识别上准确率要比花卉数据集准确率高不少。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/92117.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

织梦网站用户名不存在海南seo关键词

VTK中鼠标消息是在交互类型对象(interactorstyle)中响应,因此通过为交互类型对象(interactorstyle)添加观察者(observer)来监听相应的消息,当消息触发时,由命令模式执行相…

html5网站网址中核哪个公司待遇最好

欢迎各位数据爱好者!今天,我很高兴与您分享我的最新博客,专注于探索 PySpark DataFrame 的强大功能。无论您是刚入门的数据分析师,还是寻求深入了解大数据技术的专业人士,这里都有丰富的知识和实用的技巧等着您。让我们…

安徽网站建设案例万方网官网入口

本题是一个经典的单调队列题。不过用优先队列也能解决。 一、优先队列 在使用优先队列时,我们会遇到这样的问题:如何将一个目标数从优先队列中弹出?如果使用stl这是办不到的,虽然可以自行实现这样的功能。但是我们可以这样思考&am…

做设计常用的素材网站网站开发网站源码

上一篇已经讲解了如何构建自己的私人GPT,这一篇主要讲如何让GPT支持中文。 privateGPT 本地部署目前只支持基于llama.cpp 的 gguf格式模型,GGUF 是 llama.cpp 团队于 2023 年 8 月 21 日推出的一种新格式。它是 GGML 的替代品,llama.cpp 不再…

手机网站导航设计手机app设计软件

原理: 在onReachBottom中进行节流处理,如果当前正在请求下一页的数据,则把后续所有的请求都屏蔽掉,如果当前没有请求任何数据,才允许发起下一页数据的请求。 实现步骤: 在data中定义isloading节流阀 fal…

广州外贸公司排名怎么做网站标题优化

JUnit JUnit 是一个用于编写可重复测试的简单框架。 它是 xUnit 架构的一种实例,专门用于单元测试框架。 What to test? NeedDescRight结果是否正确B边界条件是否满足I能反向关联吗C有其他手段交叉检查吗E是否可以强制异常发生P性能问题 maven 入门例子 maven …

Wordpress税表企业网站怎么优化

一、填空题(每空0.5分,共 1 0 分)1、 计算机图形学中的图形是指由点、线、面、体等 和明暗、灰度(亮度)、色彩等 构成的,从现实世界中抽象出来的带有灰度、色彩及形状的图或形。 2、 一个计算机图形系统至少应具有 、 、输入、输出、 等基本功能。3、 常…

迅速百度网站自然排名开发一个app平台大概需要多少钱?

1888 年,爱迪生提交了一项名为「活动电影放映机」的专利,该设备首次实现连续播放静态照片,形成类似动态画面的效果,由此拉开了视频发展的序幕。 回顾历史,视频经历了从无到有、从黑白到彩色、从模拟信号到数字信号的迭…

网站怎么优化seo有没有专门做淘宝客的网站

Jmeter有个配置元素叫做用户自定义变量(英文名称是UserDefinedVariables)而我们提到的vars即是Variables的简写。 之前我们也说到过Jmeter的脚本中(jsr223sampler或者beanshell编写的脚本)使用varsput和varsget的操作(varsget和put的操作仅在threadgroup测试组线程中执行&#…

做企业免费网站哪个好些网站制作一薇

By.CSS_SELECTOR 是 Selenium WebDriver 提供的一种定位元素的方法,它允许使用 CSS 选择器来定位页面上的元素。以下是常见的 CSS 选择器语法: 1. **标签选择器(Tag Selector)**:通过元素的标签名选择元素。 - 示例…

最好的网站模板网站网页制作与网站建设宝典 第2版

你在用什么软件进行图像处理呢?厌倦了鼠标和手指的拖拖点点,想不想用程序和代码进行图像的高效处理,Python作为简单高效又很强大的一门编程语言,对于图像的处理自然也是轻松拿下,听起来是不是很酷很极客,那…

网站内容填写建设网站有哪些方法

HAProxy系列文章:http://www.cnblogs.com/f-ck-need-u/p/7576137.html 1.反向代理为什么需要设置cookie 任何一个七层的http负载均衡器,都应该具备一个功能:会话保持。会话保持是保证客户端对动态应用程序正确请求的基本要求。 还是那个被举烂…

wordpress站内搜索慢wordpress上传过大

图案密码锁组件,以九宫格图案的方式输入密码,用于密码验证场景。手指在PatternLock组件区域按下时开始进入输入状态,手指离开屏幕时结束输入状态完成密码输入。 说明: 该组件从API Version 9开始支持。后续版本如有新增内容&#…

深圳建站公司专业公司国外有哪些做deal的网站

射门很难引导...好吧...这确实是最难的部分。每次启动计算机时,它基本上都会重新适应。它熟悉其各个部分,并且满足每个部分都具有功能。但可以说,它每次都要从自己的引导程序中拉起自己。在设计启动过程时,技巧是逐步启动计算机。…

株洲做网站的公司广州做网站专业公司

都是负担在很多app上,当我们输入某些内容时候,它会立即做一些补全操作,如果我想实现上述的需求,我们就可以使用ES提供的Suggesters Api。那Suggesters是如何做到的那?简单来说,Suggesters会将输入的文本拆分…

苏州网站建设代理无经验学电商要多久

SQL*PLUS命令的使用大全Oracle的sql*plus是与oracle进行交互的客户端工具。在sql*plus中,可以运行sql*plus命令与sql*plus语句。 我们通常所说的DML、DDL、DCL语句都是sql*plus语句,它们执行完后,都可以保存在一个被称为sql buffer的内存区域…

网站制作致谢词凡科网小程序怎么样

展开全部是 \b,也就是backspace,这是一个转义32313133353236313431303231363533e4b893e5b19e31333337393466字符,详解如下:所有的ASCII码都可以用“\”加数字(一般是8进制数字)来表示。而C中定义了一些字母前加"\"来表示…

武夷山住房和城乡建设局网站神华公司两学一做网站

异步操作使您能在不阻塞主线程的情况下执行占用大量资源的 I/O 操作。 在 Windows 8.x 应用商店应用或桌面应用中一个耗时的流操作可能阻塞 UI 线程并让应用看起来好像不工作时,这种性能的考虑就显得尤为重要了。 从 .NET Framework 4.5 开始,I/O 类型包…

如何给公司做一个网站建设学校网站论文

全世界只有3.14 % 的人关注了爆炸吧知识不知你有没有过这样的经历:即将进入甜美梦乡,突然就像触电般地抖了一下,或者不由自主猛地踢一下,瞬间被惊醒!这到底是啥情况?网上的答案五花八门:有人说缺…

网站报价文档滨州市建设局网站

Kibana(一张图片胜过千万行日志) Kibana是一个开源的分析和可视化平台,设计用于和Elasticsearch一起工作。 你用Kibana来搜索,查看,并和存储在Elasticsearch索引中的数据进行交互。 你可以轻松地执行高级数据分析&a…