河南移动官网网站建设高平企业网站

web/2025/10/9 10:56:29/文章来源:
河南移动官网网站建设,高平企业网站,广州科技网站建设,上海网站快速备案目录 模型初始化信息#xff1a; 模型实现#xff1a; 多变量损失函数#xff1a; 多变量梯度下降实现#xff1a; 多变量梯度实现#xff1a; 多变量梯度下降实现#xff1a; 之前部分实现的梯度下降线性预测模型中的training example只有一个特征属性#xff1a… 目录 模型初始化信息 模型实现 多变量损失函数 多变量梯度下降实现 多变量梯度实现 多变量梯度下降实现 之前部分实现的梯度下降线性预测模型中的training example只有一个特征属性房屋面积这显然是不符合实际情况的这里增加特征属性的数量再实现一次梯度下降线性预测模型。 这里回顾一下梯度下降线性模型的实现方法 实现线性模型f w*x b模型参数w,b待定寻找最优的w,b组合 1引入衡量模型优劣的cost functionJ(w,b) ——损失函数或者代价函数 2损失函数值最小的时候模型最接近实际情况通过梯度下降法来寻找最优w,b组合 模型初始化信息 新的房子的特征有房子面积、卧室数、楼层数、房龄共4个特征属性。 Size (sqft)Number of BedroomsNumber of floorsAge of HomePrice (1000s dollars)2104514546014163240232852213517 上面表中的训练样本有3个输入特征矩阵模型为 具体代码实现为X_train是输入矩阵y_train是输出矩阵 X_train np.array([[2104, 5, 1, 45], [1416, 3, 2, 40],[852, 2, 1, 35]]) y_train np.array([460, 232, 178]) 模型参数w,b矩阵 代码实现w中的每一个元素对应房屋的一个特征属性 b_init 785.1811367994083 w_init np.array([ 0.39133535, 18.75376741, -53.36032453, -26.42131618]) 模型实现 def predict(x, w, b): single predict using linear regressionArgs:x (ndarray): Shape (n,) example with multiple featuresw (ndarray): Shape (n,) model parameters b (scalar): model parameter Returns:p (scalar): predictionp np.dot(x, w) b return p 多变量损失函数 J(w,b)为 代码实现为: def compute_cost(X, y, w, b): compute costArgs:X (ndarray (m,n)): Data, m examples with n featuresy (ndarray (m,)) : target valuesw (ndarray (n,)) : model parameters b (scalar) : model parameterReturns:cost (scalar): costm X.shape[0]cost 0.0for i in range(m): f_wb_i np.dot(X[i], w) b #(n,)(n,) scalar (see np.dot)cost cost (f_wb_i - y[i])**2 #scalarcost cost / (2 * m) #scalar return cost 多变量梯度下降实现 多变量梯度实现 def compute_gradient(X, y, w, b): Computes the gradient for linear regression Args:X (ndarray (m,n)): Data, m examples with n featuresy (ndarray (m,)) : target valuesw (ndarray (n,)) : model parameters b (scalar) : model parameterReturns:dj_dw (ndarray (n,)): The gradient of the cost w.r.t. the parameters w. dj_db (scalar): The gradient of the cost w.r.t. the parameter b. m,n X.shape #(number of examples, number of features)dj_dw np.zeros((n,))dj_db 0.for i in range(m): err (np.dot(X[i], w) b) - y[i] for j in range(n): dj_dw[j] dj_dw[j] err * X[i, j] dj_db dj_db err dj_dw dj_dw / m dj_db dj_db / m return dj_db, dj_dw 多变量梯度下降实现 def gradient_descent(X, y, w_in, b_in, cost_function, gradient_function, alpha, num_iters): Performs batch gradient descent to learn theta. Updates theta by taking num_iters gradient steps with learning rate alphaArgs:X (ndarray (m,n)) : Data, m examples with n featuresy (ndarray (m,)) : target valuesw_in (ndarray (n,)) : initial model parameters b_in (scalar) : initial model parametercost_function : function to compute costgradient_function : function to compute the gradientalpha (float) : Learning ratenum_iters (int) : number of iterations to run gradient descentReturns:w (ndarray (n,)) : Updated values of parameters b (scalar) : Updated value of parameter # An array to store cost J and ws at each iteration primarily for graphing laterJ_history []w copy.deepcopy(w_in) #avoid modifying global w within functionb b_infor i in range(num_iters):# Calculate the gradient and update the parametersdj_db,dj_dw gradient_function(X, y, w, b) ##None# Update Parameters using w, b, alpha and gradientw w - alpha * dj_dw ##Noneb b - alpha * dj_db ##None# Save cost J at each iterationif i100000: # prevent resource exhaustion J_history.append( cost_function(X, y, w, b))# Print cost every at intervals 10 times or as many iterations if 10if i% math.ceil(num_iters / 10) 0:print(fIteration {i:4d}: Cost {J_history[-1]:8.2f} )return w, b, J_history #return final w,b and J history for graphing 梯度下降算法测试 # initialize parameters initial_w np.zeros_like(w_init) initial_b 0. # some gradient descent settings iterations 1000 alpha 5.0e-7 # run gradient descent w_final, b_final, J_hist gradient_descent(X_train, y_train, initial_w, initial_b,compute_cost, compute_gradient, alpha, iterations) print(fb,w found by gradient descent: {b_final:0.2f},{w_final} ) m,_ X_train.shape for i in range(m):print(fprediction: {np.dot(X_train[i], w_final) b_final:0.2f}, target value: {y_train[i]})# plot cost versus iteration fig, (ax1, ax2) plt.subplots(1, 2, constrained_layoutTrue, figsize(12, 4)) ax1.plot(J_hist) ax2.plot(100 np.arange(len(J_hist[100:])), J_hist[100:]) ax1.set_title(Cost vs. iteration); ax2.set_title(Cost vs. iteration (tail)) ax1.set_ylabel(Cost) ; ax2.set_ylabel(Cost) ax1.set_xlabel(iteration step) ; ax2.set_xlabel(iteration step) plt.show() 结果为 可以看到右图中损失函数在traning次数结束之后还一直在下降没有找到最佳的w,b组合。具体解决方法后面会有更新。 完整的代码为 import copy, math import numpy as np import matplotlib.pyplot as pltnp.set_printoptions(precision2) # reduced display precision on numpy arraysX_train np.array([[2104, 5, 1, 45], [1416, 3, 2, 40], [852, 2, 1, 35]]) y_train np.array([460, 232, 178])b_init 785.1811367994083 w_init np.array([ 0.39133535, 18.75376741, -53.36032453, -26.42131618])def predict(x, w, b):single predict using linear regressionArgs:x (ndarray): Shape (n,) example with multiple featuresw (ndarray): Shape (n,) model parametersb (scalar): model parameterReturns:p (scalar): predictionp np.dot(x, w) breturn pdef compute_cost(X, y, w, b):compute costArgs:X (ndarray (m,n)): Data, m examples with n featuresy (ndarray (m,)) : target valuesw (ndarray (n,)) : model parametersb (scalar) : model parameterReturns:cost (scalar): costm X.shape[0]cost 0.0for i in range(m):f_wb_i np.dot(X[i], w) b # (n,)(n,) scalar (see np.dot)cost cost (f_wb_i - y[i]) ** 2 # scalarcost cost / (2 * m) # scalarreturn costdef compute_gradient(X, y, w, b):Computes the gradient for linear regressionArgs:X (ndarray (m,n)): Data, m examples with n featuresy (ndarray (m,)) : target valuesw (ndarray (n,)) : model parametersb (scalar) : model parameterReturns:dj_dw (ndarray (n,)): The gradient of the cost w.r.t. the parameters w.dj_db (scalar): The gradient of the cost w.r.t. the parameter b.m, n X.shape # (number of examples, number of features)dj_dw np.zeros((n,))dj_db 0.for i in range(m):err (np.dot(X[i], w) b) - y[i]for j in range(n):dj_dw[j] dj_dw[j] err * X[i, j]dj_db dj_db errdj_dw dj_dw / mdj_db dj_db / mreturn dj_db, dj_dwdef gradient_descent(X, y, w_in, b_in, cost_function, gradient_function, alpha, num_iters):Performs batch gradient descent to learn theta. Updates theta by takingnum_iters gradient steps with learning rate alphaArgs:X (ndarray (m,n)) : Data, m examples with n featuresy (ndarray (m,)) : target valuesw_in (ndarray (n,)) : initial model parametersb_in (scalar) : initial model parametercost_function : function to compute costgradient_function : function to compute the gradientalpha (float) : Learning ratenum_iters (int) : number of iterations to run gradient descentReturns:w (ndarray (n,)) : Updated values of parametersb (scalar) : Updated value of parameter# An array to store cost J and ws at each iteration primarily for graphing laterJ_history []w copy.deepcopy(w_in) # avoid modifying global w within functionb b_infor i in range(num_iters):# Calculate the gradient and update the parametersdj_db, dj_dw gradient_function(X, y, w, b) ##None# Update Parameters using w, b, alpha and gradientw w - alpha * dj_dw ##Noneb b - alpha * dj_db ##None# Save cost J at each iterationif i 100000: # prevent resource exhaustionJ_history.append(cost_function(X, y, w, b))# Print cost every at intervals 10 times or as many iterations if 10if i % math.ceil(num_iters / 10) 0:print(fIteration {i:4d}: Cost {J_history[-1]:8.2f} )return w, b, J_history # return final w,b and J history for graphing# initialize parameters initial_w np.zeros_like(w_init) initial_b 0. # some gradient descent settings iterations 1000 alpha 5.0e-7 # run gradient descent w_final, b_final, J_hist gradient_descent(X_train, y_train, initial_w, initial_b,compute_cost, compute_gradient,alpha, iterations) print(fb,w found by gradient descent: {b_final:0.2f},{w_final} ) m,_ X_train.shape for i in range(m):print(fprediction: {np.dot(X_train[i], w_final) b_final:0.2f}, target value: {y_train[i]})# plot cost versus iteration fig, (ax1, ax2) plt.subplots(1, 2, constrained_layoutTrue, figsize(12, 4)) ax1.plot(J_hist) ax2.plot(100 np.arange(len(J_hist[100:])), J_hist[100:]) ax1.set_title(Cost vs. iteration); ax2.set_title(Cost vs. iteration (tail)) ax1.set_ylabel(Cost) ; ax2.set_ylabel(Cost) ax1.set_xlabel(iteration step) ; ax2.set_xlabel(iteration step) plt.show()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/89595.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

中国网站设计模板下载马云做黄页网站时候

目录 快速排序--递归 归并排序--递归 插入排序 冒泡排序 选择排序 215 给定整数数组 nums 和整数 k&#xff0c;请返回数组中第 k 个最大的元素。 347. 前 K 个高频元素 快速排序--递归 void quick_sort(vector<int> &nums, int l, int r) {if (l 1 > r) …

免费素材网站设计现今网站开发的主流框架

在很久很久以前&#xff0c;手机是有红外功能的&#xff0c;后来随着蓝牙技术的成熟&#xff0c;红外逐渐被蓝牙取代&#xff0c;不再是标配了。红外本身还是有些优点&#xff0c;比如操作简便&#xff0c;成本低。要想在手机上添加红外功能&#xff0c;就要外接一个转换模块。…

常熟公司网站建设电话建站公司排名

第2章 使用Maven搭建SpringCloud项目 第3章 SpringBoot项目技术整合 第4章 使用Vue cli 4搭建管理控台 第5章 单表管理功能前后端开发 第6章 通用代码生成器开发 第7章 核心业务功能开发 第8章 文件上传功能开发 第9章 大文件断点续与极速秒传 第10章 基于阿里云OSS的文…

经典网站钢材网站建设

1.Set函数 setter函数&#xff0c;对成员变量赋值。Set函数的一般写法以对age操作为例&#xff0c;写法为&#xff1a; -(void)setAge:(int)newage。 2. Get函数 getter函数&#xff0c;对成员变量取值。Get函数的一般写法也以对age的操作为例&#xff0c;写法为&#xff1a; -…

宁波网站设计推广服务公司seo的优化策略有哪些

《编译原理实验七&#xff1a;LL1文法的判断》由会员分享&#xff0c;可在线阅读&#xff0c;更多相关《编译原理实验七&#xff1a;LL1文法的判断(11页珍藏版)》请在人人文库网上搜索。1、实验七&#xff1a;LL(1)文法的判断 一&#xff1a;要求输入&#xff1a;任意的上下文无…

百度图在图不留网站方图虫摄影网官网

jenkins Jenkins是一个开源的、提供友好操作界面的持续集成(CI)工具&#xff0c;起源于Hudson&#xff08;Hudson是商用的&#xff09;&#xff0c;主要用于持续、自动的构建/测试软件项目、监控外部任务的运行&#xff08;这个比较抽象&#xff0c;暂且写上&#xff0c;不做解…

网站开发需要什么服务器应用商店网站模板

备受关注的新一代需求管理工具Trufun Bacon X正式发布&#xff01;它集现有需求管理工具Telelogic 和Requisite Pro之大成&#xff0c;为用户的需求管理提供了一个新的、更加强大的选择&#xff01;Trufun Bacon是一个跨平台、企业级应用的需求管理工具&#xff0c;它提供了所有…

河北智能网站建设wordpress 文章侧边栏

C语言中的类型转换 在C语言中&#xff0c;如果赋值运算符左右两侧类型不同&#xff0c;或者形参与实参类型不匹配&#xff0c;或者返回值类型与 接收返回值类型不一致时&#xff0c;就需要发生类型转化&#xff0c;C语言中总共有两种形式的类型转换&#xff1a;隐式类型 转换和…

电子商务网站管理系统进不了wordpress

耳机现在已经是我们形影不离的随身设备&#xff0c;如果我们碰见华为手机或平板无法连接或连接不上华为耳机&#xff08;如FreeBuds、FreeLace系列及FreeClip蓝牙耳机&#xff09;的问题&#xff0c;其实很简单&#xff0c;今天分享一个小妙招&#xff0c;帮助我们快速解决这个…

不花钱怎么做网站运营可以做视频的一个网站

Android WindowManagerService架构分析 WindowManagerService(以下简称WMS) 是Android的核心服务。WMS管理所有应用程序窗口(Window)的Create、Display、Update、Destory。 因为Android系统中只有一个WMS&#xff08;运行在SystemServer进程&#xff09;&#xff0c;可以称其为…

vs网站模板精美wordpress模板下载

正题 题目链接:https://www.luogu.com.cn/problem/CF802O 题目大意 nnn天每条有aia_iai​和bib_ibi​。 每条可以花费aia_iai​准备至多一道题&#xff0c;可以花费bib_ibi​打印至多一道准备好了的题。 求准备kkk道题最少要花费多少。 1≤k≤n≤51051\leq k\leq n\leq 5\ti…

做营销型网站的教程wordpress移动端设置

java语言和类库&#xff1a;java语言是支持整个java技术的底层基础&#xff0c;java类库是随java语言Java 运行系统&#xff1a;主要指java虚拟机&#xff0c;负责将java与平台无关的中间代码翻译成本机的Java applet :Java applet 是用java语言编写的小应用程序&#xff0c;通…

换物网站为什么做不起来制作ppt用什么软件免费

目前&#xff0c;我国财政体制正值如火如荼的调整阶段&#xff0c;各级政府和部门响应国家号召&#xff0c;旨在加强管理会计系统建设&#xff0c;制定具有先导性和科学性的现代化全面预算管理制度&#xff0c;从而将我国财力推向一个新高度。其中&#xff0c;基于服务或产品的…

大气网站图域名怎么卖

1.const修饰变量一般有两种写法&#xff1a; constTYPE value;TYPE constvalue;这两种写法在本质上是一样的。它的含义是&#xff1a;const修饰的类型为TYPE的变量value是不可变的。对于一个非指针的类型TYPE&#xff0c;无论怎么写&#xff0c;都是一个含义&#xff0c;即valu…

vp代理商网站管理系统电子商务网站域名注册要求

回流基本概念 从电路理论上看&#xff0c;信号是由电流传播的&#xff0c;明确的说是电子的运动&#xff0c;电子流的特性之一就是电子从不在任何地方停留&#xff0c;无论电流流到哪里&#xff0c;必然要回来&#xff0c;因此电流总是在环路中流动&#xff0c;从源到负载然后从…

网站统计分析工具美声广告网站建设

2、一些rpm相关信息rpm软件包系统的标准分组&#xff1a;/usr/share/doc/rpm-4.3.3/GROUPS各种宏定义&#xff1a; /usr/lib/rpm/macros已经安装的rpm包数据库&#xff1a; /var/lib/rpm如果要避免生成debuginfo包&#xff1a;这个是默认会生成的rpm包。则可以使用下面的命令&a…

四川铁科建设监理公司网站怎样建设一个公司网站

一、ActivityManagerService提供的主要功能&#xff1a;(1)统一调度各应用程序的Activity(2)内存管理(3)进程管理二、启动一个Activity的方式有以下几种&#xff1a;(1)在应用程序中调用startActivity启动指定的Activity(2)在Home程序中单击一个应用图标&#xff0c;启动新的Ac…

自己怎么做商城网站吗前几年做啥网站能致富

project facets java转成web项目 用Eclipse开发项目的时候&#xff0c;把一个Web项目导入到Eclipse里会变成了一个Java工程&#xff0c;将无法在Tomcat中进行部署运行。 方法&#xff1a; 1.找到.project文件&#xff0c;找到里面的<natures>标签&#xff0c;查看是否有下…

网站建设方案 预算做网站要学哪些

基于美信 9296的芯⽚ 对于GMSL信号链路上的需求如下&#xff1a; 1&#xff1a;插损 频段2M~3.5GHZ 在3G时需要⼩于-21db。通信速率 6Gbps/187Mbps 频段2M~3.5GHZ 在3G时需要⼩于-18db。通信速率 6Gbps/1.5Gbps 频段2M~2GHZ 在1.5G时需要⼩于-19.5db。通信速率 3Gbps/187Mbps …