Python-sklearn-LinearRegression

目录

1 手动实现/使用sklearn实现线性回归训练

1.1 单特征线性回归(One Feature)

1.2 多特征线性回归(Multiple Features)

1.3 多项式线性回归(Polynomial)


1 手动实现/使用sklearn实现线性回归训练

1.1 单特征线性回归(One Feature)

假设函数(One feature):

h(x^{i}) = w * x^{i} + b

损失函数(平方差损失MSE):

J(w, b) = \frac{1}{2m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})^{2}

优化器(梯度下降Gradient descent):

w: = w - \alpha \frac{\partial }{\partial w}J(w, b) = w - \alpha \frac{1}{m}\sum_{i=1}^{m}[(h(x^{i}) - y^{i}) * x^{i}]

b: = b - \alpha \frac{\partial }{\partial b}J(w, b) = b - \alpha \frac{1}{m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})

"""
@Title: linear_regression_with_one_feature
@Time: 2024/2/29
@Author: Michael Jie
"""import randomimport numpy as np
from sklearn.linear_model import LinearRegressionprint("--------------------手动实现LinearRegression--------------------")
# 数据集,y = 2.7 * x + 1.9
x = np.random.uniform(-3, 3, (100, 1))
y = 2.7 * x + 1.9 + np.random.normal(0, 0.5, (100, 1))
m = len(x)# 初始化训练参数
w, b = random.random(), random.random()
# 定义最小损失,学习率,最大训练轮次
epsilon, alpha, max_iter = 1e-4, 1e-2, 1e4# 训练
num = 0  # 训练轮次
j_init = 0  # 用于计算两次训练损失的差值
while True:# 假设函数,单特征线性回归h = w * x + b# 损失,平方差损失函数j = 1 / (2 * m) * np.sum((h - y) ** 2)if abs(j - j_init) < epsilon or num > max_iter:break# 优化器,梯度下降w -= alpha * (1 / m * np.sum((h - y) * x))b -= alpha * (1 / m * np.sum(h - y))num += 1j_init = jif num % 100 == 0:print("第{num}次训练,损失为:{j}".format(num=num, j=j))
print("训练后参数为:({w}, {b})".format(w=w, b=b))
# 预测
print("输入10的预测值为:{y}".format(y=w * 10 + b))print("--------------------使用sklearn实现LinearRegression--------------------")
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入10的预测值为:{y}".format(y=linear.predict(np.array([[10]]))))"""
--------------------手动实现LinearRegression--------------------
第100次训练,损失为:0.24785011069810353
第200次训练,损失为:0.12133612402719189
训练后参数为:(2.6975988345352375, 1.8337117307000714)
输入10的预测值为:28.809700076052447
--------------------使用sklearn实现LinearRegression--------------------
训练后参数为:([[2.68709722]], [1.93437403])
输入10的预测值为:[[28.80534627]]
"""

1.2 多特征线性回归(Multiple Features)

假设函数(Multiple Features):

h(x) = w_{1} * x_{1} + w_{2} * x_{2} + ... + w_{n} * x_{n} + b = w^{T} * x + b

损失函数(平方差损失MSE):

J(w_{1},w_{2},...,w_{n}, b) = \frac{1}{2m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})^{2}

优化器(梯度下降Gradient descent):

w_{j} := w_{j} - \alpha \frac{\partial }{\partial w_{j}}J(w, b) = w_{j} - \alpha \frac{1}{m}\sum_{i=1}^{m}[(h(x^{i}) - y^{i}) * x_{j}^{i}]

b: = b - \alpha \frac{\partial }{\partial b}J(w, b) = b - \alpha \frac{1}{m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})

"""
@Title: linear_regression_with_multiple_features
@Time: 2024/2/29
@Author: Michael Jie
"""import randomimport numpy as np
from sklearn.linear_model import LinearRegressionprint("--------------------手动实现LinearRegression--------------------")
# 数据集,y = 2.1 * x1 + 1.7 * x2 + 4.4
x = np.random.uniform(-3, 3, (100, 2))
y = np.dot(x, np.array([[2.1, 1.7]]).T) + 4.4 + np.random.normal(0, 0.5, (100, 1))
m = len(x)# 初始化训练参数
w, b = [[random.random(), random.random()]], random.random()
w = np.array(w)
# 定义最小损失,学习率,最大训练轮次
epsilon, alpha, max_iter = 1e-4, 1e-3, 1e4# 训练
num = 0  # 训练轮次
j_init = 0  # 用于计算两次训练损失的差值
while True:# 假设函数,单特征线性回归h = np.dot(x, w.T) + b# 损失,平方差损失函数j = 1 / (2 * m) * np.sum((h - y) ** 2)if abs(j - j_init) < epsilon or num > max_iter:break# 优化器,梯度下降w -= alpha * (1 / m * np.sum((h - y) * x))b -= alpha * (1 / m * np.sum(h - y))num += 1j_init = jif num % 100 == 0:print("第{num}次训练,损失为:{j}".format(num=num, j=j))
print("训练后参数为:({w}, {b})".format(w=w, b=b))
# 预测
print("输入(10, 20)的预测值为:{y}".format(y=np.dot(np.array([[10, 20]]), w.T) + b))print("--------------------使用sklearn实现LinearRegression--------------------")
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入(10, 20)的预测值为:{y}".format(y=linear.predict(np.array([[10, 20]]))))"""
--------------------手动实现LinearRegression--------------------
第100次训练,损失为:6.917612630867695
第200次训练,损失为:5.128139537455417
...
第2300次训练,损失为:0.2550961384480396
第2400次训练,损失为:0.2423823553289109
训练后参数为:([[1.92022977 1.85815836]], 4.258528651534591)
输入(10, 20)的预测值为:[[60.62399361]]
--------------------使用sklearn实现LinearRegression--------------------
训练后参数为:([[2.09568973 1.68056098]], [4.45455187])
输入(10, 20)的预测值为:[[59.02266883]]
"""

1.3 多项式线性回归(Polynomial)

"""
@Title: linear_regression_with_polynomial
@Time: 2024/2/29 19:41
@Author: Michael
"""import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures# 数据集,y = 1.4 * x ** 2 - 3.1 * x + 2.6
x = np.random.uniform(-3, 3, (100, 1))
y = 1.4 * x ** 2 - 3.1 * x + 2.6 + np.random.normal(0, 0.5, (100, 1))# 预处理数据集,将一元二次函数转化成三元一次函数,然后使用线性回归训练
poly = PolynomialFeatures(degree=2)
poly.fit(x)
x = poly.transform(x)
# 手动实现预处理
degree = np.array([[0, 1, 2]])
# x = x ** degree# 回归训练
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入10的预测值为:{y}".format(y=linear.predict(np.array([[1, 10, 100]]))))"""
训练后参数为:([[ 0.         -3.1180901   1.40622675]], [2.62986504])
输入10的预测值为:[[112.07163862]]
"""

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/724824.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

numpyNaN

numpyNaN nan(NAN,Nan):not a number表示不是一个数字 什么时候numpy中会出现nan&#xff1a; 当我们读取本地的文件为float的时候&#xff0c;如果有缺失&#xff0c;就会出现nan当做了一个不合适的计算的时候(比如无穷大(inf)减去无穷大) inf(-inf,inf):infinity,inf表示…

JavaScript-1 (forEach方法)

--输出语句 document.write(文档输出内容) alert(警告对话框) console.log(控制台打印) --输入语句 prompt(请输入姓名:) JavaScript的书写位置 1.内联JavaScript <button onclick"alert(hello world!)">点击我</button> <button> 标签: …

flowable的java class task,也叫服务任务

源码地址12级程序猿-新年正当红/flowable-ui和服务任务 启动flowable-ui-app 浏览器输入下面的地址 http://localhost:8080/flowable-ui/#/ 在服务任务这里设置java类的路径 com.dmg.flowabledemo.task.MyServiceTask 当请假任务完成之后&#xff0c;自动触发这个服务任务…

Android开发社招面试总结,Android程序员面试必备的知识点

导语 学历永远是横在我们进人大厂的一道门槛&#xff0c;好像无论怎么努力&#xff0c;总能被那些985,211 按在地上摩擦&#xff01; 不仅要被“他们”看不起&#xff0c;在HR挑选简历&#xff0c;学历这块就直接被刷下去了&#xff0c;连证明自己的机会也没有&#xff0c;学…

synchronized 五连问

什么是synchronized? synchronized 是Java中用于实现线程同步的关键字&#xff0c;它可以确保多个线程在访问共享资源时不会发生冲突。 synchronized 关键字的一些主要用法? 修饰方法&#xff1a;当 synchronized 用于修饰方法时&#xff0c;它会将该方法变成同步方法&#…

关于Java并发多线程的一点思考

写在开头 在过去的2023年双11活动中&#xff0c;天猫的累计访问人次达到了8亿&#xff0c;京东超60个品牌销售破10亿&#xff0c;直播观看人数3.0亿人次&#xff0c;订单支付频率1分钟之内可达百万级峰值&#xff0c;这样的瞬间高并发活动&#xff0c;给服务端带来的冲击可想而…

什么职业适合报考CISP证书

CISP认证是当前中国信息安全行业中最主流、最专业的证书之一&#xff0c;具有很高的含金量。 那么&#xff0c;CISP认证的含金量高吗?哪些职位需要获得CISP证书?作为国家认证证书&#xff0c;CISP认证&#xff0c;当然&#xff0c;含金量&#xff0c;到底是多么高的含金量&a…

HplusAdmin ASP.NET基本权限管理系统

HplusAdmin 介绍 一套ASP.NET WebForm(不用控件) hplusasp.netsqlserver 基本权限管理系统 http://hplus.baocaige.top 暂不开源&#xff0c;需要的滴滴或者留下邮箱&#xff01;&#xff01;&#xff01; 账号 普通账号 账号&#xff1a;user 密码&#xff1a;Aa123456普…

运维随录实战(10)之上传Maven私服

1,通过第三方仓库(sonatype ossrh)上传,首先在官网注册账号: Loading... 2,新建issue 3,按照评论要求进行代码建立等 4,安装gpg,地址:Gpg4win - Download Gpg4win 相关命令: gpg --version 查看版本(是否安装成功) gpg --gen-key 生成公钥 gpg --keyserver hk…

swagger在java中的基本使用

自动生成接口文档&#xff0c;和在线接口测试的框架。 导入依赖 <!-- knife4j对swagger进行一个封装--><dependency><groupId>com.github.xiaoymin</groupId><artifactId>knife4j-spring-boot-starter</artifactId><versi…

UE Snap01

获取指定文件目录下的所有文件 TArray<FString> LoadFilesPathFromDir(const FString& DirPath) {IFileManager& FileManager IFileManager::Get();TArray<FString> FilesPath;if (FileManager.DirectoryExists(*DirPath)){FileManager.FindFiles(FilesP…

阻塞队列、生产者消费者模型、阻塞队列的模拟实现等干货

文章目录 &#x1f490;生产者消费者模型&#x1f490;模拟实现阻塞队列&#x1f4a1;注意点一&#x1f4a1;注意点二 阻塞队列是一种“特殊”的数据结构&#xff0c;但是也遵循队列的“先进先出”特性&#xff0c;它的特殊在于&#xff1a; 阻塞队列的两个特性&#xff1a; 1…

【C++入门】引用

目录 6.引用 6.1引用概念 6.2引用的写法 6.3引用的特性 6.4常引用 6.5引用的使用场景 6.5.1引用做参数 6.5.2引用做返回值❗❗ &#x1f387;值做返回值 &#x1f387;引用做返回值 &#x1f387;引用在顺序表做返回值 6.5.3传值、传引用效率比较(参数&#xff0…

【OpenGL的着色器03】内置变量和函数(gl_Position等)

目录 一、说明 二、着色器的变量 2.1 着色器变量 2.2 着色器内置变量 三、最常见内置变量使用范例 3.1 常见着色器变量 3.2 示例1&#xff1a; gl_PointSize 3.3 示例2&#xff1a;gl_Position 3.4 gl_FragColor 3.5 渲染点片元坐标gl_PointCoord 3.6 gl_PointCoo…

Android Gradle开发与应用 (三) : Groovy语法概念与闭包

1. Groovy介绍 Groovy是一种基于Java平台的动态编程语言&#xff0c;与Java是完全兼容&#xff0c;除此之外有很多的语法糖来方便我们开发。Groovy代码能够直接运行在Java虚拟机&#xff08;JVM&#xff09;上&#xff0c;也可以被编译成Java字节码文件。 以下是Groovy的一些…

图像处理与视觉感知---期末复习重点(1)

文章目录 一、概述二、图像处理基础2.1 视觉感知要素2.2 像素间的一些基本关系2.2.1 相邻像素2.2.2 连通性2.2.3 距离度量 2.3 基本坐标变换2.4 空间变换与灰度值 一、概述 1. 图像的概念及分类。  图像是用各种观测系统以不同形式和手段观测客观世界而获得的、可以直接或间接…

nodejs版本管理工具nvm安装和环境变量配置

1、下载nvm.exe https://github.com/coreybutler/nvm-windows/releases2、安装 1.在D盘根目录新建一个dev文件夹&#xff0c;在dev里面再新建一个nodejs。 2.双击下载好的nvm.exe 修改文件路径&#xff0c;且路径中不能有中文 3.安装完成后在D:\dev\nvm打开settings.txt&…

大模型交互-超拟人合成

1、超拟人合成&#xff1a;将文字转化为自然流畅的人声&#xff0c;在实时语音合成的基础上&#xff0c;精准模拟人类的副语言现象&#xff0c;如呼吸、叹气、语速变化等&#xff0c;使得语音不仅流畅自然&#xff0c;更富有情感和生命力。 2、唤醒的持久运行--->合成能力加…

kerberos学习系列一:原理

1、简介 Kerberos 一词来源于古希腊神话中的 Cerberus —— 守护地狱之门的三头犬。 Kerberos 是一种基于加密 Ticket 的身份认证协议。Kerberos 主要由三个部分组成&#xff1a;Key Distribution Center (即KDC)、Client 和 Service。 优势&#xff1a; 密码无需进行网络传…

Docker数据卷篇

1. 数据卷&#xff08;容器数据管理&#xff09; 引言&#xff1a;在之前的nginx案例中&#xff0c;修改nginx的html页面时&#xff0c;需要进入nginx内部。并且因为没有编辑器&#xff0c;修改文件也很麻烦。 这就是因为容器与数据&#xff08;容器内文件&#xff09;耦合带…