海外网站建设公司熬夜必备黄
web/
2025/9/26 10:06:25/
文章来源:
海外网站建设公司,熬夜必备黄,做seo要明白网站内容,做实体识别的网站Python-大数据分析之常用库
1. 数据采集与第三方数据接入
1-1. Beautiful Soup
Beautiful Soup 是一个用于解析HTML和XML文档的库#xff0c;非常适用于网页爬虫和数据抓取。可以提取所需信息#xff0c;无需手动分析网页源代码#xff0c;简化了从网页中提取数据的过…Python-大数据分析之常用库
1. 数据采集与第三方数据接入
1-1. Beautiful Soup
Beautiful Soup 是一个用于解析HTML和XML文档的库非常适用于网页爬虫和数据抓取。可以提取所需信息无需手动分析网页源代码简化了从网页中提取数据的过程使得数据抽取变得更加容易。 应用场景 网络爬虫 用于从网页中抓取所需数据。 数据抽取 从HTML文档中提取数据并进行分析。 数据清洗 帮助清理和规范不一致的HTML数据。 功能特点 解析器灵活性 Beautiful Soup支持多种解析器如Python的内置解析器html.parser、lxml解析器需要安装lxml库以及html5lib需要安装html5lib库。 方便的遍历方法 可以遍历文档树、搜索特定元素、提取数据。 容错能力强 能够处理“糟糕”的HTML代码修复标记不完整的标签等问题让解析过程更加稳定。 支持编码转换 可以自动识别文档编码或者手动指定编码进行解析。 基本用法 解析器初始化 通过将HTML文档传递给Beautiful Soup来创建解析器对象。 from bs4 import BeautifulSoup
# 从文件中读取HTML
with open(example.html, r) as file:soup BeautifulSoup(file, html.parser)遍历文档树 可以使用标签名称、类名、id等属性进行文档元素的遍历和搜索。 # 通过标签名获取元素
title soup.title# 通过类名获取元素
important_texts soup.find_all(p, class_important)# 通过id获取元素
content soup.find(idcontent)提取数据 可以获取元素的文本内容、属性等信息。 # 获取文本内容
print(title.text)# 获取属性值
print(content[href])修改文档树 可以添加、删除或修改文档中的标签和内容。 # 创建新的标签
new_tag soup.new_tag(a, hrefhttp://example.com)
new_tag.string Link Text# 在文档中插入新标签
content.append(new_tag)1-2. Requests
需要与网络交互时Requests库是不可或缺。Requests简化了与目标网站接口的通信易于使用且功能强大支持多种HTTP方法和参数设置能够轻松发送HTTP请求并处理响应。网络爬虫、API调用或是测试网站Requests都能够让这些任务变得轻而易举。
在企业数据采购中经常需要与供应商或合作伙伴的API进行数据交换。使用requests库可以轻松实现数据的发送和接收无论是从外部API获取数据还是向外部API推送数据都可以通过requests来完成。 Requests库特点 简单易用 Requests提供了简洁的API使得发送HTTP请求变得非常简单。多种HTTP方法支持 支持GET、POST、PUT、DELETE等HTTP方法。自动解析 能够自动解析JSON响应和处理URL编码等。Session支持 可以创建持久性会话保持会话状态方便维护会话信息。SSL证书验证、Cookie支持、重定向等 提供了多种功能以处理各种HTTP请求和响应情况。 基本用法 发送GET请求通过向外部API发送GET请求来获取数据获取外部数据源 # API数据获取
import requestsresponse requests.get(https://api.openweathermap.org/data/2.5/weather?qLondonappidyour_api_key)
if response.status_code 200:weather_data response.json()# 处理数据逻辑# Web数据抓取
import requests
from bs4 import BeautifulSoupresponse requests.get(https://example.com)
if response.status_code 200:soup BeautifulSoup(response.text, html.parser)# 提取所需数据信息发送POST请求使用POST请求向外部API发送数据推送数据给外部接口 import requestspayload {key1: value1, key2: value2}
headers {Content-Type: application/json, Authorization: Bearer YOUR_TOKEN}response requests.post(https://api.example.com/endpoint, jsonpayload, headersheaders)
if response.status_code 201:# 处理成功发送数据后的响应错误处理与异常情况 import requeststry:response requests.get(https://api.example.com/data)response.raise_for_status() # 如果响应状态码不是200则会抛出HTTPError异常data response.json()# 处理数据
except requests.HTTPError as http_err:print(fHTTP error occurred: {http_err})
except Exception as err:print(fOther error occurred: {err})使用Session保持会话 with requests.Session() as session:session.get(https://example.com/login, auth(user, pass))# 保持登录状态进行后续请求response session.get(https://example.com/dashboard)处理认证和权限 # Token认证使用请求头中的Token进行认证
headers {Authorization: Bearer YOUR_TOKEN}# Basic Auth通过提供用户名和密码进行基本认证。
auth (username, password)
response requests.get(https://api.example.com/data, authauth)日志记录与监控 import requests
import logginglogging.basicConfig(filenamerequests.log, levellogging.INFO)try:response requests.get(https://api.example.com/data)response.raise_for_status()logging.info(Request successful)
except requests.HTTPError as http_err:logging.error(fHTTP error occurred: {http_err})
except Exception as err:logging.error(fOther error occurred: {err})1-3. Beautiful Soup与Requests总结对比
特点Beautiful SoupRequests主要功能解析HTML和XML文档提取数据发送HTTP请求处理响应用途网页解析、数据抽取和处理向服务器发起HTTP请求、处理响应获取网络数据关注重点文档解析、数据提取HTTP请求和响应的处理主要特点- 提供多种解析器 - 方便的API来遍历文档树、搜索元素、提取数据 - 修复HTML不完整标签- 提供简洁的API - 支持多种HTTP方法 - 处理认证、Cookie、SSL验证等适用场景从网页中提取特定数据、数据清洗、提取链接等发送HTTP请求、获取网页内容、与API进行交互
2. 数据分析
2-1. Jupyter Notebook
Jupyter Notebook是一个开源的交互式笔记本环境支持多种编程语言最常用的是Python。它以网页的形式提供一个交互式界面允许用户在浏览器中编写和运行代码、展示文本、图像、公式等内容并保存成为具有可执行代码、可视化结果和解释性文档的笔记本。Jupyter Notebook是数据科学家和研究人员的最爱无论是在进行数据分析、机器学习建模还是原型设计Jupyter Notebook都是无可替代的工具。
Jupyter Notebook作为一个灵活、交互式、功能丰富的工具为数据科学家、教育工作者和开发人员提供了一个方便的平台可以方便地探索数据、编写文档和演示成果。 主要特点和功能 多语言支持 Jupyter支持多种编程语言如Python、R、Julia等通过内核系统可以轻松切换语言。交互式运行 可以分段执行代码实时查看输出结果有助于探索数据和算法。富文本展示 支持Markdown、LaTeX等富文本格式可以插入文本、图像、公式、超链接等。数据可视化 可以直接在Notebook中绘制图表、图像等可视化结果并与代码交互。方便共享 笔记本可以导出成HTML、PDF、Markdown等格式方便分享和展示成果。支持扩展 有丰富的插件和扩展功能可以增强编辑和运行环境。 用途和应用场景 数据分析和可视化 在数据科学领域广泛应用用于数据清洗、探索、分析和可视化。 教学和学习 作为教学工具可以编写教程、示例代码并直观地展示结果有助于学习和教学。 实验和原型开发 用于快速原型设计和实验探索算法、库和新技术。 文档编写 用于编写技术文档、报告和演示文稿结合代码和解释性文本。 使用方法 安装Jupyter Notebook 通过pip或conda安装Jupyter Notebook。启动Jupyter Notebook 在命令行中输入jupyter notebook会在浏览器中打开Jupyter界面。创建和编辑笔记本 在界面中新建Notebook文件选择所需编程语言的内核开始编写和运行代码。编辑和运行代码 将代码写入单元格按下ShiftEnter执行单元格中的代码并查看输出结果。添加文本和图像 使用Markdown语法添加文本、标题、图像等丰富的内容。保存和分享 可以保存笔记本为.ipynb文件也可以导出成其他格式用于分享。
2-2. NumPy
NumPy是Python中用于科学计算的一个强大的库主要用于处理数组和矩阵运算。它提供了丰富的功能和高效的数据结构是许多科学和工程领域中常用的核心库之一。 主要特点和功能 多维数组对象 提供了ndarray对象用于表示多维数组可以进行高效的数值运算。数学函数 包括线性代数、傅立叶变换、随机数生成等丰富的数学函数和工具。广播功能 能够处理不同形状的数组自动执行元素级运算极大地简化了代码编写。性能优化 NumPy底层使用C语言编写操作数组的运算速度非常快是因为它具有优化的算法和数据结构。与其他工具集成 可以与其他工具如Pandas、Matplotlib等良好集成为数据分析和可视化提供基础支持。 用途和应用场景 数据处理和分析 在数据科学领域中NumPy常用于处理、转换和分析数据尤其是大量数据的计算。 科学计算 在科学计算、工程领域例如物理学、生物学、金融学等领域用于模拟、分析和解决数学问题。 机器学习和人工智能 在机器学习领域NumPy用于处理和转换数据作为许多机器学习算法的基础。 图像处理 在图像处理和计算机视觉中NumPy提供了对图像数据进行处理和操作的功能。 基本用法示例
NumPy使用介绍可见另一篇博客文章https://blog.csdn.net/wt334502157/article/details/128185332
2-3. pandas
Pandas是Python中用于数据处理和分析的强大库它建立在NumPy的基础上提供了更高级的数据结构和工具使得数据操作更加便捷和高效。Pandas通常用于处理结构化数据比如表格数据、时间序列等无论是需要进行数据清洗、转换还是统计分析Pandas都可以帮助您快速达成目标 主要特点和功能 DataFrame对象 提供了DataFrame对象类似于电子表格或SQL数据库中的表格用于处理二维数据。Series对象 提供了Series对象类似于一维数组或列表用于处理一维数据。数据对齐和处理 能够轻松处理缺失数据、重复数据、数据合并、数据对齐等操作。灵活的数据操作 支持数据的切片、筛选、聚合、分组等操作操作更简单直观。数据读写 支持多种数据格式的读写如CSV、Excel、SQL、JSON等。数据可视化 集成了Matplotlib等库能够进行数据可视化和绘图操作。 用途和应用场景 数据清洗和预处理 用于处理和清洗数据包括缺失值处理、数据转换、数据规范化等。 数据分析和探索 在数据科学领域中用于数据探索、统计分析、建模等。 时间序列处理 用于处理时间序列数据如金融数据、传感器数据等。 数据可视化 可以配合Matplotlib等库进行数据可视化绘制图表和图形。 基本用法示例
Pandas使用介绍可见另一篇博客文章https://blog.csdn.net/wt334502157/article/details/128219770
3. 数据展示
3-1. matplotlib
Matplotlib是Python中用于绘制图表和可视化数据的库是Python中最常用的数据可视化库之一无论是在制作科学图表、数据可视化还是报告都具有高度的可定制性Matplotlib提供了丰富的绘图选项可以让数据以最吸引人的方式呈现。 主要特点和功能 各种图表类型 支持线图、柱状图、散点图、饼图、直方图、等高线图等多种类型的图表。 高度可定制 用户可以对图表的各种属性进行自定义包括颜色、线型、标签、标题等。 支持多种输出格式 可以生成图像并保存为多种格式如PNG、JPG、SVG、PDF等。 交互式功能 结合Jupyter Notebook等环境可以实现交互式图表展示。 与Pandas集成 可以方便地与Pandas等库结合使用直接绘制DataFrame中的数据。 用途和应用场景 数据可视化 在数据科学和数据分析中广泛应用用于展示和传达数据分析的结果。 科学研究 在科学研究中用于绘制实验数据、模拟结果和科学图表。 工程和统计分析 用于制作工程图、统计图和报告图表。 教学和学习 作为教学工具用于制作教程、教材以及演示。 基本用法示例 绘制折线图
import matplotlib.pyplot as pltx [1, 2, 3, 4, 5]
y [2, 4, 6, 8, 10]plt.plot(x, y)
plt.xlabel(X Axis)
plt.ylabel(Y Axis)
plt.title(Line Chart)
plt.show()绘制柱状图
import matplotlib.pyplot as pltx [板甲, 锁甲, 皮甲, 布甲]
y [30, 12, 37, 26]plt.bar(x, y)
plt.xlabel(装备类型)
plt.ylabel(玩家占比)
plt.title(各甲玩家占比)
# Windows 设置显示中文
plt.rcParams[font.sans-serif] SimHei
plt.show()绘制散点图
import matplotlib.pyplot as pltx [1, 2, 3, 4, 5]
y [2, 2, 6, 9, 16]plt.scatter(x, y)
plt.xlabel(X Axis)
plt.ylabel(Y Axis)
plt.title(Scatter Plot)
plt.show()绘制雷达图
import numpy as np
import matplotlib.pyplot as plt
# 创建figure
fig plt.figure(dpi120)
# 准备好极坐标系的数据
# 半径为[0,1]
r np.arange(0, 1, 0.001)
theta 2 * 2*np.pi * r
# 极坐标下绘制
line, plt.polar(theta, r, color#ee8d18, lw3)
plt.show()4. 机器学习
4-1. seaborn
Seaborn是建立在Matplotlib之上的数据可视化库专注于创建具有统计意义的各种图表。它提供了简单的高级接口可以轻松地创建漂亮的统计图表并且具有更好的默认设置使得数据可视化变得更加简单和直观。
Seaborn提供了一些Matplotlib不提供或不易实现的高级图表类型如小提琴图、热图、分布图等这些图表类型能更好地展示数据的分布、关系和特征具有更好看的默认主题和调色板使得图表外观更为美观无需额外调整让用户在默认情况下就能得到具有吸引力的图表。
虽然Seaborn更加强大但并不是取代Matplotlib而是在Matplotlib的基础上提供了更多的功能和便利性特别适用于统计分析、数据探索和一些高级的可视化需求。在实际应用中它们可以结合使用根据不同的需求选择合适的库来绘制图表。
主要特点和功能
统计图表 提供了针对统计分析常用的图表类型如箱线图、小提琴图、热图、聚类图等。内置主题和调色板 具有美观的默认主题和调色板使得图表的外观更加吸引人。数据探索和分析 支持对数据集的直观探索可用于探索数据的分布、关系等。与Pandas集成 能够方便地与Pandas等库结合使用直接绘制DataFrame中的数据。多变量图表 支持绘制多变量之间的关系图、热图等复杂图表。
用途和应用场景
数据探索和分析 在数据科学领域中广泛应用用于数据探索、可视化数据分布、关系等。统计分析报告 用于生成漂亮的图表加入报告和论文中提供直观的数据支持。数据可视化 作为Matplotlib的补充提供更高级、更美观的图表适用于各种数据可视化需求。
基本用法示例 绘制箱线图 import seaborn as sns
import matplotlib.pyplot as plt# 加载示例数据集
tips sns.load_dataset(tips)sns.boxplot(xday, ytotal_bill, datatips)
plt.xlabel(日期)
plt.ylabel(账单)
plt.title(每日总账单方框图)
# Windows 设置显示中文
plt.rcParams[font.sans-serif] SimHei
plt.show()绘制小提琴图
import seaborn as sns
import matplotlib.pyplot as plt# 加载示例数据集
tips sns.load_dataset(tips)sns.violinplot(xday, ytotal_bill, datatips)
plt.xlabel(日期)
plt.ylabel(账单)
plt.title(每日总账单小提琴图图)
# Windows 设置显示中文
plt.rcParams[font.sans-serif] SimHei
plt.show()绘制热图
import seaborn as sns
import matplotlib.pyplot as plt# 创建一个矩阵数据
data sns.load_dataset(flights).pivot(month, year, passengers)sns.heatmap(data, annotTrue, fmtd, cmapYlGnBu)
plt.xlabel(年)
plt.ylabel(月)
plt.title(航班乘客热呈图)
plt.show()4-2. scikit-learn
scikit-learnsklearn是一个用于机器学习和数据挖掘的Python库提供了各种机器学习算法实现和简单而有效的工具用于数据挖掘和数据分析。它建立在NumPy、SciPy和Matplotlib之上包含了各种机器学习算法和工具适用于各种机器学习任务。
主要特点和功能
丰富的机器学习算法 包含了许多常用的监督学习和无监督学习算法如回归、分类、聚类、降维等。易于使用的API 具有统一和一致的API使得用户可以方便地实现各种机器学习算法。数据预处理和特征工程 提供了数据预处理、特征选择、特征提取等功能用于准备数据以供模型训练。模型评估和验证 提供了各种评估指标和验证方法用于评估模型的性能和泛化能力。与其他库的集成 可以与NumPy、Pandas等库无缝集成方便处理和转换数据。可扩展性和灵活性 支持模型的扩展和自定义用户可以方便地实现自定义的机器学习算法。 常见的机器学习任务 分类 区分数据点属于哪个类别如垃圾邮件分类、图像识别等。 回归 预测数值型数据如房价预测、股票价格预测等。 聚类 将数据分成不同的组别发现数据中的模式如用户分群、市场细分等。 降维 减少数据集维度保留主要特征如图像处理、文本挖掘等。 基本用法示例 简单的线性回归示例
from sklearn.linear_model import LinearRegression
from sklearn.datasets import make_regression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
import matplotlib.pyplot as plt# 设置中文字体以支持中文显示
plt.rcParams[font.sans-serif] [SimHei]
plt.rcParams[axes.unicode_minus] False# 生成随机回归数据集
X, y make_regression(n_samples100, n_features1, noise20, random_state42)# 划分数据集
X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.3, random_state42)# 创建线性回归模型并拟合数据
model LinearRegression()
model.fit(X_train, y_train)# 预测并评估模型
y_pred model.predict(X_test)
mse mean_squared_error(y_test, y_pred)
print(均方误差:, mse)# 可视化结果
plt.scatter(X_test, y_test, colorblack)
plt.plot(X_test, y_pred, colorblue, linewidth3)
plt.xlabel(X)
plt.ylabel(y)
plt.title(线性回归)
plt.show()K-Means聚类示例
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans
import matplotlib.pyplot as plt# 设置中文字体以支持中文显示
plt.rcParams[font.sans-serif] [SimHei]
plt.rcParams[axes.unicode_minus] False# 生成随机聚类数据
X, _ make_blobs(n_samples300, centers4, cluster_std0.60, random_state42)# 构建并拟合K-Means模型
kmeans KMeans(n_clusters4)
kmeans.fit(X)# 可视化聚类结果
plt.scatter(X[:, 0], X[:, 1], ckmeans.labels_, cmapviridis)
plt.scatter(kmeans.cluster_centers_[:, 0], kmeans.cluster_centers_[:, 1], s300, cred, marker*, label聚类中心)
plt.title(K-Means聚类)
plt.legend()
plt.show()决策树分类示例
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.tree import plot_tree# 设置中文字体以支持中文显示
plt.rcParams[font.sans-serif] [SimHei]
plt.rcParams[axes.unicode_minus] False# 加载鸢尾花数据集
iris load_iris()
X, y iris.data, iris.target# 划分数据集
X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.3, random_state42)# 构建并拟合决策树模型
clf DecisionTreeClassifier(max_depth3, random_state42)
clf.fit(X_train, y_train)# 预测并评估模型
y_pred clf.predict(X_test)
accuracy accuracy_score(y_test, y_pred)
print(准确率:, accuracy)# 可视化决策树
plt.figure(figsize(12, 8))
plot_tree(clf, feature_namesiris.feature_names, class_namesiris.target_names, filledTrue)
plt.show()工商企业预测年营业额示例 假设我们想要根据企业的注册资本、成立年份、行业等信息来预测企业的年营业额。以下是一个简化的示例
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
import matplotlib.pyplot as plt
import numpy as np# 设置中文字体以支持中文显示
plt.rcParams[font.sans-serif] [SimHei]
plt.rcParams[axes.unicode_minus] False# 手动生成示例数据假设这是一个简化的数据集
np.random.seed(42)
data {注册资本: np.random.randint(100, 1000, 50),成立年份: np.random.randint(2000, 2020, 50),行业: np.random.choice([制造业, 服务业, 零售业], 50),年营业额: np.random.randint(100000, 1000000, 50)
}# 创建DataFrame
df pd.DataFrame(data)# 对行业进行独热编码
df pd.get_dummies(df, columns[行业])# 数据预处理选择特征和目标值
X df[[注册资本, 成立年份, 行业_制造业, 行业_服务业, 行业_零售业]]
y df[年营业额]# 划分数据集
X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 创建线性回归模型并拟合数据
model LinearRegression()
model.fit(X_train, y_train)# 预测并评估模型
y_pred model.predict(X_test)
mse mean_squared_error(y_test, y_pred)
print(均方误差:, mse)# 可视化结果展示预测值和实际值的对比
plt.figure(figsize(8, 6))
plt.plot(range(len(y_pred)), y_pred, label预测年营业额, markero)
plt.plot(range(len(y_test)), y_test, label实际年营业额, markerx)
plt.xlabel(样本编号)
plt.ylabel(年营业额)
plt.title(年营业额预测结果)
plt.legend()
plt.show()4-3. Keras
Keras 是一个高层神经网络 API它可以运行在 TensorFlow、Theano 和 Microsoft Cognitive ToolkitCNTK之上使得深度学习任务更加简单和快速。它设计用来快速试验和搭建神经网络模型具有易用性和灵活性。
主要特点和功能
用户友好性 Keras 提供了简洁一致的 API易于使用和理解适合初学者和专业人士。模块化和可组合性 允许用户通过堆叠层的方式快速构建神经网络模型模块化程度高便于修改和扩展。支持多种神经网络类型 支持多种类型的神经网络包括卷积神经网络CNN、循环神经网络RNN、深度强化学习等。灵活性 可以在 CPU 和 GPU 上无缝运行支持快速实验和迁移学习。易于扩展 可以通过添加自定义层、损失函数、激活函数等来定制模型。内置高级功能 提供了各种内置功能如图像处理、序列处理、优化器、损失函数等。广泛的社区支持 拥有庞大的用户社区和开发者支持提供了丰富的文档和示例。
Keras 的基本用法示例
以下是一个简单的示例展示了如何使用 Keras 来构建一个简单的全连接神经网络并训练一个分类模型
import keras
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import Adam
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split# 生成分类数据
X, y make_classification(n_samples1000, n_features20, n_classes2, random_state42)# 划分数据集
X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 创建模型
model Sequential()
model.add(Dense(64, input_shape(20,), activationrelu))
model.add(Dense(32, activationrelu))
model.add(Dense(1, activationsigmoid))# 编译模型
model.compile(optimizerAdam(learning_rate0.001), lossbinary_crossentropy, metrics[accuracy])# 训练模型
history model.fit(X_train, y_train, batch_size32, epochs10, validation_data(X_test, y_test))# 可视化训练过程
import matplotlib.pyplot as pltplt.plot(history.history[accuracy], label训练准确率)
plt.plot(history.history[val_accuracy], label验证准确率)
plt.xlabel(Epochs)
plt.ylabel(准确率)
plt.legend()
plt.show()/**
Epoch 1/10
25/25 [] - 0s 6ms/step - loss: 0.6231 - accuracy: 0.6900 - val_loss: 0.5630 - val_accuracy: 0.7400
Epoch 2/10
25/25 [] - 0s 2ms/step - loss: 0.4710 - accuracy: 0.8525 - val_loss: 0.4817 - val_accuracy: 0.7850
Epoch 3/10
25/25 [] - 0s 2ms/step - loss: 0.3752 - accuracy: 0.8763 - val_loss: 0.4277 - val_accuracy: 0.8150
Epoch 4/10
25/25 [] - 0s 2ms/step - loss: 0.3247 - accuracy: 0.8925 - val_loss: 0.4103 - val_accuracy: 0.8300
Epoch 5/10
25/25 [] - 0s 2ms/step - loss: 0.2992 - accuracy: 0.8950 - val_loss: 0.4085 - val_accuracy: 0.8300
Epoch 6/10
25/25 [] - 0s 2ms/step - loss: 0.2821 - accuracy: 0.9025 - val_loss: 0.4048 - val_accuracy: 0.8400
Epoch 7/10
25/25 [] - 0s 2ms/step - loss: 0.2696 - accuracy: 0.9038 - val_loss: 0.3964 - val_accuracy: 0.8400
Epoch 8/10
25/25 [] - 0s 2ms/step - loss: 0.2598 - accuracy: 0.9025 - val_loss: 0.4061 - val_accuracy: 0.8400
Epoch 9/10
25/25 [] - 0s 2ms/step - loss: 0.2484 - accuracy: 0.9150 - val_loss: 0.4035 - val_accuracy: 0.8350
Epoch 10/10
25/25 [] - 0s 2ms/step - loss: 0.2383 - accuracy: 0.9125 - val_loss: 0.4063 - val_accuracy: 0.8550
**/
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/82133.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!