手机模板网站模板免费下载飞机订票系统网页设计总结

bicheng/2026/1/18 22:02:30/文章来源:
手机模板网站模板免费下载,飞机订票系统网页设计总结,用自己电脑做服务器建网站,ui做的好的公司网站Transformers 微调 基于 Transformers 实现模型微调训练的主要流程数据字段数据拆分#xff08;分成训练跟测试#xff09;下载数据集数据集抽样预处理数据数据抽样微调训练配置加载 BERT 模型训练超参数#xff08;TrainingArguments#xff09;模型权重保存路径(output_d… Transformers 微调 基于 Transformers 实现模型微调训练的主要流程数据字段数据拆分分成训练跟测试下载数据集数据集抽样预处理数据数据抽样微调训练配置加载 BERT 模型训练超参数TrainingArguments模型权重保存路径(output_dir) 开始训练实例化训练器Trainer可用nvidia-smi 查看使用率保存模型和训练状态 基于 Transformers 实现模型微调训练的主要流程 数据集下载 数据预处理 训练超参数配置 训练评估指标设置 训练器基本介绍 实战训练 模型保存 一个典型的数据点包括文本和相应的标签。来自YelpReviewFull测试集的示例如下 {label: 0,text: I got \new\ tires from them and within two weeks got a flat. I took my car to a local mechanic to see if i could get the hole patched, but they said the reason I had a flat was because the previous patch had blown - WAIT, WHAT? I just got the tire and never needed to have it patched? This was supposed to be a new tire. \\nI took the tire over to Flynn\s and they told me that someone punctured my tire, then tried to patch it. So there are resentful tire slashers? I find that very unlikely. After arguing with the guy and telling him that his logic was far fetched he said he\d give me a new tire \\this time\\. \\nI will never go back to Flynn\s b/c of the way this guy treated me and the simple fact that they gave me a used tire! }数据字段 ‘text’: 评论文本使用双引号“转义任何内部双引号都通过2个双引号”转义。换行符使用反斜杠后跟一个 “n” 字符转义即 “\n”。 ‘label’: 对应于评论的分数介于1和5之间。 数据拆分分成训练跟测试 Yelp评论完整星级数据集是通过随机选取每个1到5星评论的130,000个训练样本和10,000个测试样本构建的。总共有650,000个训练样本和50,000个测试样本。 下载数据集 import os# 代理的地址格式为 http://ip:port http_proxyhttp://proxy.sensetime.com:3128/ https_proxyhttp://proxy.sensetime.com:3128/ # 设置代理 os.environ[HTTP_PROXY] http_proxy os.environ[HTTPS_PROXY] https_proxy from datasets import load_dataset dataset load_dataset(yelp_review_full) #得到的dataset 其实就是一个字典keyvalue格式train 跟test就是这个下载下来的数据集的key。而dataset[train] 通过这个可以拿到Dataset格式的训练数据集集合 print(dataset[train][0])数据集抽样 import random import pandas as pd import datasets from IPython.display import display, HTML #用于从给定的数据集 (dataset) 中随机选择一些示例并显示 def show_random_elements(dataset, num_examples10):assert num_examples len(dataset), Cant pick more elements than there are in the dataset.picks []for _ in range(num_examples):pick random.randint(0, len(dataset)-1)print(pick)while pick in picks:pick random.randint(0, len(dataset)-1)picks.append(pick)#将从数据集中随机选择的示例创建为 Pandas DataFramedf pd.DataFrame(dataset[picks])for column, typ in dataset.features.items():#遍历数据集的所有特征if isinstance(typ, datasets.ClassLabel):#检查特征是否是分类标签#如果是分类标签将使用 lambda 函数将标签的索引映射到实际的类别名称df[column] df[column].transform(lambda i: typ.names[i])display(HTML(df.to_html())) #可以print(show_random_elements(dataset[train]) 查看效果预处理数据 下载数据集到本地后使用 Tokenizer 来处理文本对于长度不等的输入数据可以使用填充padding和截断truncation策略来处理。 Datasets 的 map 方法支持一次性在整个数据集上应用预处理函数。 下面使用填充到最大长度的策略处理整个数据集 from transformers import AutoTokenizer #用于加载预训练的文本处理模型Tokenizer以便将文本数据转换为模型可以接受的输入格式 tokenizer AutoTokenizer.from_pretrained(bert-base-cased)def tokenize_function(examples):return tokenizer(examples[text], paddingmax_length, truncationTrue)tokenized_datasets dataset.map(tokenize_function, batchedTrue)#刚刚生成的dataset 通过map的方法把里面的每个样本都进行tokenize_function操作生成处理过的数据集tokenized_datasets#可以show_random_elements(tokenized_datasets[train], num_examples1)查看效果数据抽样 使用 1000 个数据样本在 BERT 上演示小规模训练基于 Pytorch Trainer shuffle()函数会随机重新排列列的值。如果您希望对用于洗牌数据集的算法有更多控制可以在此函数中指定generator参数来使用不同的numpy.random.Generator。 small_train_dataset tokenized_datasets[train].shuffle(seed42).select(range(1000)) small_eval_dataset tokenized_datasets[test].shuffle(seed42).select(range(1000))微调训练配置 加载 BERT 模型 警告通知我们正在丢弃一些权重vocab_transform和vocab_layer_norm 层并随机初始化其他一些权重pre_classifier和classifier 层。在微调模型情况下是绝对正常的因为我们正在删除用于预训练模型的掩码语言建模任务的头部并用一个新的头部替换它对于这个新头部我们没有预训练的权重所以库会警告我们在用它进行推理之前应该对这个模型进行微调而这正是我们要做的事情。 from transformers import AutoModelForSequenceClassification model AutoModelForSequenceClassification.from_pretrained(bert-base-cased, num_labels5)训练超参数TrainingArguments 完整配置参数与默认值https://huggingface.co/docs/transformers/v4.36.1/en/main_classes/trainer#transformers.TrainingArguments 源代码定义https://github.com/huggingface/transformers/blob/v4.36.1/src/transformers/training_args.py#L161 模型权重保存路径(output_dir) from transformers import TrainingArguments model_dir models/bert-base-cased# logging_steps 默认值为500根据我们的训练数据和步长将其设置为100, num_train_epochs 默认为3 training_args TrainingArguments(output_dirf{model_dir}/test_trainer,logging_dirf{model_dir}/test_trainer/runs,logging_steps100) # 完整的超参数配置 print(training_args)训练过程中的指标评估Evaluate) Hugging Face Evaluate 库 支持使用一行代码获得数十种不同领域自然语言处理、计算机视觉、强化学习等的评估方法。 当前支持 完整评估指标https://huggingface.co/evaluate-metric 训练器Trainer在训练过程中不会自动评估模型性能。因此我们需要向训练器传递一个函数来计算和报告指标。 Evaluate库提供了一个简单的准确率函数您可以使用evaluate.load函数加载 import numpy as np import evaluatemetric evaluate.load(accuracy)接着调用 compute 函数来计算预测的准确率。 在将预测传递给 compute 函数之前我们需要将 logits 转换为预测值所有Transformers 模型都返回 logits。 def compute_metrics(eval_pred):logits, labels eval_predpredictions np.argmax(logits, axis-1)return metric.compute(predictionspredictions, referenceslabels)训练过程指标监控 通常为了监控训练过程中的评估指标变化我们可以在TrainingArguments指定evaluation_strategy参数以便在 epoch 结束时报告评估指标。 from transformers import TrainingArguments, Trainer training_args TrainingArguments(output_dirf{model_dir}/test_trainer, evaluation_strategyepoch,logging_dirf{model_dir}/test_trainer/runs,logging_steps100)开始训练 实例化训练器Trainer可用nvidia-smi 查看使用率 trainer Trainer(modelmodel,argstraining_args,train_datasetsmall_train_dataset,eval_datasetsmall_eval_dataset,compute_metricscompute_metrics, ) trainer.train()small_test_dataset tokenized_datasets[test].shuffle(seed64).select(range(100)) trainer.evaluate(small_test_dataset)保存模型和训练状态 使用 trainer.save_model 方法保存模型后续可以通过 from_pretrained() 方法重新加载 使用 trainer.save_state 方法保存训练状态 trainer.save_model(f{model_dir}/finetuned-trainer) trainer.save_state()微调代码示例 import os # 代理的地址格式为 http://ip:port http_proxyhttp://proxy.sensetime.com:3128/ https_proxyhttp://proxy.sensetime.com:3128/ # 设置代理 os.environ[HTTP_PROXY] http_proxy os.environ[HTTPS_PROXY] https_proxy## 下载数据集 from datasets import load_dataset dataset load_dataset(yelp_review_full) #得到的dataset 其实就是一个字典keyvalue格式train 跟test就是这个下载下来的数据集的key。而dataset[train] 通过这个可以拿到Dataset格式的训练数据集集合 #print(dataset[train][0])可以查看数据集的大概的结构import random import pandas as pd import datasets from IPython.display import display, HTML #用于从给定的数据集 (dataset) 中随机选择一些示例并显示 def show_random_elements(dataset, num_examples10):assert num_examples len(dataset), Cant pick more elements than there are in the dataset.picks []for _ in range(num_examples):pick random.randint(0, len(dataset)-1)print(pick)while pick in picks:pick random.randint(0, len(dataset)-1)picks.append(pick)#将从数据集中随机选择的示例创建为 Pandas DataFramedf pd.DataFrame(dataset[picks])for column, typ in dataset.features.items():#遍历数据集的所有特征if isinstance(typ, datasets.ClassLabel):#检查特征是否是分类标签#如果是分类标签将使用 lambda 函数将标签的索引映射到实际的类别名称df[column] df[column].transform(lambda i: typ.names[i])display(HTML(df.to_html()))#from transformers import AutoTokenizer#用于从Hugging Face加载预训练的文本处理模型Tokenizer以便将文本数据转换为模型可以接受的输入格式 tokenizer AutoTokenizer.from_pretrained(bert-base-cased)def tokenize_function(examples):return tokenizer(examples[text], paddingmax_length, truncationTrue)tokenized_datasets dataset.map(tokenize_function, batchedTrue) show_random_elements(tokenized_datasets[train], num_examples1)# 使用 1000 个数据样本在 BERT 上演示小规模训练基于 Pytorch Trainer small_train_dataset tokenized_datasets[train].shuffle(seed42).select(range(1000)) small_eval_dataset tokenized_datasets[test].shuffle(seed42).select(range(1000))# 微调训练配置 # 从Hugging Face加载BERT 模型 from transformers import AutoModelForSequenceClassification model AutoModelForSequenceClassification.from_pretrained(bert-base-cased, num_labels5)from transformers import TrainingArguments model_dir models/bert-base-cased # logging_steps 默认值为500根据我们的训练数据和步长将其设置为100, num_train_epochs 默认为3 from transformers import TrainingArguments, Trainer training_args TrainingArguments(output_dirf{model_dir}/test_trainer, evaluation_strategyepoch,logging_dirf{model_dir}/test_trainer/runs,logging_steps100)# Evaluate库提供了一个简单的准确率函数使用evaluate.load函数加载 import numpy as np import evaluate metric evaluate.load(accuracy)# compute 函数来计算预测的准确率。 def compute_metrics(eval_pred):logits, labels eval_predpredictions np.argmax(logits, axis-1)return metric.compute(predictionspredictions, referenceslabels)### 实例化训练器Trainer trainer Trainer(modelmodel,argstraining_args,train_datasetsmall_train_dataset,eval_datasetsmall_eval_dataset,compute_metricscompute_metrics)trainer.train() small_test_dataset tokenized_datasets[test].shuffle(seed64).select(range(100)) trainer.evaluate(small_test_dataset)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/89060.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

租赁商城手机网站开发自己可以做小程序商城吗

想要掘金全球电商市场,美国的Mercari平台绝对值得关注。Mercari,也被称作煤炉,类似于我们国内的闲鱼二手交易平台,它同时拥有美国和日本两个市场。其中,美国市场的消费需求稳定且持续增长,成为了许多跨境电…

网站架构优化做citation的网站

记录一下,遇到这个问题了,网络上看到的解决办法,亲测有效 执行sudo apt-get update ,却报以下错误,“SECURITY: URL redirect target contains control characters rejecting ” 经检查发现,/etc/apt/source.list 下的…

怎么把网站排名中国建设网官方网站app

1.缺失值的处理 (1)像在下面的这个表格里面,这个对于缺失的数据,我们需要分情况进行分析,如果这个数据就是一个数值型的数据,我们可以使用平均值进行处理; (2)对于这个…

抚州建设网站的公司河北邯郸

写在前面 通过 ghidra 工具, 但是只能用命令行启动, 不太舒服, 写个脚本生成 MacOS 的 app 格式并导入启动台. 不算复杂, 主要是解析包的一些元信息还有裁剪软件图标(通过 MacOS 自带的 API) 脚本 #!/opt/homebrew/bin/python3import os import re import subprocess as sp…

网站的主机博罗网站定制

目录 0 引言1 递增子序列1.1 我的解题 2 全排列2.1 我的解题 3 全排列 II3.1 我的解题 🙋‍♂️ 作者:海码007📜 专栏:算法专栏💥 标题:算法刷题Day29 |491.递增子序列、46.全排列、47.全排列 II❣️ 寄语&…

十堰市公司网站建设完成网站的建设工作

**单片机设计介绍, 基于单片机温湿度光照自动窗帘系统设计 文章目录 一 概要二、功能设计设计思路 三、 软件设计原理图 五、 程序六、 文章目录 一 概要 基于单片机的温湿度光照自动窗帘系统是一种智能家居系统,通过使用单片机作为控制核心&#xff0c…

如何创建一个新网站wordpress 代码文章

一、Log4j介绍 在项目中,不管是开发人员写代码还是测试人员写的测试代码一般都需要做一些日志来记录项目的行为,以便更好的跟踪项目中的一些交互和问题。 Log4j ( Logger For Java ) , Java 日志的记录包。 官方网站 。Log4j 是 Apache 的一个开源项目…

网站建设平台皆往乐云践新专家龙华网站建设主要工作

在全球信息产业高速发展的背景下,IDC预测,2018 到 2025 年之间,全球产生的数据量将会从 33 ZB 增长到 175 ZB, 复合增长率27%,其中超过 80%的数据都会是处理难度较大的非结构化数据,如文档、文本、图形、图…

格力网站建设需求分析门户网站界面设计

文章目录 需求分析1. 使用 splice() 方法2. 使用 filter() 方法3. 使用 splice 和展开运算符(ES6): 新的需求新的分析 需求 删除数组中的指定元素,阁下该如何应对 分析 有多种方法可以实现 JavaScript 数组删除指定元素。以下是其…

小程序搭建流程有哪五步骤seo百度发包工具

业务场景 业务开发过程中,我们经常会需要判断远程终端是否在线,当终端离线的时候我们需要发送消息告知相应的系统, 环形队列 1.创建一个index从0到30的环形队列(本质是个数组) 2.环上每一个slot是一个Set&#xf…

手机触屏网站模板百度云如何做网站

🎈 作者:互联网-小啊宇 🎈 简介: CSDN 运维领域创作者、阿里云专家博主。目前从事 Kubernetes运维相关工作,擅长Linux系统运维、开源监控软件维护、Kubernetes容器技术、CI/CD持续集成、自动化运维、开源软件部署维护…

单页网站建设教程德阳如何做百度的网站

无意之间发现个django的后台管理框架,仔细与xadmin对比了一下,无论是功能上还是便携性上都与xadmin特别相似,但个人感觉Tyadmin略胜一筹,因为外观上要比xadmin要美观,而且相比起来速度也快,部署甚至也和简单…

什么网站内链建设网站建设作业指导书

随着网络技术的不断发展,爬虫技术也越来越成熟,爬虫伪装技术也随之得到了广泛应用。在爬虫伪装技术中,如何伪装成正常的浏览器行为,让目标网站无法辨别出爬虫的存在,是爬虫伪装技术的核心。下面,我将从以下…

网站UI怎么做常德网站建设公司

Spark笔记——技术点汇总 目录 概况 手工搭建集群 引言 安装Scala 配置文件 启动与测试 应用部署 部署架构 应用程序部署 核心原理 RDD概念 RDD核心组成 RDD依赖关系 DAG图 RDD故障恢复机制 Standalone模式的Spark架构 YARN模式的Spark架构 应用程序资源构建…

网站中的公司地址怎么做建设项目验收网站

转载于:https://www.cnblogs.com/dyufei/p/6612032.html

上海涛飞专业网站建设网站建设项目设计报告

0.前言 先推荐一部电影《美国派》三部曲,成长题材系列的电影,也反映了对某避讳话题的理性看待,理所当然。 再推荐一个开发套件,NVIDIA Jetson系列开发套件,目前我在用的是Xavier NX和Orin Nano。为什么推荐呢&#xff…

南昌做网站建设公司广州建站费用

这篇文章会分享小厂如何做包体积优化相关主题,涉及内容包括:1) Android包体积优化的一种可能是比较标准的推进做法,2) 大致流程的心路历程和思考方式,3) 如何去总结和分享你们进行过的包体积优化项目。本文不仅仅是一篇分享&#…

源码论坛网站网页设计页面

Redis入门:五大数据类型 文章目录 Redis入门:五大数据类型一.概述二.Redis的基本了解三.Redis五大数据类型1.String (字符串)2.List(列表)3.Set集合(元素唯一不重复)4.Hash集合5.zSet(有序集合) 一.概述 什么是Redis Redis(Remote Dictiona…

国家精品课程建设工作网站中交路桥建设有限公司地址

绝对时间:相对于1970年1月1日0时0分0秒 相对时间:相对于当前时间,如sleep(3);相对于当前,过3s.