新型网站设计网站经营范围

bicheng/2026/1/15 22:56:07/文章来源:
新型网站设计,网站经营范围,建网站怎么分类,mvc4做网站五ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型 文章目录 ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型一、介绍二、使用方式1、环境安装2、代码调用3、从本地加载模型 4、API 部署 三、低成本部署1、模型量化2、CPU 部署3、Mac 部署4、…ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型 文章目录 ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型一、介绍二、使用方式1、环境安装2、代码调用3、从本地加载模型 4、API 部署 三、低成本部署1、模型量化2、CPU 部署3、Mac 部署4、多卡部署 四、协议五、源程序下载 一、介绍 更强大的性能基于 ChatGLM 初代模型的开发经验我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目标函数经过了 1.4T 中英标识符的预训练与人类偏好对齐训练评测结果显示相比于初代模型ChatGLM2-6B 在 MMLU23%、CEval33%、GSM8K571% 、BBH60%等数据集上的性能取得了大幅度的提升在同尺寸开源模型中具有较强的竞争力。更长的上下文基于 [FlashAttention]技术我们将基座模型的上下文长度Context Length由 ChatGLM-6B 的 2K 扩展到了 32K并在对话阶段使用 8K 的上下文长度训练。对于更长的上下文我们发布了 [ChatGLM2-6B-32K] 模型。[LongBench]的测评结果表明在等量级的开源模型中ChatGLM2-6B-32K 有着较为明显的竞争优势。更高效的推理基于 [Multi-Query Attention] 技术ChatGLM2-6B 有更高效的推理速度和更低的显存占用在官方的模型实现下推理速度相比初代提升了 42%INT4 量化下6G 显存支持的对话长度由 1K 提升到了 8K。更开放的协议ChatGLM2-6B 权重对学术研究完全开放在填写[问卷]进行登记后亦允许免费商业使用。 ChatGLM2-6B 开源模型旨在与开源社区一起推动大模型技术发展恳请开发者和大家遵守开源协议勿将开源模型和代码及基于开源项目产生的衍生物用于任何可能给国家和社会带来危害的用途以及用于任何未经过安全评估和备案的服务。目前本项目团队未基于 ChatGLM2-6B 开发任何应用包括网页端、安卓、苹果 iOS 及 Windows App 等应用。 尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性但由于 ChatGLM2-6B 模型规模较小且模型受概率随机性因素影响无法保证输出内容的准确性且模型易被误导。本项目不承担开源模型和代码导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。 二、使用方式 1、环境安装 首先需要下载本仓库 git clone https://github.com/THUDM/ChatGLM2-6B cd ChatGLM2-6B然后使用 pip 安装依赖 pip install -r requirements.txt其中 transformers 库版本推荐为 4.30.2torch 推荐使用 2.0 及以上的版本以获得最佳的推理性能。 2、代码调用 可以通过如下代码调用 ChatGLM2-6B 模型来生成对话 from transformers import AutoTokenizer, AutoModeltokenizer AutoTokenizer.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue)model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue, devicecuda)model model.eval()response, history model.chat(tokenizer, 你好, history[])print(response) 你好!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。response, history model.chat(tokenizer, 晚上睡不着应该怎么办, historyhistory)print(response) 晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。 2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。 3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。 4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。 5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。 6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。3、从本地加载模型 以上代码会由 transformers 自动下载模型实现和参数。完整的模型实现在 [Hugging Face Hub]。如果你的网络环境较差下载模型参数可能会花费较长时间甚至失败。此时可以先将模型下载到本地然后从本地加载。 从 Hugging Face Hub 下载模型需要先[安装Git LFS]然后运行 git clone https://huggingface.co/THUDM/chatglm2-6b如果你从 Hugging Face Hub 上下载 checkpoint 的速度较慢可以只下载模型实现 GIT_LFS_SKIP_SMUDGE1 git clone https://huggingface.co/THUDM/chatglm2-6b然后从[这里]手动下载模型参数文件并将下载的文件替换到本地的 chatglm2-6b 目录下。 将模型下载到本地之后将以上代码中的 THUDM/chatglm2-6b 替换为你本地的 chatglm2-6b 文件夹的路径即可从本地加载模型。 模型的实现仍然处在变动中。如果希望固定使用的模型实现以保证兼容性可以在 from_pretrained 的调用中增加 revisionv1.0 参数。v1.0 是当前最新的版本号完整的版本列表参见 [Change Log]。 4、API 部署 首先需要安装额外的依赖 pip install fastapi uvicorn然后运行仓库中的 api.py python api.py默认部署在本地的 8000 端口通过 POST 方法进行调用 curl -X POST http://127.0.0.1:8000 \-H Content-Type: application/json \-d {prompt: 你好, history: []}得到的返回值为 {response:你好我是人工智能助手 ChatGLM2-6B很高兴见到你欢迎问我任何问题。,history:[[你好,你好我是人工智能助手 ChatGLM2-6B很高兴见到你欢迎问我任何问题。]],status:200,time:2023-03-23 21:38:40 }感谢 hiyouga 实现了 OpenAI 格式的流式 API 部署可以作为任意基于 ChatGPT 的应用的后端比如 ChatGPT-Next-Web。可以通过运行仓库中的openai_api.py 进行部署 python openai_api.py进行 API 调用的示例代码为 import openai if __name__ __main__:openai.api_base http://localhost:8000/v1openai.api_key nonefor chunk in openai.ChatCompletion.create(modelchatglm2-6b,messages[{role: user, content: 你好}],streamTrue):if hasattr(chunk.choices[0].delta, content):print(chunk.choices[0].delta.content, end, flushTrue)三、低成本部署 1、模型量化 默认情况下模型以 FP16 精度加载运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限可以尝试以量化方式加载模型使用方法如下 model AutoModel.from_pretrained(THUDM/chatglm2-6b-int4,trust_remote_codeTrue).cuda()模型量化会带来一定的性能损失经过测试ChatGLM2-6B 在 4-bit 量化下仍然能够进行自然流畅的生成。 量化模型的参数文件也可以从[这里]手动下载。 2、CPU 部署 如果你没有 GPU 硬件的话也可以在 CPU 上进行推理但是推理速度会更慢。使用方法如下需要大概 32GB 内存 model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue).float()如果你的内存不足的话也可以使用量化后的模型 model AutoModel.from_pretrained(THUDM/chatglm2-6b-int4,trust_remote_codeTrue).float()在 cpu 上运行量化后的模型需要安装 gcc 与 openmp。多数 Linux 发行版默认已安装。对于 Windows 可在安装 [TDM-GCC] 时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0 Linux 为 gcc 11.3.0。在 MacOS 上请参考 Q1。 3、Mac 部署 对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac可以使用 MPS 后端来在 GPU 上运行 ChatGLM2-6B。需要参考 Apple 的 官方说明 安装 PyTorch-Nightly正确的版本号应该是2.x.x.dev2023xxxx而不是 2.x.x。 目前在 MacOS 上只支持从本地加载模型。将代码中的模型加载改为从本地加载并使用 mps 后端 model AutoModel.from_pretrained(your local path, trust_remote_codeTrue).to(mps)加载半精度的 ChatGLM2-6B 模型需要大概 13GB 内存。内存较小的机器比如 16GB 内存的 MacBook Pro在空余内存不足的情况下会使用硬盘上的虚拟内存导致推理速度严重变慢。 此时可以使用量化后的模型 chatglm2-6b-int4。因为 GPU 上量化的 kernel 是使用 CUDA 编写的因此无法在 MacOS 上使用只能使用 CPU 进行推理。 为了充分使用 CPU 并行还需要单独安装 OpenMP。 在 Mac 上进行推理也可以使用 ChatGLM.cpp 4、多卡部署 如果你有多张 GPU但是每张 GPU 的显存大小都不足以容纳完整的模型那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate然后通过如下方法加载模型 from utils import load_model_on_gpus model load_model_on_gpus(THUDM/chatglm2-6b, num_gpus2)即可将模型部署到两张 GPU 上进行推理。你可以将 num_gpus 改为你希望使用的 GPU 数。默认是均匀切分的你也可以传入 device_map 参数来自己指定。 四、协议 本仓库的代码依照 Apache-2.0 协议开源ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。ChatGLM2-6B 权重对学术研究完全开放在填写问卷进行登记后亦允许免费商业使用。 五、源程序下载 源程序下载地址ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/90172.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

网站建设邮医院网站开发百度文库

文章目录 序言准备环境准备图片处理图片下载kohya_ss代码修改pyvenv.cfg启动界面访问地址生成字幕准备训练的文件夹配置训练参数开始训练遇到的问题: 序言 在把玩stable diffusion的webUI和comfyUI后,思考着自己也微调一个个性化风格的checkpoint、LyCO…

国产做网站电子工程建设信息网站

Redis 除了做缓存,还能干很多很多事情:分布式锁、限流、处理请求接口幂等性。。。 1.准备工作 首先创建一个 Spring Boot 工程,引入 Web 和 Redis 依赖,同时考虑到接口限流一般是通过注解来标记,而注解是通过 AOP 来解析的,所以还需要加上 AOP 的依赖,最终的依赖如下:…

用手机搭建自己的网站建设网站的公司swot

你是否因为虚拟机命令行操作不便而头疼?是否因为难以复制粘贴而烦恼?是否因为无法快速上传文件而烦躁? 别急!现在有一个简单便捷的软件能够实现上述你所述说的所有烦恼,请听我细细道来~ 一、查看虚拟机的ip地址 a.首…

做代理网站用什么软件科技公司起名

权限管理和访问控制 1、MySQL如何控制用户对数据库的访问? MySQL服务器通过权限表来控制用户对数据库的访问,权限表存放在MySQL数据库中。MySQL数据库系统根据这些权限表的内容来为每个用户赋予权限。其中有user表、db表、table_priv表、column_priv表…

什么叫商城网站一个人在线观看播放视频

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 一、class类1.类属性操作(增删改)2.类方法操作 二、类的继承1、语法2、方法重写 二、类的多态 一、class类 、三部分组成 1、类名&#xff…

网站手机版怎么弄网站建设与优化合同

文章目录 一、设计框图二、模块设计三、IP核配置四、上板验证五、总结 一、设计框图 关于GT高速接口的设计一贯作风,万兆以太网同样如此,只不过这里将复位逻辑和时钟逻辑放到了同一个文件ten_gig_eth_pcs_pma_0_shared_clock_and_reset当中。如果是从第…

做编程网站有哪些内容php源码怎么搭建网站

TCP和UDP的概念、特点、区别和对应的使用场景? 我的回答: 概念: TCP是传输控制协议,是面向连接、可靠的、基于字节流的传输层通信协议。 UDP是用户数据报协议,是无连接、不可靠的,基于数据包的传输层通信…

网站备案是需要去哪里做网站flash制作教程

笔记来源—— 【工程数学基础】9_阈值如何选取??在机器视觉中应用正态分布和6-Sigma【这是一期不需要记笔记的轻松视频,简单的知识,重要的运用】 比如我们要识别我们的产品上面是否有保护膜,我们可以通过白色像素点的…

烟台做网站哪里好淄博网站制作公司定制

一、PO :(persistant object ),持久对象 可以看成是与数据库中的表相映射的java对象。使用Hibernate来生成PO是不错的选择。 二、VO :(value object) ,值对象 通常用于业务层之间的数据传递,和PO一样也是仅仅包含数据而已。但应是抽象出的…

湖北什么是网站建设大数据营销的应用领域

12月5日上午,故宫博物院与周大福珠宝集团战略合作签约仪式在故宫博物院故宫文化资产数字化应用研究所举行。文化和旅游部党组成员、故宫博物院院长王旭东,国际儒学联合会常务副会长、原文化部副部长丁伟,国际儒学联合会特别顾问、中国国际友好…

做网站花都区东莞贸易公司寮步网站建设价格

2024.1.15 题目来源我的题解方法一 三指针虚拟头结点 题目来源 力扣每日一题;题序:82 我的题解 方法一 三指针虚拟头结点 先构建一个带虚拟头结点的链表,然后使用三个指针p,left,right,分别指向最右非重复节点,可能…

什么网站可以做注册任务wordpress 仿百度百家

记springboot程序启动慢解决。 今天将程序发给别人后&#xff0c;别人立马说你这个启动很慢。 查看程序启动耗时分布 <!--启动耗时监测--> <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-actuator…

宁波网站建设托管搜索引擎营销的步骤

python 库windows安装 兵种&#xff1a;python程序员。 等级&#xff1a;二级。 攻击&#xff1a;较高。 防御&#xff1a;普通。 价格&#xff1a;低。 天赋&#xff1a;胶水&#xff0c;我方有c程序员时&#xff0c;速度可达到c程序员的80%。 天赋&#xff1a;成熟&…

一个完整的个人网站购物网站促销方案

一、Lua数组 数组&#xff0c;就是相同数据类型的元素按一定顺序排列的集合&#xff0c;可以是一维数组和多维数组。 在 Lua 中&#xff0c;数组不是一种特定的数据类型&#xff0c;而是一种用来存储一组值的数据结构。 实际上&#xff0c;Lua 中并没有专门的数组类型&#xf…

服务器上如何做网站甘肃网站seo技术厂家

HOT RELOAD 1、困惑:修改了服务器端的代码&#xff0c;必须重新运行程序。 2、方法1: [启动 (不调试) ] 3、方法2: .NET 6开始的Hot Reload(热重载) 正常修改代码后 不重启&#xff0c;是无法看到新的数据展示在页面 修改 运行结果&#xff1a; 方式一&#xff1a;设置开始…

哪个网站做视频钱多万网注册的网站长时间不能访问是不是被封了

全世界只有3.14 % 的人关注了青少年数学之旅【1】【2】【3】【4】【5】【6】【7】【8】【9】

孟村县网站建设公司天津做网站优化公司

之前讲的Jmeter算不上是性能测试&#xff0c;只是用Jmeter做接口测试。现在我们开始进入实际的性能测试。开始前你应该对Jmeter有了一定的了解&#xff0c;把前面Jmeter内容看一遍应该可以入门了。 Jmeter与locust locust除了可以做接口的性能测试以外&#xff0c;做性能测试…

辽宁省建设执业继续教育协会网站网站vip怎么做

gRPC Dart 管理优化 User grpc for dart 如何统一管理多个Client的创建和销毁&#xff0c;给我一个最优解 ChatGPT 对于在Dart中使用gRPC创建和销毁多个Client的统一管理&#xff0c;您可以使用一个单例模式的管理类来实现最优解。 首先&#xff0c;创建一个管理类&#xff0c…

顺德网站制作公司网站必须兼容哪些浏览器

还是先复习 or 预习一下set。 先给set一个名字&#xff1a; set<元素类型>qwq;插入元素&#xff1a; qwq.insert(元素);查找元素&#xff1a; qwq.find(元素);如果元素没有找到&#xff0c;返回qwq.end()&#xff0c;是一个空的位置迭代器。 注&#xff1a; 1.迭代器…

网站建设网络推广销售网站颜色搭配表

备用纹理图像规范命令 Alternate Texture Image Specification Commands 二维和一维纹理图像也可以使用直接从帧缓冲区获取的图像数据进行指定&#xff0c;并且可以重新指定现有纹理图像的矩形子区域。 定义一个二维纹理图像 void glCopyTexImage2D( enum target, int level…