wordpress安装到网站移动端网站和app区别

bicheng/2026/1/17 9:44:32/文章来源:
wordpress安装到网站,移动端网站和app区别,做个网站需要什么设备,最新军事战争新闻今天为大家介绍一款大语言模型#xff08;LLM#xff09;部署和推理工具——Xinference[1]#xff0c;其特点是部署快捷、使用简单、推理高效#xff0c;并且支持多种形式的开源模型#xff0c;还提供了 WebGUI 界面和 API 接口#xff0c;方便用户进行模型部署和推理。 …今天为大家介绍一款大语言模型LLM部署和推理工具——Xinference[1]其特点是部署快捷、使用简单、推理高效并且支持多种形式的开源模型还提供了 WebGUI 界面和 API 接口方便用户进行模型部署和推理。 现在就让我们一起来了解和使用 Xinference 吧 Xinference 介绍 Xorbits InferenceXinference是一个性能强大且功能全面的分布式推理框架。可用于各种模型的推理。通过 Xinference你可以轻松地一键部署你自己的模型或内置的前沿开源模型。无论你是研究者开发者或是数据科学家都可以通过 Xinference 与最前沿的 AI 模型发掘更多可能。下面是 Xinference 与其他模型部署推理工具的对比 技术交流群 前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~ 我们建了算法岗技术与面试交流群 想要进交流群、需要源码资料、提升技术的同学可以直接加微信号mlc2060。加的时候备注一下研究方向 学校/公司CSDN即可。然后就可以拉你进群了。 方式①、微信搜索公众号机器学习社区后台回复加群 方式②、添加微信号mlc2060备注技术交流 Xinference 安装 Xinference 支持两种方式的安装一种是使用 Docker 镜像安装另外一种是直接在本地进行安装。想了解 Docker 安装方式的朋友可以参考官方的Docker 安装文档[2]我们这里主要介绍本地安装的方式。 首先安装 Xinference 的 Python 依赖 pip install xinference[all]Xinference 依赖的第三方库比较多所以安装需要花费一些时间等安装完成后我们就可以启动 Xinference 服务了启动命令如下 xinference-local启动成功后我们可以通过地址 http://localhost:9777来访问 Xinference 的 WebGUI 界面了。 **注意**在 Xinference 安装过程中有可能会安装 PyTorch 的其他版本其依赖的vllm[3]组件需要安装从而导致 GPU 服务器无法正常使用因此在安装完 Xinference 之后可以执行以下命令看 PyTorch 是否正常 python -c import torch; print(torch.cuda.is_available())如果输出结果为True则表示 PyTorch 正常否则需要重新安装 PyTorchPyTorch 的安装方式可以参考PyTorch 的页面[4]。 模型部署与使用 在 Xinference 的 WebGUI 界面中我们部署模型非常简单下面我们来介绍如何部署 LLM 模型。 首先我们在Launch Model菜单中选择LANGUAGE MODELS标签输入模型关键字chatglm3来搜索我们要部署的 ChatGLM3 模型。 然后点击chatglm3卡片会出现如下界面 在部署 LLM 模型时我们有以下参数可以进行选择 Model Format: 模型格式可以选择量化和非量化的格式非量化的格式是pytorch量化格式有ggml、gptq等 Model Size模型的参数量大小如果是 ChatGLM3 的话就只有 6B 这个选项而如果是 Llama2 的话则有 7B、13B、70B 等选项 Quantization量化精度有 4bit、8bit 等量化精度选择 N-GPU选择使用第几个 GPU Model UID可选: 模型自定义名称不填的话就默认用原始模型名称 参数填写完成后点击左边的火箭图标按钮即开始部署模型后台会根据参数选择下载量化或非量化的 LLM 模型。部署完成后界面会自动跳转到Running Models菜单在LANGUAGE MODELS标签中我们可以看到部署好的 ChatGLM3-6B 模型。 我们如果点击上图的红色方框图标Launch Web UI浏览器会弹出 LLM 模型的 Web 界面在这个界面中你可以与 LLM 模型进行对话界面如下 API 接口 如果你不满足于使用 LLM 模型的 Web 界面你也可以调用 API 接口来使用 LLM 模型其实在 Xinference 服务部署好的时候WebGUI 界面和 API 接口已经同时准备好了在浏览器中访问http://localhost:9997/docs/就可以看到 API 接口列表。 接口列表中包含了大量的接口不仅有 LLM 模型的接口还有其他模型比如 Embedding 或 Rerank 的接口而且这些都是兼容 OpenAI API 的接口。以 LLM 的聊天功能为例我们使用 Curl 工具来调用其接口示例如下 curl -X POST \http://localhost:9997/v1/chat/completions \-H accept: application/json \-H Content-Type: application/json \-d {model: chatglm3,messages: [{role: user,content: hello}]}# 返回结果 {model: chatglm3,object: chat.completion,choices: [{index: 0,message: {role: assistant,content: Hello! How can I help you today?,},finish_reason: stop}],usage: {prompt_tokens: 8,total_tokens: 29,completion_tokens: 37} }多模态模型 我们再来部署多模态模型多模态模型是指可以识别图片的 LLM 模型部署方式与 LLM 模型类似。 首先选择Launch Model菜单在LANGUAGE MODELS标签下的模型过滤器Model Ability中选择vl-chat可以看到目前支持的 2 个多模态模型 我们选择qwen-vl-chat这个模型进行部署部署参数的选择和之前的 LLM 模型类似选择好参数后同样点击左边的火箭图标按钮进行部署部署完成后会自动进入Running Models菜单显示如下 点击图中Launch Web UI的按钮浏览器会弹出多模态模型的 Web 界面在这个界面中你可以使用图片和文字与多模态模型进行对话界面如下 Embedding 模型 Embedding 模型是用来将文本转换为向量的模型使用 Xinference 部署的话更加简单只需要在Launch Model菜单中选择Embedding标签然后选择相应模型不像 LLM 模型一样需要选择参数只需直接部署模型即可这里我们选择部署bge-base-en-v1.5这个 Embedding 模型。 我们通过 Curl 命令调用 API 接口来验证部署好的 Embedding 模型 curl -X POST \http://localhost:9997/v1/embeddings \-H accept: application/json \-H Content-Type: application/json \-d {model: bge-base-en-v1.5,input: hello }# 显示结果 {object: list,model: bge-base-en-v1.5-1-0,data: [{index: 0,object: embedding,embedding: [0.0007792398682795465, …]}],usage: {prompt_tokens: 37,total_tokens: 37} }Rerank 模型 Rerank 模型是用来对文本进行排序的模型使用 Xinference 部署的话也很简单方法和 Embedding 模型类似部署步骤如下图所示这里我们选择部署bge-reranker-base这个 Rerank 模型 我们通过 Curl 命令调用 API 接口来验证部署好的 Rerank 模型 curl -X POST \http://localhost:9997/v1/rerank \-H accept: application/json \-H Content-Type: application/json \-d {model: bge-reranker-base,query: What is Deep Learning?,documents: [Deep Learning is ...,hello] }# 显示结果 {id: 88177e80-cbeb-11ee-bfe5-0242ac110007,results: [{index: 0,relevance_score: 0.9165927171707153,document: null},{index: 1,relevance_score: 0.00003880404983647168,document: null}] }图像模型 Xinference 还支持图像模型使用图像模型可以实现文生图、图生图等功能。Xinference 内置了几种图像模型分别是 Stable DiffusionSD的各个版本。部署方式和文本模型类似都是在 WebGUI 界面上启动模型即可无需进行参数选择但因为 SD 模型比较大在部署图像模型前请确保服务器上有 50GB 以上的空间。这里我们选择部署sdxl-turbo图像模型部署步骤截图如下 我们可以使用 Python 代码调用的方式来使用图像模型生成图片示例代码如下 from xinference.client import Clientclient Client(http://localhost:9997) model client.get_model(sdxl-turbo)model.text_to_image(An astronaut walking on the mars)这里我们使用了 Xinference 的客户端工具来实现文生图功能生成的图片会自动保存在 Xinfercnce 的 Home 目录下的image文件夹中Home 目录的默认地址是~/.xinference我们也可以在启动 Xinference 服务时指定 Home 目录启动命令如下 XINFERENCE_HOME/tmp/xinference xinference-local语音模型 语音模型是 Xinference 最近新增的功能使用语音模型可以实现语音转文字、语音翻译等功能。在部署语音模型之前需要先安装ffmpeg组件以 Ubuntu 操作系统为例安装命令如下 sudo apt update sudo apt install ffmpeg目前 Xinference 还不支持在 WebGUI 界面上部署语音模型需要通过命令行的方式来部署语音模型在执行部署命令之前需要确保 Xinference 服务已经启动xinference-local部署命令如下 xinference launch -u whisper-1 -n whisper-large-v3 -t audio-u表示模型 ID -n表示模型名称 -t表示模型类型 命令行部署的方式不仅适用语音模型也同样适用于其他类型的模型。我们通过调用 API 接口来使用部署好的语音模型接口兼容 OpenAI 的 Audio API 接口因此我们也可以用 OpenAI 的 Python 包来使用语音模型示例代码如下 import openai# api key 可以随便写一个 client openai.Client(api_keynot empty, base_urlhttp://127.0.0.1:9997/v1) audio_file open(/your/audio/file.mp3, rb)# 使用 openai 的方法来调用语音模型 completion client.audio.transcriptions.create(modelwhisper-1, fileaudio_file) print(fcompletion: {completion})audio_file.close()其他 模型来源 Xinference 默认是从 HuggingFace 上下载模型如果需要使用其他网站下载模型可以通过设置环境变量XINFERENCE_MODEL_SRC来实现使用以下代码启动 Xinference 服务后部署模型时会从Modelscope[5]上下载模型 XINFERENCE_MODEL_SRCmodelscope xinference-local模型独占 GPU 在 Xinference 部署模型的过程中如果你的服务器只有一个 GPU那么你只能部署一个 LLM 模型或多模态模型或图像模型或语音模型因为目前 Xinference 在部署这几种模型时只实现了一个模型独占一个 GPU 的方式如果你想在一个 GPU 上同时部署多个以上模型就会遇到这个错误No available slot found for the model。 但如果是 Embedding 或者 Rerank 模型的话则没有这个限制可以在同一个 GPU 上部署多个模型。 总结 今天给大家介绍了 Xinference 这个开源的部署推理工具因为其部署方便支持模型多等特点让我印象非常深刻希望这篇文章可以让更多人了解这个工具如果在使用的过程中遇到问题也欢迎在评论区留言讨论。 关注我一起学习各种人工智能和 AIGC 新技术欢迎交流如果你有什么想问想说的欢迎在评论区留言。 参考: [1]Xinference: https://github.com/xorbitsai/inference [2]Docker 安装文档: https://inference.readthedocs.io/en/latest/getting_started/using_docker_image.html [3] vllm: https://github.com/vllm-project/vllm [4]PyTorch 的页面: https://pytorch.org/ [5] Modelscope: https://modelscope.cn/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/89621.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

中国免费建设网站网址机票网站制作

读Excel | Easy Excel 1、 我遇到的数据量超级大,使用传统的POI方式来完成导入导出很明显会内存溢出,并且效率会非常低;2、 数据量大直接使用select * from tableName肯定不行,一下子查出来300w条数据肯定会很慢;3、 …

自己做的宫崎骏动漫网站一篇关于大学网站建设与管理的论文

这个题目是贪心算法的基础练习题,解决思路是排序双指针谈心法,先将两个数组分别排序,优先满足最小胃口的孩子。(本题完整题目附在了最后面) 代码如下: class Solution(object):def findContentChildren(se…

阿里巴巴网站图片怎么做的静态网页制作方法

对于一些有实践经验的同学来说,感觉不难,但是落笔到纸面上,就差强人意了,平时这方面要多练习,所想所思要落到纸面上,或者表达清晰让别人听懂,不仅是工作中的一个基本素质,也是个非常…

北安网站设计网络建设公司排行

自己写的东西,要同时推送多个git地址,解决办法如下: 1.先要初始化你的git 进入自己的项目目录,然后执行 git init cd /app/code/go-study git init 2.执行以下脚本: #!/bin/bash #author Oliver #since 2020-09-03 15:24:31git remote rm …

网站开发不满意阿里云做的网站程序员

本文来自 fir.im 首席吉祥物 TraWor. 最近许多用户反映上传速度慢的一塌糊涂,七牛的上传带宽我想肯定是没问题的,那原因不必多想就剩下 DNS 了。 即便本地网络再快,DNS 服务器给了一个很远的服务器地址也没办法很快的上传。 在终端运行这一行…

在线免费看影视网站e福州

​平方差公式是小学奥数计算中的常用公式。通常写为:a-b(ab)x(a-b)它的几何方法推导过程是这样的:如下图所示,四边形ABCD和四边形DEFG为正方形,边长分别为a和b,求阴影部分面积。纯手绘显然,阴影部分面积有2…

网站添加备案信息吗世界著名建筑设计公司

ChatGPT无限次数:点击直达 ChatGPT引领:打造独具魅力的论文 在数字化时代,人工智能技术的快速发展不仅改变了我们生活的方方面面,还在学术研究领域展现出更广阔的可能性。其中,自然语言生成模型ChatGPT凭借其强大的生成能力和智能…

政务网站建设需求wordpress如何添加页面子目录

转载链接:http://blog.009it.com/php/75.html 在php中发送Email可以直接调用系统的mail()函数来完成,但是前提是你在php.ini文件中对mail都已经配置好了,以下为相关的配置信息: [mail function] ; For Win32 only. SMTP localho…

网站建设的基础建设网站比较好的公司吗

随着移动互联网的飞速发展,对于开发人员而言,如何快速地开发出兼容不同平台(iOS、Android)的应用,成为了一个重要的问题。 跨平台应用程序开发框架的好处: 1. 一个App适用于多个设备; 2. 一个…

佛山高端网站建设报价页游在线玩

【图像分类】【深度学习】【Pytorch版本】Inception-ResNet模型算法详解 文章目录 【图像分类】【深度学习】【Pytorch版本】Inception-ResNet模型算法详解前言Inception-ResNet讲解Inception-ResNet-V1Inception-ResNet-V2残差模块的缩放(Scaling of the Residuals)Inception-…

长沙品质网站建设优点马鞍山集团网站建设

目录 一、尺寸适配解决方案 1.vw和vh 2.scale 二、数据大屏顶部搭建 1.思路分析

网站开发遵循谷歌外贸

前言:大部分时候我们都是使用pip install去安装一些第三方库,但是偶尔也会有部分库无法安装(最典型的就是dlib这个库),需要采取别的方法解决,这里做笔记记录一下。 使用国内镜像源安装 因为pypi的服务器在…

浦口建设局网站突发 佛山出大事

1.选择按键触发方式 下降沿 2.解决消抖的方法 1)ARM中:延时消抖 2)linux驱动开发:定时器函数 3.框图 内部流程框图: 需要RCC GPIO EXTI GIC章节 中断触发流程: 4.RCC 章节 1)使能GPIOF组 …

金融街做网站的公司建设部网站1667号公告

将图片转为 PDF 的主要原因之一是为了方便共享和传输。此外,将多张图片合并成一个 PDF 文件还可以简化文件管理。之前文章详细介绍过如何使用第三方库Spire.PDF for Python将PDF文件转为图片,那么本文介绍使用同样工具在Python中实现图片转PDF文件的功能…

网站开发框架的工具计算机多媒体辅助教学网站开发

本篇记录了http伪造本地用户的多条字段,便于快速解决题目 用法举例: 直接把伪造本地用户的多个字段复制到请求头中,光速解决部分字段被过滤的问题。 Client-IP: 127.0.0.1 Forwarded-For-Ip: 127.0.0.1 Forwarded-For: 127.0.0.1 Forwarded…

做博客网站最好用什么系统字体 安装到wordpress

Java中的synchronized关键字 synchronized关键字介绍 synchronized块是Java提供的一种原子性内置锁,Java中的每个对象都可以把它当作一个同步锁来使用,这些Java内置的使用者看不到的锁被称为内部锁,也叫作监视器锁。 线程的执行代码在进入…

模板手机网站建设公司wordpress设置用户注册

HEG其实可以批处理可以看我另外一篇博文,不需要写代码。但是对于300以上数量的MODIS影像非常容易自动停止,而且越来越慢。还是打算利用python每个调用。 只提取了MODIS数据当中的IST一个波段,输出成tif,其他什么都没做。在处理前…

青岛开发区网站建设多少钱旅游网站开发公司

作者:ZadigX 企业发布现状痛点 目前企业在选择和实施发布策略时面临以下困境: 1. 缺乏云原生能力: 由于从传统部署转变为云原生模式后,技术架构改造需要具备相关能力的人才。这使得企业在发布策略方面难以入手。 2. 缺乏自动化…

云南照明网站建设万网云主机 wordpress

目录 一、目标1:使用函数分割 二、目标2:使用函数模块 三、目标3:使用正则匹配 一、目标1:使用函数分割 目标:x.x.x.x[中国北京 xx云] 方法:split函数replace函数 1、分割:使用split()方法将…

门户网站建设意义六安做网站的

重点: 1.QPainter在QWidget窗口的paintEvent中使用。 2.QPainter通常涉及到设置画笔、设置画刷、绘图(QPen、QBrush、drawxx)三个流程。 class Widget : public QWidget {Q_OBJECTprotected:void paintEvent(QPaintEvent *event) Q_DEC…