抱脸(huggingface)的使用姿势

抱脸(huggingface)的使用姿势

简介

抱脸huggingface.co,其实早知道他有一个很好的免费资源给到所有用户:2c16g

这个配置,也许扛不动太多的流量业务,但是足够部署各种学习和测试环境了。一直没动心思,只是因为他需要私网来访问。但是随着内存翻了几番,各家开始抠起来,就又想起来他了。

尝试几种姿势

hugging face space: https://huggingface.co/spaces

首先这里有这大量的别人公开的项目,可以多看看,知道这个space能做什么(部分是付费的)

jupyter lab

抱脸大数据,大模型,最先想到的事python,最友好的工具就是jupyter了,先试试他:

点击“new space” ,然后按照如下选择:

新建好会自动打开,登录后如下图:

  1. ipykernel 正常notebook ,如下:

  1. terminal 可以用来安装软件和包

另外需要注意,源码包映射的事/app, 而jupyterlba打开的数据目录是/data,如果想要保存ntebook,记得自己保存(下载或者挪入git)

restful api

作为一个苦逼程序员,任何时候很容易想到的,就是部署一个restful测试环境:

这个直接按照官方文档建了一个:https://huggingface.co/docs/hub/spaces-sdks-docker-first-demo

这是一个泗洪fastapi写的helloworld:

fromfastapiimportFastAPI app=FastAPI()@app.get("/")defgreet_json():return{"Hello":"yiqiu!"}

dockerfile

FROM python:3.9 RUN useradd -m -u 1000 user USER user ENV PATH="/home/user/.local/bin:$PATH" WORKDIR /app COPY --chown=user ./requirements.txt requirements.txt RUN pip install --no-cache-dir --upgrade -r requirements.txt COPY --chown=user . /app CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]

代码提交后,会自动启动:

注意,这是一个嵌入式的,想要直接当restful访问是不行,参考如下:

找到这个菜单:

打开的窗口:

这个就是独立地址,来试试:


这就是要的效果,可以用来当做后端测试了。

终极

提供的很多docker模板,就不一一测试了,来试试终极:blank

我的理解,就是可以自定义dockerfile,来试试!

新建完有了git地址,直接下载代码(就是个空的),新建一个dockerfile

FROM debian:trixie RUN apt-get update && apt-get install -y \ curl \ wget \ && rm -rf /var/lib/apt/lists/* RUN curl -fsSL -o /usr/local/bin/ttyd https://github.com/tsl0922/ttyd/releases/download/1.7.7/ttyd.x86_64 && \ chmod +x /usr/local/bin/ttyd ENTRYPOINT ["/usr/local/bin/ttyd","-p","7860","-W","/usr/bin/bash"]

就是一debian为基,装了个webssh,提交代码(push),然后系统会自动开始启动:

成了!!

装了几个软件,看看资源,一切正常,可惜,docker in docker 没有……

好了,现在可以发挥创造力了!!!!

小结

抱脸,还是值得找个私网来访问的,毕竟现在存储那么贵,各家都开始扣起来了,他的价值也慢慢体现……

微信公众号:

https://mp.weixin.qq.com/s/a_Y4yqk4ZO_UBcXiZPc-7Q

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1137619.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Qwen2.5-7B能否处理复杂逻辑?结构化输出实战验证

Qwen2.5-7B能否处理复杂逻辑?结构化输出实战验证 1. 引言:为何关注Qwen2.5-7B的逻辑与结构化能力? 随着大模型在企业级应用中的深入,能否准确理解并生成结构化数据,已成为衡量其工程价值的关键指标。尤其是在金融风控…

基于大数据的心脏病数据分析系统【附源码+文档】

💕💕作者: 米罗学长 💕💕个人简介:混迹java圈十余年,精通Java、小程序、数据库等。 💕💕各类成品Java毕设 。javaweb,ssm,springboot等项目&#…

Qwen2.5-7B推理成本优化:降低GPU消耗的7种方法

Qwen2.5-7B推理成本优化:降低GPU消耗的7种方法 随着大语言模型(LLM)在实际业务场景中的广泛应用,推理成本成为制约其规模化部署的关键瓶颈。Qwen2.5-7B作为阿里云最新发布的开源大模型,在性能和功能上实现了显著提升—…

Qwen2.5-7B镜像测评:多场景推理稳定性实操评估

Qwen2.5-7B镜像测评:多场景推理稳定性实操评估 1. 引言:为何选择Qwen2.5-7B进行实操评估? 随着大语言模型在企业级应用和开发者生态中的快速普及,模型的推理稳定性、多语言支持能力、结构化输出质量成为实际落地的关键指标。阿里…

基于协同过滤算法的特产销售系统【附源码+文档】

💕💕作者: 米罗学长 💕💕个人简介:混迹java圈十余年,精通Java、小程序、数据库等。 💕💕各类成品Java毕设 。javaweb,ssm,springboot等项目&#…

Packet Tracer汉化系统学习:全面讲解每一步骤

让网络学习更轻松:手把手教你实现Packet Tracer中文界面 你是不是也曾在打开Cisco Packet Tracer时,面对满屏英文菜单和命令行提示感到头大?尤其是刚接触网络配置的学生或自学者,光是“ Router>enable ”、“ Switch(confi…

Qwen2.5-7B部署手册:高可用推理服务架构设计

Qwen2.5-7B部署手册:高可用推理服务架构设计 1. 引言:为何需要高可用的Qwen2.5-7B推理架构? 1.1 大模型落地的现实挑战 随着大语言模型(LLM)在企业级应用中的广泛渗透,单一节点部署已无法满足生产环境对稳…

Qwen2.5-7B自动摘要:长文档精简技巧

Qwen2.5-7B自动摘要:长文档精简技巧 1. 技术背景与问题提出 在信息爆炸的时代,长文本处理已成为自然语言处理(NLP)领域的重要挑战。无论是科研论文、法律合同还是企业报告,动辄数千甚至上万token的文档给人工阅读和信…

Qwen2.5-7B开源部署完整指南:支持8K生成长度配置

Qwen2.5-7B开源部署完整指南:支持8K生成长度配置 1. 引言 1.1 模型背景与技术趋势 随着大语言模型在自然语言理解、代码生成和多模态任务中的广泛应用,长上下文建模能力已成为衡量模型实用性的关键指标之一。阿里云推出的 Qwen2.5 系列 是当前最具代表…

诺亚财富汪静波:在通胀的现实里守住现金流,在通缩的未来里捕获红利

当下市场呈现出鲜明的“双重图景”:一边是通胀带来的生活成本上涨,一边是科技革命催生的通缩红利,投资者该如何平衡取舍?诺亚财富汪静波在2025第18届诺亚控股全球黑钻客户年会上给出明确路径——“在通胀的现实里守住现金流&#…

PCIe高速通道布局布线思路详解

PCIe高速通道布局布线实战指南:从理论到AI加速卡落地 你有没有遇到过这样的情况? 系统上电后,PCIe链路始终无法训练成功,眼图几乎闭合,误码率高得离谱。反复检查寄存器配置、BIOS设置都没问题——最后发现&#xff0c…

Qwen2.5-7B部署指南:混合精度推理配置最佳实践

Qwen2.5-7B部署指南:混合精度推理配置最佳实践 1. 背景与技术定位 1.1 Qwen2.5-7B 模型简介 Qwen2.5 是阿里云推出的最新一代大语言模型系列,覆盖从 0.5B 到 720B 参数的多个版本。其中 Qwen2.5-7B 是一个在性能与资源消耗之间取得良好平衡的中等规模…

开源大模型选型指南:Qwen2.5-7B在企业落地中的优势分析

开源大模型选型指南:Qwen2.5-7B在企业落地中的优势分析 1. 背景与选型挑战:为何关注Qwen2.5-7B? 随着大语言模型(LLM)在企业级应用中的快速渗透,如何从众多开源模型中选择适合自身业务需求的方案&#xff…

Qwen2.5-7B多模态扩展:文本与结构化数据联合处理

Qwen2.5-7B多模态扩展:文本与结构化数据联合处理 1. 引言:为何需要大模型的结构化数据理解能力? 随着大语言模型(LLM)在自然语言理解与生成任务中的广泛应用,传统以纯文本为中心的建模方式已逐渐显现出局限…

LED阵列汉字显示实验:共阴与共阳结构差异通俗解释

LED阵列汉字显示实验:共阴与共阳结构的本质差异解析你有没有遇到过这样的情况——明明代码写得没问题,字模也正确加载了,可LED点阵就是不亮、乱闪,甚至部分点亮?十有八九,问题就出在你没搞清楚手里的模块是…

Qwen2.5-7B与Qwen2性能对比:编程任务执行效率实测

Qwen2.5-7B与Qwen2性能对比:编程任务执行效率实测 1. 背景与选型动机 随着大语言模型在软件开发、自动化脚本生成和代码补全等场景中的广泛应用,模型在编程任务上的执行效率与准确性已成为开发者选型的核心考量。阿里云推出的 Qwen 系列模型持续迭代&am…

Qwen2.5-7B开源生态:社区贡献与协作指南

Qwen2.5-7B开源生态:社区贡献与协作指南 1. 背景与技术定位 1.1 Qwen2.5-7B 模型概述 Qwen2.5 是通义千问系列最新一代的大语言模型,覆盖从 0.5B 到 720B 的全尺寸模型家族。其中,Qwen2.5-7B 作为中等规模的主力模型,在性能、效…

Wallcraft 3.59.01| 最强4K超高清壁纸软件,动态4D壁纸

Wallcraft是一款专注于提供高质量、原创壁纸的应用程序,特别是其特色的动态4D壁纸。这款应用程序不仅提供了大量免费的4K超高清壁纸和炫酷背景,还特别推出了带有视差效果的动态超高清4K壁纸及视频壁纸。用户可以根据个人喜好选择并设置这些壁纸作为手机屏…

腾讯混元4B开源:256K上下文+混合推理黑科技

腾讯混元4B开源:256K上下文混合推理黑科技 【免费下载链接】Hunyuan-4B-Instruct 腾讯开源混元4B指令微调大模型,专为高效部署设计。支持256K超长上下文与混合推理模式,兼具快速响应与深度思考能力。在数学、编程、科学推理及智能体任务中表现…

小白友好教程:在Cursor接入GMI Cloud Inference Engine平台的API

GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者…