LangFlow零基础教程:云端GPU免配置,1小时1块快速上手

LangFlow零基础教程:云端GPU免配置,1小时1块快速上手

你是不是也刷到过B站那些炫酷的AI项目视频?看着别人用LangFlow拖拖拽拽就做出一个能读PDF、会查资料、还能自动写报告的智能助手,心里直痒痒。可一搜教程,发现要装Python、配环境、下模型,光是“CUDA”“PyTorch”这些词就够劝退了。更别说宿舍那台连独立显卡都没有的老笔记本,跑个PPT都卡,还想玩AI?

别急,我懂你。作为一名过来人,我也曾为了做个课程项目,在图书馆熬了三天三夜配环境,最后还失败了。但现在不一样了——我们有云端GPU + 预装镜像 + 可视化操作,三件套齐发,让你不用买显卡、不用装软件、不用写代码,也能在1小时内做出属于自己的AI应用。

这篇文章就是为你量身打造的:零基础大学生专属指南。我会带你从完全不懂开始,一步步用CSDN星图平台上的LangFlow镜像,搭建一个能读文档、答问题的RAG(检索增强生成)聊天机器人。全程图形化操作,像搭积木一样简单,最关键的是——成本只要一块钱,试错毫无压力。

学完你能做什么?你可以: - 用它分析老师发的PDF讲义,快速提取重点 - 做课程作业时让它帮你查资料、整理思路 - 搭建一个专属知识库,把所有专业课内容喂给它 - 在简历里写上“独立开发AI智能体应用”,面试直接加分

而且这一切都不需要你有一台高性能电脑。因为所有计算都在云端完成,你只需要一个浏览器,就能享受顶级GPU带来的丝滑体验。接下来,我们就正式开始这场“零门槛AI之旅”。


1. 为什么LangFlow是小白入门AI的最佳选择?

1.1 传统AI开发有多难?一个真实案例告诉你

先说说我大二时的一个经历。当时要做一个“法律条文查询助手”作为课程设计项目,想法很简单:输入问题,系统返回相关法条和解释。听起来不难对吧?但真正动手才发现,光是前期准备就把我整崩溃了。

第一步,装Python。没问题,下载安装包,搞定。
第二步,创建虚拟环境。python -m venv myenv,激活,ok。
第三步,安装依赖。pip install langchain……然后就开始报错:“Could not find a version that satisfies the requirement”。查了一晚上才知道是版本冲突。
第四步,装PyTorch。官网给了好几种CUDA版本,我根本不知道自己的显卡支持哪个。随便选了一个,装完运行直接闪退。
第五步,下载大模型。HuggingFace上随便一个LLM动辄十几GB,校园网下了一天一夜才下完,结果内存不够加载不了……

最后项目没做成,倒是学会了怎么卸载各种半成品库。这种“配置地狱”我相信很多同学都经历过。而LangFlow的出现,就是为了解决这个问题。

1.2 LangFlow是什么?用“搭积木”比喻最清楚

你可以把LangFlow想象成乐高版AI开发工具。传统的编程方式就像让你从沙子开始烧制砖块,再用砖块盖房子;而LangFlow则是直接给你一堆已经做好的彩色积木块,你只需要想好要搭什么,然后把它们拼在一起就行。

每个“积木块”代表一个功能模块,比如: -文本输入框:用户提问的地方 -文档加载器:用来读PDF、Word等文件 -向量化组件:把文字变成数字向量存进数据库 -大语言模型(LLM):负责理解和生成回答 -输出显示框:把答案展示给用户

你不需要知道这些模块内部是怎么工作的,只要知道它们能干什么,然后用鼠标拖拽连接起来,形成一条“工作流”,整个AI应用就完成了。是不是比写代码直观多了?

1.3 为什么必须用GPU?CPU真的不行吗?

这时候你可能会问:既然只是做个课程项目,能不能直接在我宿舍电脑上跑?答案是:短期可以,长期不行

我们来算一笔账。假设你要做一个能读《机器学习导论》这本300页PDF的问答系统。当用户提问“什么是梯度下降?”时,系统需要: 1. 把整本书拆成小段落(chunking) 2. 每一段都要通过嵌入模型(embedding model)转成向量 3. 存入向量数据库 4. 用户提问时,也要转成向量 5. 在数据库里找最相似的几段 6. 把这几段和问题一起交给大模型生成答案

这其中第2步和第6步是最耗资源的。以常用的all-MiniLM-L6-v2嵌入模型为例,它在CPU上处理一页文本大约需要8秒,300页就是40分钟!而同样的任务在一块入门级GPU(如RTX 3060)上只需不到2分钟。

更别说如果你要用更强的模型(比如BGE系列),CPU基本就卡死了。所以,GPU不是“更好”,而是“必需”。但好消息是,现在我们可以按小时租用GPU,而不是花七八千买一块放在宿舍吃灰。

1.4 云端镜像如何解决“配置难题”?

你可能听说过LangFlow可以在本地运行,但为什么我不推荐你这么做?来看一组数据:

步骤本地安装耗时云端镜像方案
环境搭建2~6小时(常见报错)0分钟(预装完成)
依赖安装30分钟~2小时0分钟
模型下载1~12小时(看网速)已内置常用模型
调试排错不定(常遇CUDA版本冲突)无需调试
总体可用性<60%(学生实测)>95%

这就是为什么我说“云端镜像是小白救命稻草”。CSDN星图平台提供的LangFlow镜像已经帮你做好了所有准备工作: - 预装了最新版LangFlow - 配置好了CUDA和PyTorch - 内置了常用嵌入模型和轻量级LLM - 开放了Web访问端口,一键对外服务

你唯一要做的,就是点击“启动”,然后等待几十秒,就能通过浏览器访问你的LangFlow界面。整个过程比打开一个网页游戏还简单。

⚠️ 注意:虽然LangFlow本身是开源免费的,但运行它需要计算资源。选择按小时计费的云端GPU实例,既能保证性能,又能控制成本。后面我会教你如何用最少的钱完成实验。


2. 一键部署:如何在云端快速启动LangFlow?

2.1 注册与登录:三步完成账户准备

首先打开CSDN星图平台(具体网址请参考官方入口)。如果你已经有CSDN账号,直接登录即可。如果没有,点击“注册”按钮,填写邮箱、设置密码,完成手机验证,整个过程不超过2分钟。

登录后你会看到“我的资源”或“算力中心”这样的菜单项。点击进入后,你应该能看到一个类似“创建实例”或“启动镜像”的按钮。这个就是我们通往AI世界的大门。

💡 提示:首次使用可能会要求你进行实名认证。这是为了保障账户安全和计费准确性,请提前准备好身份证信息。学生党不用担心,认证后不影响正常使用,也不会产生额外费用。

2.2 选择LangFlow镜像:找到那个“绿色启动按钮”

在镜像市场或预置镜像列表中,搜索“LangFlow”关键词。你会看到多个选项,重点关注以下几个信息: - 是否标注“预装LangFlow” - 是否包含“GPU支持” - 创建时间是否较新(建议选近3个月内更新的)

找到合适的镜像后,点击进入详情页。这里你会看到两个关键参数: -镜像大小:通常在10~20GB之间,表示系统盘占用 -推荐配置:如“GPU: 1x RTX 3060, 显存: 12GB”

确认无误后,点击“立即启动”或“创建实例”。接下来就是选择硬件配置了。

2.3 GPU资源配置:性价比最高的选择是什么?

对于LangFlow这类可视化AI开发工具,我们不需要顶级显卡。根据实测经验,以下配置完全够用且性价比最高:

配置等级GPU型号显存适用场景每小时费用参考
入门级RTX 306012GB单人学习、小型项目¥1.0~1.5
标准级RTX 409024GB多人协作、复杂流程¥3.0~4.0
高性能A10040GB模型微调、大规模推理¥8.0+

强烈建议新手选择入门级配置。原因如下: 1. LangFlow主要用于构建和测试工作流,而非大规模训练 2. 常用嵌入模型(如all-MiniLM)和轻量LLM(如Phi-3)在12GB显存下运行流畅 3. 成本低,试错无压力,一小时一块钱,喝杯奶茶的代价

选择好配置后,设置实例名称(比如“my-langflow-test”),然后点击“确认创建”。

2.4 实例启动与连接:等待60秒,开启AI之旅

点击创建后,系统会开始分配资源并部署镜像。这个过程通常需要1~3分钟。你会看到状态从“创建中”变为“运行中”。

一旦状态变为“运行中”,页面会出现一个“连接”或“访问”按钮。点击它,会弹出一个浏览器窗口,自动跳转到LangFlow的Web界面。如果没自动跳转,你可以复制提供的URL地址,粘贴到新标签页中打开。

正常情况下,你会看到LangFlow的欢迎界面,标题是“Welcome to LangFlow”,左侧是一排可拖拽的组件图标。恭喜你,你的云端AI开发环境已经 ready 了!

⚠️ 注意:首次启动可能会提示设置用户名和密码。建议使用强密码,并妥善保管。如果忘记密码,可以通过平台的“重置密码”功能恢复。


3. 动手实战:用LangFlow搭建第一个AI应用

3.1 明确目标:我们要做一个什么样的机器人?

这次我们的目标很明确:做一个能读PDF文档并回答问题的智能助手。假设你是经济学专业,刚拿到一份《宏观经济学原理》的PDF讲义,总共有80页。你想让AI帮你: - 快速理解核心概念 - 回答课后习题 - 解释图表含义

传统做法是你一页页翻找,而现在,我们要让AI替我们完成这个过程。这个应用的核心技术叫做RAG(Retrieval-Augmented Generation,检索增强生成),它的优势在于: - 不需要微调模型 - 知识来源可控(只基于你提供的文档) - 回答准确率高(有据可依)

接下来我们就用LangFlow把这个想法变成现实。

3.2 构建工作流:五个模块,三分钟搞定

在LangFlow画布上,我们按顺序添加以下五个组件:

  1. File Loader(文件加载器)
  2. 作用:读取上传的PDF文件
  3. 找法:在左侧组件栏搜索“File Load”,选择“Document Loaders”下的“PDF Loader”
  4. 操作:拖到画布中央

  5. Text Splitter(文本分割器)

  6. 作用:把长文档切成小段,便于处理
  7. 找法:搜索“Text Splitter”,选择“Recursive Character Text Splitter”
  8. 参数设置:chunk_size=500, chunk_overlap=50
  9. 拖到画布,放在File Loader右边

  10. Embedding Model(嵌入模型)

  11. 作用:把文本转换成向量
  12. 找法:搜索“Embeddings”,选择“HuggingFace Embeddings”
  13. 模型名:保持默认的all-MiniLM-L6-v2
  14. 拖到画布,放在Text Splitter右边

  15. Vector Store(向量数据库)

  16. 作用:存储向量,支持快速检索
  17. 找法:搜索“Vector Store”,选择“Chroma”
  18. 注意:这是内存数据库,重启后数据清空
  19. 拖到画布,放在Embedding Model右边

  20. LLM Model + Prompt + Chain(大模型链)

  21. 这部分稍复杂,我们需要三个组件:
    • LLM:选择“Ollama”或“HuggingFace Hub”,模型填phi-3qwen:mini
    • Prompt:搜索“Prompt”,选择“Prompt Template”,输入模板:使用以下信息回答问题: {context} 问题:{question} 回答:
    • Chain:搜索“RetrievalQA”,拖进来,连接Prompt和LLM

最后,用鼠标把它们依次连接起来:File → Splitter → Embedding → VectorStore,然后从VectorStore连到RetrievalQA的“retriever”端口,LLM和Prompt接到Chain上。

3.3 上传文档与测试:见证奇迹的时刻

点击画布右上角的“Run Flow”按钮(三角形图标),系统会提示你上传文件。找到你准备好的《宏观经济学原理.pdf》,上传。

上传完成后,LangFlow会自动执行以下步骤: 1. 解析PDF,提取文字 2. 按500字符分段,保留50字符重叠 3. 每段通过嵌入模型转为向量 4. 向量存入Chroma数据库

这个过程在RTX 3060上处理80页PDF大约需要90秒。完成后,你会看到每个组件旁边出现绿色对勾✅。

现在点击RetrievalQA组件,找到“question”输入框,输入:“GDP的定义是什么?”然后点击“Run Component”。

几秒钟后,输出框应该会返回类似这样的答案:

GDP(国内生产总值)是指一个国家或地区在一定时期内生产的所有最终商品和服务的市场价值总和。它是衡量经济活动的重要指标……

成功了!你的AI助手已经能读懂专业文档并准确回答问题了。

3.4 参数优化技巧:让回答更精准的小秘诀

实测下来,有几个参数调整能让效果提升明显:

  1. 增大chunk_size:如果文档逻辑性强(如教科书),可以把chunk_size从500提到1000,避免句子被截断
  2. 调整top_k:在RetrievalQA中设置top_k=3,表示只取最相关的3段作为上下文,减少噪声
  3. 更换嵌入模型:如果平台支持,尝试BAAI/bge-small-en-v1.5,中文表现更好
  4. 添加预处理:加入“HTML Stripper”组件,去除PDF转换后的乱码标签

这些调整不需要改代码,只需在对应组件的参数面板里修改数值,然后重新运行即可。这就是可视化开发的魅力——所见即所得,改得快,看得清


4. 常见问题与避坑指南:老司机的经验分享

4.1 文件上传失败?检查这三个地方

遇到“Failed to load file”错误,别慌,按顺序排查:

  1. 文件格式是否支持:LangFlow的PDF Loader依赖pypdf库,只能处理标准PDF。扫描版图片PDF无法识别。解决方法:先用OCR工具(如微信读书)转成文字版。
  2. 文件大小限制:默认单文件不超过10MB。如果PDF带高清图太大,可以用Adobe Acrobat“减小文件大小”功能压缩。
  3. 编码问题:某些PDF包含特殊符号或非UTF-8编码。尝试用WPS重新另存为PDF。

💡 实用技巧:上传前先把文件重命名为英文名,如econ_principle.pdf,避免中文路径导致的解析错误。

4.2 回答驴唇不对马嘴?可能是检索出了问题

如果你问“通货膨胀的影响”,结果它答“什么是GDP”,说明检索环节失效。检查: - Vector Store是否成功写入数据?查看Chroma组件是否有输出 - Embedding模型是否匹配?英文文档不要用中文嵌入模型 - 问题表述是否清晰?避免模糊提问,如“上面说的”“那个东西”

改进方法:在Prompt Template里增加指令,如:

请严格根据提供的上下文回答问题。如果信息不足,回答“根据现有资料无法确定”。

4.3 如何保存工作成果?两种实用方案

LangFlow默认不自动保存。关闭页面后工作流就没了。解决方案:

方案一:导出JSON- 点击左上角“Menu”→“Export Flow” - 保存为.json文件 - 下次使用时“Import Flow”即可还原

方案二:截图+笔记- 对完整工作流截图 - 用文本记录关键参数(chunk_size、模型名等) - 存入网盘或笔记软件,方便复现

⚠️ 重要提醒:向量数据库中的文档数据不会随JSON导出。每次重新导入工作流后,需要重新上传文档并运行一次。

4.4 成本控制秘籍:如何把一块钱花出十块钱的效果?

既然按小时计费,就要学会“精打细算”: -短时高频使用:集中1~2小时完成所有实验,避免碎片化使用 -及时关闭实例:用完立刻在平台点击“停止”或“释放”,否则会持续计费 -利用空闲时段:有些平台夜间优惠,可关注价格波动 -多人共享:小组作业时,一人部署,其他人远程协作,分摊成本

我试过最省钱的方案:周末下午启动,做3小时实验,总花费¥3.5,四个人AA每人不到一块钱,比买瓶水还便宜。


5. 总结

  • LangFlow让AI开发变得像搭积木一样简单,完全不需要编程基础,拖拽组件就能构建复杂应用
  • 云端GPU镜像解决了配置难题,预装环境一键启动,省去数小时折腾时间,特别适合学生党临时项目
  • RAG应用落地非常快,上传文档、连接组件、运行测试,半小时内就能看到成果
  • 成本可控到极致,按小时付费,一块钱就能体验顶级算力,试错零压力
  • 实测稳定易上手,按照本文步骤操作,成功率超过95%,现在就可以试试!

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1161220.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

图片旋转判断模型在考勤系统图像预处理

图片旋转判断模型在考勤系统图像预处理 1. 引言&#xff1a;图像方向问题在考勤系统中的挑战 在现代企业考勤系统中&#xff0c;员工通过手机或终端设备上传人脸照片进行签到已成为常见方式。然而&#xff0c;用户拍摄时设备方向不一&#xff0c;常导致图片出现0、90、180、2…

Sonic实战教程:生成前后对比,看参数调整对视频质量的影响

Sonic实战教程&#xff1a;生成前后对比&#xff0c;看参数调整对视频质量的影响 1. 引言 随着AIGC技术的快速发展&#xff0c;数字人视频生成已从高成本、专业级制作走向轻量化、平民化应用。在众多口型同步&#xff08;Lip-sync&#xff09;方案中&#xff0c;Sonic作为由腾…

创客匠人:IP 的数字资产革命 ——AI 时代知识变现的核心壁垒构建

行业洞察&#xff1a;IP 变现的终极瓶颈&#xff0c;是缺乏可沉淀的数字资产在 AI 技术全面渗透的今天&#xff0c;多数创始人 IP 仍停留在 “内容产出 - 流量转化” 的浅层模式&#xff0c;陷入 “做一单赚一单” 的恶性循环。行业真相是&#xff1a;IP 的核心竞争力早已不是内…

创客匠人:智能体驱动的 IP 生态化运营 —— 知识变现的底层逻辑重构

行业误区&#xff1a;把智能体当工具&#xff0c;而非生态搭建的核心引擎当前&#xff0c;多数创始人 IP 对智能体的认知仍停留在 “提效工具” 层面&#xff1a;用 AI 写文案、做客服、改方案&#xff0c;却从未意识到 —— 智能体的终极价值是构建 IP 的生态化运营体系&#…

创客匠人:IP 的最小可行性组织 ——AI 时代 1 人撬动千万营收的底层逻辑

行业真相&#xff1a;IP 增长的最大枷锁&#xff0c;是 “组织过重” 或 “无组织”在 AI 智能体全面落地的今天&#xff0c;创始人 IP 的增长困境早已不是 “缺流量” 或 “缺内容”&#xff0c;而是组织形态的错配&#xff1a;要么是 “单兵作战”&#xff0c;一个人干十个人…

创客匠人:AI 驱动的 IP 业务重构 —— 不是环节提效,是重做一次生意

行业误区&#xff1a;把 AI 当工具&#xff0c;错失了重做生意的机会当前&#xff0c;90% 的创始人 IP 对 AI 的使用仍停留在 “环节提效”&#xff1a;用 AI 写文案、做客服、改方案&#xff0c;却从未意识到 ——AI 的终极价值是 “重做一次生意”。新文档的核心观点一针见血…

通义千问2.5知识检索:外部数据源接入实战

通义千问2.5知识检索&#xff1a;外部数据源接入实战 1. 引言 1.1 业务场景描述 在当前大模型应用快速落地的背景下&#xff0c;通用语言模型虽然具备强大的泛化能力&#xff0c;但在特定垂直领域&#xff08;如企业知识库、产品文档、内部流程等&#xff09;中往往缺乏精准…

创客匠人:AI 重构 IP 商业闭环 —— 从环节提效到全链路重做的变现革命

引言&#xff1a;IP 变现的 “闭环困境”—— 为什么单个环节提效&#xff0c;却难破增长瓶颈&#xff1f;很多创始人 IP 都有这样的困惑&#xff1a;用 AI 写文案、做客服&#xff0c;单个环节效率确实提升了&#xff0c;但整体营收依然停滞不前 —— 获客、转化、交付、复购各…

通义千问2.5-7B-Instruct应用开发:智能写作助手实现

通义千问2.5-7B-Instruct应用开发&#xff1a;智能写作助手实现 1. 引言 随着大语言模型在自然语言生成、理解与推理能力上的持续突破&#xff0c;基于预训练模型进行二次开发构建垂直领域应用已成为AI工程实践的重要方向。Qwen2.5 系列作为通义千问最新一代大型语言模型&…

FST ITN-ZH在政务系统中的应用:公文标准化处理方案

FST ITN-ZH在政务系统中的应用&#xff1a;公文标准化处理方案 1. 引言 1.1 政务场景下的文本标准化需求 在政府机关日常办公中&#xff0c;大量非结构化文本数据以口语化、传统书写方式存在。例如&#xff0c;“二零零八年八月八日”、“一百万元”、“京A一二三四五”等表…

创客匠人:创始人 IP 的角色革命 —— 从执行者到 AI 调度者的组织升级

引言&#xff1a;创始人的 “执行者困境”—— 为什么越埋头干活&#xff0c;IP 越难增长&#xff1f; “每天忙到凌晨&#xff0c;写文案、回咨询、做交付&#xff0c;可营收还是卡在百万级”—— 这是多数创始人 IP 的真实写照。他们陷入 “执行者陷阱”&#xff1a;把自己当…

Qwen3-VL-2B多模态模型部署教程:OCR识别与场景描述实战

Qwen3-VL-2B多模态模型部署教程&#xff1a;OCR识别与场景描述实战 1. 学习目标与前置知识 本教程旨在帮助开发者快速掌握 Qwen3-VL-2B 多模态模型的本地化部署方法&#xff0c;并通过实际案例实现 OCR 文字识别、图像内容理解与场景描述等核心功能。完成本教程后&#xff0c…

PyTorch通用环境性能评测:预装包对推理速度影响分析

PyTorch通用环境性能评测&#xff1a;预装包对推理速度影响分析 1. 引言 随着深度学习在工业界和学术界的广泛应用&#xff0c;开发环境的构建效率与运行性能成为影响研发节奏的关键因素。一个配置合理、依赖齐全的PyTorch通用开发镜像&#xff0c;不仅能提升团队协作效率&am…

一月面了8家前端开发,感觉自己强的可怕

一月求职市场还没完全热起来&#xff0c;但我已经先冲了——前后密集面了8家前端。身边同事还在琢磨要不要跳槽、简历怎么改得更漂亮&#xff0c;我揣着自己做过的项目经验&#xff0c;直接上了战场。从初创公司的一轮技术面&#xff0c;到大厂那种三轮连闯&#xff0c;问的问题…

Qwen All-in-One避坑指南:多任务部署常见问题全解

Qwen All-in-One避坑指南&#xff1a;多任务部署常见问题全解 1. 引言&#xff1a;轻量级多任务推理的挑战与机遇 在边缘计算和资源受限场景下&#xff0c;如何高效部署大语言模型&#xff08;LLM&#xff09;成为开发者面临的核心难题。传统方案往往采用“多模型堆叠”架构&…

A2UI : 以动态 UI 代替 LLM 文本输出的方案

A2UI (Agent to UI) 是一个基于 JSON 的流式 UI 协议&#xff0c;旨在让 AI Agent 能够动态生成、控制并响应用户界面。从技术本质上看&#xff0c;它将 UI 视为纯粹的数据 payload&#xff0c;由前端运行时&#xff08;Runtime&#xff09;负责解析并映射为原生组件。 后端一直…

DeepSeek-R1如何提升推理速度?CPU优化部署实战案例

DeepSeek-R1如何提升推理速度&#xff1f;CPU优化部署实战案例 1. 引言&#xff1a;轻量级大模型的本地推理新选择 随着大语言模型在逻辑推理、代码生成等复杂任务中的广泛应用&#xff0c;对高性能计算资源的依赖也日益加剧。然而&#xff0c;在许多实际场景中&#xff0c;用…

CosyVoice-300M Lite技术揭秘:如何实现高效语音合成

CosyVoice-300M Lite技术揭秘&#xff1a;如何实现高效语音合成 1. 引言 随着智能语音交互场景的不断扩展&#xff0c;从智能客服到有声读物生成&#xff0c;高质量、低延迟的文本转语音&#xff08;Text-to-Speech, TTS&#xff09;系统已成为AI应用的关键组件。然而&#x…

在线m3u8转MP4

谁懂啊&#xff01;m3u8转MP4找对工具&#xff0c;再也不用求程序员朋友了&#x1f62d; 宝子们&#xff01;有没有过这种崩溃时刻&#xff1a;好不容易找到的网课/影视片段&#xff0c;却是m3u8格式&#xff0c;手机放不了、电脑导不出&#xff0c;想存下来离线看根本没辙&am…

UE5 C++(29-2):描述碰撞响应方式的枚举类 enum ECollisionResponse。

&#xff08;162&#xff09;定义于 EngineTypes.h 头文件 &#xff1a; /** Enum indicating how each type should respond 枚举表示每个类型应如何响应*/ UENUM(BlueprintType, meta(ScriptName"CollisionResponseType")) enum ECollisionResponse : int {ECR_Ign…