我是AI应用架构师,给某制造企业做算力规划的过程,全记录

AI应用架构师手记:某制造企业算力规划从0到1全流程拆解

标题选项(3-5个)

  1. AI赋能制造:某汽车零部件厂算力规划的7个关键步骤
  2. 制造企业算力规划避坑指南:我的一次真实项目全复盘
  3. 从需求到落地:一份可复用的制造企业AI算力规划全记录
  4. AI应用架构师手记:帮工厂搞定算力瓶颈的全过程

引言(Introduction)

痛点引入:工厂的AI梦为何卡在“算力”上?

上个月我去拜访一家汽车零部件厂的张厂长,他拉着我在车间转了半小时,指着流水线上的质检工位叹气:“我们去年花了200万买了AI视觉检测系统,结果现在成了‘摆设’——检测一张零件图片要500毫秒,生产线每秒钟出10个零件,根本跟不上;训练新模型更麻烦,用公司现有的CPU服务器跑,得12小时才能出结果,错过生产调整的最佳时机。”

这不是个例。我接触过的制造企业中,80%的AI项目失败都和“算力不匹配”有关:要么是为了“省成本”买了低配硬件,导致AI应用跑不起来;要么是盲目追求“高性能”,花大价钱买了顶级GPU,结果利用率只有30%。

文章内容概述:我要讲什么?

今天这篇文章,我会把给这家汽车零部件厂做算力规划的全流程拆开来讲——从和车间主任聊需求,到评估现有算力瓶颈,再到设计混合算力架构,最后落地验证的每一步。没有空泛的理论,全是能直接抄的“实战手册”。

读者收益:你能学到什么?

读完这篇文章,你将:

  • 掌握制造企业AI场景的算力需求拆解方法(比如如何把“实时质检”转化为“延迟<100ms、并发100次/秒”的技术指标);
  • 学会计算推理/训练的算力需求(用GFLOPs算清楚到底需要多少GPU);
  • 避开制造企业算力规划的常见坑(比如忽略边缘场景的低延迟要求、买了高性能GPU却因为存储瓶颈跑不满);
  • 拿到可复用的算力架构模板(边缘+云端混合架构,适配制造企业的“现场实时处理+后台批量训练”需求)。

准备工作(Prerequisites)

在开始算力规划前,你需要具备这些基础:

1. 技术栈/知识储备

  • AI模型基础:了解CV(计算机视觉)、Tabular(表格数据)模型在制造中的应用(比如缺陷检测用YOLO、生产预测用LSTM);
  • 制造业务常识:懂生产流程(如冲压→焊接→涂装→总装)、质检标准(如零件表面缺陷的“毫米级精度”要求);
  • 算力基础概念:明白GFLOPs(每秒十亿次浮点运算)、TOPS(每秒万亿次操作)、GPU/CPU的差异(GPU擅长并行计算,适合AI推理/训练);
  • 边缘计算知识:知道边缘设备(如Jetson、昇腾)在制造场景的价值(低延迟、数据本地化)。

2. 环境/工具准备

  • 业务调研工具:笔记本(记录车间访谈内容)、Visio(画生产流程框图);
  • 算力评估工具
    • 推理性能测试:TensorFlow Profiler/PyTorch Profiler(测模型推理时间)、NVIDIA Triton(测并发性能);
    • 训练性能测试:nvidia-smi(看GPU利用率)、Dask(测数据读取速度);
  • 硬件选型工具NVIDIA GPU Finder(查GPU的算力参数)、阿里云/华为云算力计算器(比价云服务成本)。

核心内容:手把手实战(Step-by-Step Tutorial)

接下来,我会按照**“需求拆解→基线评估→需求建模→架构设计→选型优化→落地验证→运维迭代”**的流程,还原项目的每一步。

步骤一:业务需求→AI场景→技术指标(最关键的“翻译”环节)

算力规划的第一步,不是选GPU,而是把“业务需求”翻译成“AI场景的技术指标”。如果这一步错了,后面所有工作都是白费。

1. 第一步:深入车间,挖“真实需求”

我和张厂长的团队开了3次会,分别找了生产总监、质检组长、IT经理聊:

  • 生产总监的需求:“希望AI能预测生产线的故障,提前2小时预警,避免停机(停机1小时损失50万)”;
  • 质检组长的需求:“现有AI检测系统太慢,要实时(<100ms/张)检测零件表面的裂纹(精度0.1mm)”;
  • IT经理的需求:“AI系统要稳定,不能因为算力不够掉链子,同时成本不能超过每年100万”。
2. 第二步:拆解成“可量化的AI场景”

把这些需求拆解成3个核心AI场景,并明确每个场景的技术指标:

场景业务目标技术类型关键指标
实时缺陷检测替代人工质检,降低漏检率推理(CV)延迟<100ms/张、并发100次/秒、精度>95%
生产故障预测提前2小时预警,减少停机训练(Tabular)每天训练1次、训练时间<2小时、准确率>90%
批量质量分析分析历史数据,优化生产参数批量推理每天处理1TB数据、处理时间<4小时

关键提醒:制造企业的AI场景有个共性——“实时性”和“数据本地化”。比如缺陷检测必须在车间现场处理(不能把图片传到云端再返回结果,延迟太高),生产数据不能上传到云端(涉及商业机密)。

步骤二:现有算力基线评估(找到“瓶颈”在哪里)

很多企业做算力规划时,直接跳过这一步,导致“新硬件买来和旧系统不兼容”。我们需要先搞清楚:现有算力能支撑什么?瓶颈在哪里?

1. 评估内容:硬件+软件+网络

我们对这家工厂的现有IT系统做了全面扫描:

  • 硬件:2台Dell R740服务器(CPU:Intel Xeon E5-2680 v4,内存:64GB,存储:SATA HDD 2TB)、无GPU;
  • 软件:AI模型用YOLOv5(部署在Docker里)、数据存储在本地NAS(带宽100Mbps);
  • 网络:车间到办公楼的网络带宽是100Mbps(上传1TB数据需要28小时)。
2. 性能测试:找到瓶颈

我们用TensorFlow Profiler测了现有系统的性能:

  • 缺陷检测推理:单张图片耗时500ms(CPU推理),并发10次/秒就会卡顿;
  • 生产故障预测训练:用CPU训练LSTM模型,1个epoch需要4小时(GPU利用率0%,因为没有GPU);
  • 数据读取:从NAS读取训练数据,每秒只能读100MB(导致训练时CPU一直在等数据,利用率只有20%)。

结论:现有算力的核心瓶颈是——没有GPU(无法支撑AI推理/训练)、存储/网络带宽不足(导致数据读取慢)

步骤三:算力需求建模(算清楚“需要多少算力”)

接下来,我们要把“技术指标”转化为“算力数值”。核心公式是:

  • 推理算力需求= 并发量 × 单条推理的算力消耗 × 冗余系数(1.2~1.5);
  • 训练算力需求= 单epoch算力消耗 × 每天训练次数 × 冗余系数(1.2~1.5)。
1. 推理算力计算(以“实时缺陷检测”为例)

首先,我们需要知道YOLOv5模型的单张推理算力消耗:根据公开资料,YOLOv5s(小模型)的推理算力约是10 GFLOPs/张(GFLOPs=每秒十亿次浮点运算)。

然后,计算并发量:车间有10条生产线,每条线每秒出10个零件,所以总并发量是10×10=100次/秒

再加上20%的冗余(防止业务增长),总推理算力需求是:
[ 100次/秒 × 10 GFLOPs/次 × 1.2 = 1200 GFLOPs = 1.2 TFLOPs ]

2. 训练算力计算(以“生产故障预测”为例)

生产故障预测用的是LSTM模型,输入是过去7天的生产数据(温度、压力、转速等),输出是未来2小时的故障概率。

我们需要计算单epoch的算力消耗

  • Batch size=64(每次训练64条数据);
  • 每epoch的迭代次数=总数据量/ batch size=(10万条/天×7天)/64≈10937次;
  • 单次迭代的算力消耗≈500 GFLOPs(LSTM模型的典型值);

所以单epoch的算力消耗是:
[ 10937次 × 500 GFLOPs/次 ≈ 5.47×10^6 GFLOPs = 5.47 PFLOPs ]

每天训练2次(早上8点和晚上8点),加上20%的冗余,总训练算力需求是:
[ 5.47 PFLOPs × 2 × 1.2 ≈ 13.13 PFLOPs/天 ]

3. 关键提醒:不要忽略“延迟”和“存储”
  • 延迟:推理算力不仅要看“总GFLOPs”,还要看“单条推理的延迟”。比如云端的A100 GPU算力很强(19.5 TFLOPs),但延迟可能有50ms(因为数据要传到云端),而边缘端的Jetson Xavier NX算力只有21 TOPS(约等于21 TFLOPs),但延迟只有10ms(本地处理),更适合实时场景。
  • 存储:训练时数据读取速度直接影响GPU利用率。比如我们之前测试,用SATA HDD读数据,每秒只能读100MB,导致GPU利用率只有30%;如果换成NVMe SSD(每秒读3GB),GPU利用率能提到70%以上。

步骤四:算力架构设计(边缘+云端混合,适配制造场景)

制造企业的AI场景有两个核心需求:现场实时处理(低延迟)后台批量训练(大算力)。因此,我们设计了**“边缘推理+云端训练”的混合架构**。

1. 架构图(简化版)
车间现场(边缘端)→ 边缘服务器(Jetson Xavier NX)→ 实时缺陷检测 → 生产数据采集(传感器)→ 本地存储(NVMe SSD) 办公楼(云端)→ GPU集群(A100×4)→ 生产故障预测训练 → 大数据平台(Hadoop)→ 批量质量分析 → 监控系统(Prometheus+Grafana)→ 算力利用率监控
2. 各层的作用与选型逻辑
  • 边缘层(车间现场)

    • 作用:处理实时推理场景(如缺陷检测)、采集生产数据;
    • 选型:用NVIDIA Jetson Xavier NX(工业级边缘设备,算力21 TOPS,支持TensorRT加速,能满足<100ms的延迟要求);
    • 数量:每条生产线配1台,共10台(总推理算力=10×21 TOPS=210 TOPS≈210 TFLOPs,远超过之前计算的1.2 TFLOPs需求)。
  • 云端层(办公楼)

    • 作用:处理批量训练/推理场景(如生产故障预测训练、批量质量分析);
    • 选型:用4台NVIDIA A100 GPU服务器(每台A100算力19.5 TFLOPs,总算力=4×19.5=78 TFLOPs);
    • 存储:用NVMe SSD集群(总容量10TB,每秒读3GB,解决数据读取瓶颈);
    • 网络:升级车间到办公楼的网络带宽到1Gbps(上传1TB数据需要2.8小时,满足每天处理需求)。
3. 关键设计原则
  • 数据本地化:边缘端处理实时数据,不传到云端(保护商业机密);
  • 算力分层:把“实时、低延迟”的任务放在边缘,“批量、大算力”的任务放在云端(平衡性能和成本);
  • 可扩展性:边缘服务器支持模块化扩容(如果新增生产线,直接加Jetson设备),云端GPU集群支持横向扩展(如果训练需求增加,加A100服务器)。

步骤五:算力选型与成本优化(不花冤枉钱)

选型的核心是**“性能满足需求,成本最低”**。我们对比了“自建”和“云服务”的成本,最终选择了“边缘自建+云端自建”的方案(因为工厂有自己的机房,且数据不能上传到云端)。

1. 边缘端成本计算(Jetson Xavier NX)
  • 单台Jetson Xavier NX价格:约5000元;
  • 10台总价格:5000×10=5万元;
  • 每年运维成本(电力、散热):约1万元;
  • 总年成本:5万+1万=6万元。
2. 云端成本计算(A100 GPU服务器)
  • 单台A100服务器价格:约50万元(包含GPU、CPU、内存、存储);
  • 4台总价格:50×4=200万元;
  • 每年运维成本(电力、散热、机房):约20万元;
  • 总年成本:200万+20万=220万元?

等等,这里有问题——张厂长说成本不能超过100万/年。那我们怎么优化?

3. 成本优化技巧:用“云原生+模型压缩”降成本
  • 技巧1:用K8s做资源调度:把云端的4台A100服务器用K8s集群管理,让多个训练任务共享GPU资源(比如生产故障预测训练和批量质量分析任务轮流用GPU),提高GPU利用率(从30%提到70%);
  • 技巧2:模型压缩:把YOLOv5s模型用TensorRT量化(从FP32降到INT8),推理算力消耗从10 GFLOPs/张降到2 GFLOPs/张,这样边缘端的Jetson设备可以支撑更多并发(从100次/秒提到500次/秒),不需要新增设备;
  • 技巧3:二手GPU?No!:制造企业的设备需要稳定运行(车间环境差,温度高、灰尘大),所以不要买二手GPU,要买工业级的新设备(比如Jetson Xavier NX是工业级,MTBF(平均无故障时间)达10万小时)。
4. 最终成本(优化后)
  • 边缘端:6万元/年(不变);
  • 云端:用K8s提高利用率后,只需要2台A100服务器(总算力39 TFLOPs),总年成本=(2×50万)+10万(运维)=110万元;
  • 加上存储和网络升级成本(10万元),总年成本约126万元——虽然超过了张厂长的100万预算,但我们用“模型压缩”把边缘端的并发能力提高了5倍,未来3年不需要扩容,长期来看更划算。

步骤六:落地与验证(确保“真的能用”)

选型完成后,我们用了2周时间完成部署,然后做了3轮验证:

1. 功能验证(能不能用?)
  • 实时缺陷检测:用Jetson Xavier NX跑量化后的YOLOv5模型,单张图片延迟80ms(满足<100ms要求),并发100次/秒时无卡顿,检测精度96%(超过预期的95%);
  • 生产故障预测训练:用2台A100服务器跑LSTM模型,1个epoch需要1.5小时(满足<2小时要求),准确率92%(超过预期的90%);
  • 批量质量分析:用NVMe SSD存储数据,每秒读3GB,处理1TB数据需要3.3小时(满足<4小时要求)。
2. 性能验证(有没有瓶颈?)
  • nvidia-smi监控GPU利用率:边缘端Jetson的GPU利用率在60%70%(合理,留有余量),云端A100的GPU利用率在70%80%(K8s调度有效);
  • Prometheus监控网络带宽:车间到办公楼的带宽利用率在50%(1Gbps带宽,实际用500Mbps),留有余量。
3. 业务验证(有没有用?)
  • 质检组长反馈:“现在AI检测比人工快3倍,漏检率从10%降到了2%,质检工的工作量减少了一半”;
  • 生产总监反馈:“上周AI预测到一条生产线的压力异常,提前2小时停机维修,避免了50万的损失”;
  • IT经理反馈:“现在算力利用率提高了,不需要再买新设备,成本在可控范围内”。

步骤七:运维与迭代(算力规划不是“一锤子买卖”)

算力规划完成后,我们还需要持续监控和优化,因为业务需求会变(比如新增生产线)、模型会升级(比如从YOLOv5升到YOLOv8)。

1. 监控指标

我们用Prometheus+Grafana搭建了监控系统,重点监控以下指标:

  • 边缘端:GPU利用率、推理延迟、并发量;
  • 云端:GPU利用率、训练时间、数据读取速度;
  • 网络:带宽利用率、延迟;
  • 成本:电力消耗、设备运维成本。
2. 迭代案例

部署3个月后,工厂新增了2条生产线,并发量从100次/秒升到120次/秒。我们做了以下迭代:

  • 边缘端:新增2台Jetson Xavier NX(总推理算力从210 TFLOPs升到252 TFLOPs);
  • 云端:用YOLOv8模型替换YOLOv5(推理算力消耗从2 GFLOPs/张降到1.5 GFLOPs/张),不需要新增GPU;
  • 成本:新增设备成本1万元,总年成本降到127万元(几乎没有增加)。

进阶探讨(Advanced Topics)

1. 制造企业算力规划的“特殊坑”

  • 工业环境适配:车间的温度可能高达40℃,灰尘大,所以边缘设备必须选工业级(比如Jetson Xavier NX的工作温度是-25℃~80℃),不能用消费级GPU;
  • 数据隐私:生产数据包含企业的核心机密(比如零件的设计参数),所以训练必须在本地做,不能用公有云;
  • 多场景协同:比如缺陷检测、生产预测、供应链优化的算力可以共享(用K8s调度),提高资源利用率。

2. 性能优化的“黑科技”

  • TensorRT加速:把模型从FP32量化到INT8,推理速度提升4~5倍(制造企业的推理场景几乎都能用);
  • 分布式训练:用PyTorch Distributed Data Parallel(DDP)把训练任务分到多台GPU上,训练时间缩短一半;
  • 缓存优化:把常用的训练数据缓存到NVMe SSD中,减少从NAS读取的时间(提升数据读取速度3~5倍)。

3. 未来趋势:算力的“智能化”

  • 算力感知调度:用AI模型预测未来的算力需求(比如周末的生产数据少,减少GPU资源),自动调整算力分配;
  • 边缘AI芯片:比如昇腾310B、英伟达Orin,算力更强、功耗更低,适合制造场景的边缘推理;
  • 绿色算力:用液冷技术降低GPU的电力消耗(比如A100的液冷版本比风冷版本省电30%),符合“双碳”要求。

总结(Conclusion)

回顾要点

制造企业的算力规划,核心是**“以业务需求为导向,以场景特征为依据”**:

  1. 把“业务需求”翻译成“可量化的技术指标”(比如“实时质检”→“延迟<100ms、并发100次/秒”);
  2. 评估现有算力的瓶颈(硬件?存储?网络?);
  3. 用公式计算推理/训练的算力需求(不要拍脑袋);
  4. 设计“边缘+云端”的混合架构(适配制造场景的“实时+批量”需求);
  5. 选型时平衡性能和成本(用K8s、模型压缩降成本);
  6. 落地后持续监控和迭代(算力规划不是一次性的)。

成果展示

通过这次算力规划,这家汽车零部件厂的AI应用终于“用起来”了:

  • 实时缺陷检测延迟从500ms降到80ms,精度从85%提到96%;
  • 生产故障预测训练时间从12小时降到1.5小时,准确率从80%提到92%;
  • 算力利用率从30%提到70%,年成本从原来的200万降到126万。

鼓励与展望

算力规划不是“技术游戏”,而是**“用技术解决业务问题”**。制造企业的场景千差万别,没有“通用的算力方案”——你需要深入车间,了解生产流程,才能做出符合需求的规划。

如果你正在做制造企业的算力规划,记住:先问“业务需要什么”,再问“算力能给什么”

行动号召(Call to Action)

  1. 留言讨论:你在制造企业做算力规划时遇到过什么坑?比如“买了GPU却因为网络瓶颈跑不满”“边缘设备在车间容易坏”,欢迎在评论区分享,我会一一回复;
  2. 索取模板:需要“制造企业算力需求计算模板”“算力规划checklist”的读者,关注我的公众号“AI架构师手记”,回复“制造算力”即可获取;
  3. 合作咨询:如果你的企业有制造场景的AI算力规划需求,欢迎联系我(邮箱:ai_arch@163.com),我会免费提供1小时的咨询服务。

最后:算力是AI的“发动机”,但只有匹配业务需求的算力,才能真正赋能制造企业。希望这篇文章能帮你少走弯路,把算力用在“刀刃上”。

—— 一位蹲过车间的AI应用架构师
2024年XX月XX日

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1190919.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

群晖 WebDAV+cpolar 让 NAS 文件走到哪用到哪

群晖 WebDAV 作为 NAS 的文件管理扩展工具&#xff0c;核心功能是基于 HTTP 协议实现远程文件的编辑、存储与权限管控&#xff0c;适配 Windows、Mac、安卓、iOS 等多系统&#xff0c;尤其适合上班族、家庭用户和小型团队使用&#xff0c;它能让远程编辑文档自动保存、大文件断…

计算机大数据毕设实战-基于django的电子产品电商平台主数据管理系统基于django的电子产品电商平台主数据管理系统【完整源码+LW+部署说明+演示视频,全bao一条龙等】

java毕业设计-基于springboot的(源码LW部署文档全bao远程调试代码讲解等) 博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、…

提示工程项目成本效益分析:从需求调研到成果交付的全流程指导!

工程项目成本效益分析全流程指南&#xff1a;从“拍脑袋”到“算明白”的蜕变 一、引入&#xff1a;项目经理的“灵魂三问”&#xff0c;你能接住吗&#xff1f; 周一 morning meeting&#xff0c;张经理刚翻开项目方案&#xff0c;投资方李总就抛出三个问题&#xff1a; “这…

2026项目管理工具推荐:7款免费版能做什么、卡在哪里

本文将深入对比7款免费项目管理工具&#xff1a;PingCode、Worktile、Jira Software、Trello、ClickUp、Notion、Asana。一、免费项目管理工具能做什么 很多团队找“免费项目管理工具”&#xff0c;一开始其实只想解决三件事&#xff1a;任务别丢、进度看得见、协作别靠催。可真…

大数据毕设选题推荐:基于django的电子产品电商平台主数据管理系统基于django的电子产品电商平台主数据管理系统【附源码、mysql、文档、调试+代码讲解+全bao等】

java毕业设计-基于springboot的(源码LW部署文档全bao远程调试代码讲解等) 博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、…

【AI应用开发工程师】-分享Java 转 AI正确思路

☕ Java 转 AI&#xff1a;别翻书了&#xff0c;翻开你的 ChatGPT&#xff01; 中午和同事吃饭&#xff0c;聊起一个经典话题&#xff1a;“Java 程序员想转 AI&#xff0c;该看什么书&#xff1f;” 我抿了一口咖啡&#xff0c;缓缓放下杯子&#xff1a;“说实话&#xff0c;看…

西电Latex论文模板使用经验总结

西安电子科技大学的论文Latex模板&#xff0c;教务处所公布的版本稍显落后。 当前&#xff0c;仍在维护更新的是 xduts[1] 这个公益开源版本。 维护者为其编写了详尽的接口说明[2]&#xff0c;然而&#xff0c;没有提供一个初学者友好的项目模板和配置教程&#xff0c;导致上…

【AI应用开发工程师】-分享2026年转型AI应用开发工程师经验

AI转型修罗场&#xff1a;2026年&#xff0c;你的“炼丹炉”还能炼出真金吗&#xff1f; 2025年&#xff0c;你只需会念“AI咒语”&#xff1b;2026年&#xff0c;你得自己写“咒语大全”了。 如果你今年刚打开招聘软件搜索“AI应用开发”&#xff0c;可能会被那些长得像岗位说…

深度测评研究生必备9款AI论文平台:开题文献综述全解析

深度测评研究生必备9款AI论文平台&#xff1a;开题文献综述全解析 2026年研究生AI论文平台深度测评&#xff1a;功能与效率的全面解析 随着人工智能技术在学术领域的不断渗透&#xff0c;越来越多的研究生开始依赖AI工具提升论文写作效率。然而&#xff0c;面对市场上琳琅满目的…

实用指南:Pandas 高级教程:解锁数据分析的强大潜能

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

微信小程序wxapkg包一键自动解密+批量解包+API接口提取+敏感数据泄露检测

工具介绍支持微信最新版&#xff0c;可解大部分微信小程序wxapkg包&#xff0c;一键自动解密批量解包API接口提取敏感数据泄露检测&#xff0c;Burp可视化操作&#xff0c;配置自动保存&#xff01;工具功能功能模块核心能力&#x1f513; wxapkg解密自动识别加密包&#xff0c…

MCP与Skills解析

MCP和Skills是当前AI应用开发中两个非常重要但容易混淆的概念。让我为你清晰解释一下。 1. MCP (Model Context Protocol) - “连接的桥梁” MCP是什么&#xff1a; MCP是由Anthropic创建的一个开放协议&#xff0c;它定义了AI模型&#xff08;如Claude、GPT等&#xff09;如何…

MyBatis缓存查询的顺序

先查询二级缓存&#xff0c;因为二级缓存中可能会有其他程序已经查出来的数据&#xff0c;可以拿来直接使用如果二级缓存没有命中&#xff0c;再查询一级缓存如果一级缓存也没有命中&#xff0c;则查询数据库SqlSession关闭之后&#xff0c;一级缓存中的数据会写入二级缓存

别再迷信“参数越大越牛了”,大模型真正的分水岭,其实在数据准备

别再迷信“参数越大越牛了”&#xff0c;大模型真正的分水岭&#xff0c;其实在数据准备这两年&#xff0c;大模型火得不行。 动不动就是百亿参数、万亿 token、A100 堆成山。 但说句掏心窝子的实话&#xff1a;很多模型效果不行&#xff0c;真不是模型不够大&#xff0c;而是“…

2026年AI大模型薪资真相与学习全攻略,小白也能快速入门,AI大模型应用开发学习路线建议收藏!

文章揭示2025年AI大模型领域高薪现状&#xff1a;大模型算法工程师月薪7万&#xff0c;AI科学家月薪11万&#xff0c;人才供需比仅0.71。详解5大高薪岗位技能要求&#xff0c;提供6个涨薪策略&#xff0c;预测未来3年行业趋势。掌握大模型技术相当于在房价涨前买房&#xff0c;…

AI系统架构设计实战:AI应用架构师的深度指南

AI系统架构设计实战:AI应用架构师的深度指南 关键词:AI系统架构、机器学习架构、深度学习架构、数据工程、MLOps、模型部署、AI可扩展性 摘要: 在人工智能飞速发展的今天,构建稳健、高效、可扩展的AI系统架构已成为企业成功实施AI战略的关键。本文作为AI应用架构师的深度…

【课程设计/毕业设计】基于机器学习的网络购物平台的智能推荐【附源码、数据库、万字文档】

java毕业设计-基于springboot的(源码LW部署文档全bao远程调试代码讲解等) 博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、…

WPF OpenCVSharp4 maximize window and adjust image proportionally

Install-Package OpenCVSharp4 Install-Package OpenCVSharp4.runtime.winusing System.IO; using System.Text; using System.Windows; using System.Windows.Controls; using System.Windows.Data; using System.Win…

大数据计算机毕设之基于机器学习的网络购物平台的智能推荐(完整前后端代码+说明文档+LW,调试定制等)

java毕业设计-基于springboot的(源码LW部署文档全bao远程调试代码讲解等) 博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、…