DeepSeek-OCR论文精读:用视觉压缩突破长文本处理瓶颈|基于DeepSeek-OCR-WEBUI实战

DeepSeek-OCR论文精读:用视觉压缩突破长文本处理瓶颈|基于DeepSeek-OCR-WEBUI实战

1. 写在前面:核心价值与技术定位

  • 问题驱动:大语言模型(LLM)在处理超长文本时面临显存占用高、计算复杂度上升的瓶颈,尤其是当输入序列达到数万token时,推理成本急剧攀升。
  • 创新思路:DeepSeek-OCR提出一种“光学上下文压缩”范式——将长文本转换为高分辨率图像,通过强大的视觉编码器将其压缩为少量但信息密集的视觉token,再由语言解码器还原为结构化文本或Markdown输出。
  • 架构亮点:采用“DeepEncoder + 3B MoE解码器”双模块设计,前者实现高效视觉压缩,后者完成精准语义重建,整体形成端到端文档理解系统。
  • 工程优势:支持多分辨率模式(Tiny/Small/Base/Large/Gundam)、vLLM集成、批量PDF处理脚本,具备高吞吐生产能力,单A100-40G每日可处理20万+页文档。
  • 开源友好:提供Transformers和vLLM双路线推理代码、prompt模板、评估脚本,便于快速落地至金融票据、教育数字化、档案电子化等场景。

核心思想:不是让LLM直接读长文本,而是让它“看图说话”,用一张图承载数千字内容,从而绕过传统文本序列长度限制。


2. 技术背景:为何要“把文本变图片”?

2.1 LLM的长上下文困境

当前主流LLM依赖自回归注意力机制,其时间与空间复杂度通常随输入序列长度呈二次或准线性增长。即使使用FlashAttention等优化技术,处理超过8k~32k token的文本仍需极高显存资源,难以规模化部署。

例如: - 处理一本300页的PDF书籍可能生成百万级token; - 扫描件中的表格、公式、版面信息若以纯文本展开,冗余严重且丢失结构。

这导致两个现实问题: 1.成本过高:长序列训练与推理消耗大量GPU资源; 2.信息失真:传统OCR流水线(检测→识别→后处理)易在环节间累积误差。

2.2 图像作为稠密载体的优势

图像是一种天然的高密度信息容器。一张1024×1024分辨率的文档扫描图,可以清晰容纳数千汉字,而其对应的视觉token数量却远少于等效文本token。

DeepSeek-OCR正是利用这一特性,构建了一个“文本→图像→视觉token→还原文本”的新范式:

  • 压缩收益:视觉token数量可比原始文本token减少10倍以上;
  • 结构保留:图像本身包含布局、字体、对齐、表格边框等空间语义;
  • 统一建模:图表、化学式、多语言混排均可在同一视觉域内解析。

因此,OCR在此不仅是字符识别工具,更成为验证“视觉压缩效率”的量化试验台——我们可以通过标准答案评估:压缩多少token后,仍能准确还原原文?


3. 系统架构:DeepSeek-OCR的整体设计

DeepSeek-OCR是一个端到端的视觉语言模型(VLM),专为文档级理解任务设计,包含两大核心组件:

模块参数规模功能职责
DeepEncoder≈380M高分辨率图像编码,实现“吃大图、压小token”
MoE解码器总参3B,激活≈570M从视觉token中还原文本、Markdown、结构化内容

3.1 输入与输出形式

  • 输入:单页或多页文档图像(支持JPG/PNG等格式),也可接受截图或扫描件;
  • 输出:支持多种目标格式:
  • 纯文本(Free OCR)
  • Markdown(保留标题、列表、表格)
  • 结构化块(如<table><code><figure>标签)

该设计使得模型不仅适用于通用OCR,还可用于RAG预处理、知识库构建、自动化表单填写等下游任务。

3.2 架构流程概览

[原始文档] ↓ 扫描/截图 [高分辨率图像] ↓ 输入 DeepEncoder [局部窗口注意力 → 卷积压缩 → 全局注意力] ↓ 输出视觉token(如256个) [送入 MoE 解码器] ↓ 自回归生成 [文本 / Markdown / 结构化输出]

整个过程无需外部拼接或多模型串联,真正实现“一图到底”的端到端解析。


4. DeepEncoder详解:如何实现高分辨率下的低token输出

4.1 三阶段混合架构

为了兼顾“吃得下高分辨率”与“压得出少token”,DeepEncoder采用分阶段策略:

阶段A:局部窗口注意力(Local Window Attention)
  • 基于SAM-base架构,patch size=16;
  • 对1024×1024图像,生成初始4096个patch token;
  • 使用窗口注意力机制,降低计算开销,适合捕捉局部细节(如笔画、字符边缘)。
阶段B:卷积压缩模块(Convolutional Compression)
  • 连续2层 3×3 卷积,stride=2;
  • 通道数从256升至1024,同时空间维度持续下采样;
  • 实现16× token压缩:4096 → 256,显著减少后续计算负担。
阶段C:全局注意力建模(Global Attention Modeling)
  • 将压缩后的256个token输入CLIP-large的Transformer主干;
  • 移除原始CLIP的patch embedding层,因输入已是token序列;
  • 在低token数量下进行跨区域语义融合,增强对表格、段落关系的理解。

这种“先细粒度感知、再粗粒度整合”的设计,既保证了细节保留,又控制了最终token数量。

4.2 多分辨率与动态模式支持

为适应不同硬件条件与业务需求,DeepSeek-OCR提供五种预设模式:

模式分辨率视觉token数适用场景
Tiny512×51264轻量部署、快速预览
Small640×640100移动端、边缘设备
Base1024×1024256综合性能最优
Large1280×1280400小字号、复杂版面
Gundam(动态)主图1024 + n×640裁剪256 + n×100表格、脚注、局部放大

其中,Gundam模式特别适用于含小字或密集表格的文档,通过主视图+局部裁剪的方式,在不增加整体分辨率的前提下提升关键区域识别精度。


5. MoE解码器与输出控制机制

5.1 3B MoE架构:效率与表达力的平衡

解码器采用DeepSeek-3B-MoE架构,总参数约30亿,但每次推理仅激活约5.7亿参数,兼顾性能与效率。

  • MoE结构:每个Transformer层包含多个专家网络(expert),路由机制根据输入选择最合适的子网络;
  • 优势:相比全激活模型,在相同算力下提升表达能力;相比小型模型,保持更强的语言生成能力。

5.2 输出约束策略:提升结构化输出稳定性

为防止模型“自由发挥”导致格式错乱,DeepSeek-OCR支持多种输出控制手段:

  • NGram限制:使用NGramPerReqLogitsProcessor防止重复短语循环输出;
  • Token白名单:针对表格解析任务,仅允许<td></td><tr>等HTML标签出现;
  • 指令引导:通过特定prompt触发结构化输出模式,如<|grounding|>Convert the document to markdown.

这些机制有效提升了表格提取、代码块识别等结构化任务的鲁棒性。


6. 训练策略与数据构成

6.1 两阶段训练流程

为确保DeepEncoder稳定压缩、解码器精准还原,采用分阶段训练策略:

  1. 第一阶段:独立训练DeepEncoder
  2. 目标:学习从高分辨率图像到低token表示的映射;
  3. 数据:大规模文档图像及其对应token序列;
  4. 方法:对比学习 + 重建损失,确保语义一致性。

  5. 第二阶段:端到端联合微调

  6. 目标:使解码器学会从视觉token还原文本/Markdown;
  7. 数据:图像-文本配对数据集(如OCR标注数据、学术论文扫描件);
  8. 序列长度:普遍设置为8192,支持长文档建模。

6.2 数据来源与配比

训练数据涵盖三大类:

类型占比示例
OCR专用数据~70%发票、合同、教科书扫描件
通用视觉数据~20%COCO、LAION图文对
纯文本数据~10%Wikipedia、Books等,用于增强语言能力

此外,还专门引入图表、化学式、几何图形等特殊内容,提升模型对非文本元素的解析能力。


7. 性能表现与基准对比

7.1 压缩-精度权衡曲线

根据论文实验,在Fox等OCR基准上的测试结果显示:

压缩倍数OCR准确率
≈9–10×≥96%
≈10–12×≈90%
≈20×≈60%

工程启示:对于大多数实际应用,≤10×压缩已足够可用;若追求极致吞吐,可在可接受精度损失范围内进一步提高压缩比。

7.2 在OmniDocBench上的表现

模型视觉token数准确率备注
GOT-OCR2.057694.2%当前SOTA之一
MinerU48093.5%端到端方案
DeepSeek-OCR25695.1%更少token,更高精度

结果表明,DeepSeek-OCR在更少视觉token条件下达到了领先水平,验证了其高效的压缩能力。

7.3 生产级吞吐能力

  • 单张A100-40G:日均处理20万+页文档
  • 规模化集群(20台×8卡):可达数千万页/日的处理能力;
  • 支持vLLM批处理、Prefix Caching、FlashAttention加速,适合大规模语料生成与RAG预处理。

8. 与传统OCR及通用VLM的对比分析

维度传统OCR(检测+识别)通用VLM(端到端解析)DeepSeek-OCR
范式多模型流水线单模型端到端单模型端到端,强调视觉-文本压缩效率
长上下文支持依赖外部拼接受限于文本token长度用视觉token替代文本token,显著降本
版面/表格解析需额外模块依赖指令微调内建强结构化解析能力
工程易用性成熟但维护复杂快速迭代但成本高提供完整开源脚本、vLLM集成、批量处理示例
潜在局限流程繁琐、误差累积显存消耗大、输出不稳定超高压缩影响精度;对图像质量有一定要求

DeepSeek-OCR并非简单替代传统OCR,而是开辟了一条“以视觉密度换文本长度”的新路径。


9. 实战指南:基于DeepSeek-OCR-WEBUI的快速上手

9.1 环境准备

推荐配置: - GPU:NVIDIA 4090D 或 A100,显存≥8GB(建议20GB以上运行Base/Gundam模式); - Python版本:3.12+ - 关键依赖安装:

pip install "torch==2.6.0" "transformers==4.46.3" "tokenizers==0.20.3" einops addict easydict pip install "flash-attn==2.7.3" --no-build-isolation

9.2 Transformers路线最小推理脚本

from transformers import AutoModel, AutoTokenizer import torch, os os.environ["CUDA_VISIBLE_DEVICES"] = "0" model_name = "deepseek-ai/DeepSeek-OCR" tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModel.from_pretrained( model_name, _attn_implementation="flash_attention_2", trust_remote_code=True, use_safetensors=True ).eval().cuda().to(torch.bfloat16) prompt = "<image>\n<|grounding|>Convert the document to markdown." image_file = "your_image.jpg" output_path = "outputs" res = model.infer( tokenizer, prompt=prompt, image_file=image_file, output_path=output_path, base_size=1024, image_size=640, crop_mode=True, save_results=True, test_compress=True ) print(res)

9.3 vLLM高吞吐批量处理方案

适用于PDF批量解析、企业级文档流水线:

uv venv && source .venv/bin/activate uv pip install -U vllm --pre --extra-index-url https://wheels.vllm.ai/nightly
from vllm import LLM, SamplingParams from vllm.model_executor.models.deepseek_ocr import NGramPerReqLogitsProcessor from PIL import Image llm = LLM( model="deepseek-ai/DeepSeek-OCR", enable_prefix_caching=False, mm_processor_cache_gb=0, logits_processors=[NGramPerReqLogitsProcessor], ) image_1 = Image.open("1.png").convert("RGB") image_2 = Image.open("2.png").convert("RGB") prompt = "<image>\nFree OCR." model_input = [ {"prompt": prompt, "multi_modal_data": {"image": image_1}}, {"prompt": prompt, "multi_modal_data": {"image": image_2}}, ] sampling_param = SamplingParams( temperature=0.0, max_tokens=8192, extra_args=dict( ngram_size=30, window_size=90, whitelist_token_ids={128821, 128822}, ), skip_special_tokens=False, ) outs = llm.generate(model_input, sampling_param) for o in outs: print(o.outputs[0].text)

官方仓库提供run_dpsk_ocr_pdf.py脚本,支持整本PDF拆页并行处理。

9.4 分辨率模式选择建议

模式显存需求推理速度适用场景
Tiny<8GB极快快速预览、移动端
Small8–12GB日常办公文档
Base16–20GB中等综合性能首选
Large24–32GB较慢小字、复杂表格
Gundam20–40GB动态调整高精度需求

建议先用Base或Gundam建立基准,再根据成本与精度要求切换模式。


10. Prompt工程实践:常用指令模板

以下prompt可直接复用,适配不同输出需求:

# 文档转Markdown(推荐用于RAG预处理) <image> <|grounding|>Convert the document to markdown. # 纯文本提取(忽略格式) <image> Free OCR. # 解析图表或示意图 <image> Parse the figure. # 定位特定内容(支持引用标记) <image> Locate <|ref|>“配料表”<|/ref|> in the image.

提示词设计直接影响输出质量,建议结合具体任务定制,并启用输出约束提升稳定性。


11. 应用场景与落地建议

11.1 典型应用场景

  • 金融票据自动化:发票、保单、银行流水的结构化提取;
  • 法律合同处理:条款抽取、关键词检索、合规审查;
  • 教育数字化:教材扫描件转可编辑Markdown,支持AI辅导;
  • 科研文献管理:论文PDF转结构化文本,便于知识图谱构建;
  • 多语言混合文档:中英、日英混排文本的鲁棒识别。

11.2 工程优化建议

  1. 输入预处理:对手机拍摄或曲面纸张进行去噪、畸变矫正、对比度增强;
  2. 小字/表格优先使用Gundam或Large模式
  3. 表格提取时启用token白名单约束,避免非法标签;
  4. 批量任务固定base_size/image_size,利于缓存命中与吞吐优化;
  5. 开展压缩比-精度-延迟三元组评估,找到业务最优平衡点。

12. 局限性与未来展望

12.1 当前局限

  • 超高压缩精度下降明显:20×压缩下准确率降至约60%,不适合高保真场景;
  • 依赖图像质量:模糊、倾斜、低对比度图像会影响识别效果;
  • 格式差异≠识别错误:不同标注规范可能导致评估偏差,需定制评测集。

12.2 未来方向

  • 数字-光学交错预训练:探索文本与图像交替输入的联合训练方式;
  • 针堆测试(Needle-in-a-Haystack):系统验证模型在极长上下文中的记忆能力;
  • 轻量化版本开发:推出适用于移动端的小型化模型;
  • 交互式OCR增强:支持用户反馈修正,实现闭环优化。

13. 复现实验Checklist(拿来即用)

  • [ ] 环境:CUDA 11.8、PyTorch 2.6.0、Transformers 4.46.3、FlashAttention 2.7.3
  • [ ] 硬件:≥8GB 显存(Base/Gundam 更推荐 20–40GB)
  • [ ] 模式:先Base/Gundam打基线,再按预算调 Tiny/Small/Large
  • [ ] 指令:Markdown 输出优先<|grounding|>Convert the document to markdown.
  • [ ] 结构化:表格白名单/约束(如<td>
  • [ ] 批量:用 vLLM 脚本处理 PDF,记录压缩比-精度-时延三元组

14. 总结

DeepSeek-OCR的核心突破在于重新定义了“长上下文处理”的范式:不再依赖无限拉长文本序列,而是通过视觉压缩将信息密度最大化。它将文档视为一个整体图像,用少量视觉token承载数千字内容,再由MoE解码器精准还原,实现了成本、效率与精度的统一

这一设计不仅适用于OCR任务,更为未来LLM的“记忆扩展”提供了新思路——从堆长度转向堆密度。随着vLLM集成、多分辨率模式和开源生态的完善,DeepSeek-OCR已成为当前最具实用价值的文档理解解决方案之一。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1165606.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

MiDaS深度解析:1元体验SOTA模型,技术小白也能懂

MiDaS深度解析&#xff1a;1元体验SOTA模型&#xff0c;技术小白也能懂 你是不是也经常看到“SOTA模型”、“单目深度估计”这类术语就头大&#xff1f;论文一打开&#xff0c;满屏数学公式和专业名词&#xff0c;瞬间劝退。但其实&#xff0c;这些听起来高大上的AI技术&#…

基于改进粒子群算法的多无人机协同航迹规划(Matlab代码实现)

&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5; &#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密&#xff0c;逻辑清晰&#xff0c;为了方便读者。 ⛳️座右铭&a…

4G 显存即可运行!免环境搭建的 AI 电商换装工具实操指南

在电商视觉内容制作场景中&#xff0c;服装展示素材的生成常面临诸多痛点&#xff1a;专业模特拍摄成本高、后期换款修图耗时久、传统工具操作门槛高且对硬件配置要求苛刻。而一款支持免环境搭建、仅需 4G 显存即可流畅运行的 AI 换装工具&#xff0c;为这类需求提供了高效解决…

强烈安利9个AI论文工具,本科生轻松搞定论文写作!

强烈安利9个AI论文工具&#xff0c;本科生轻松搞定论文写作&#xff01; 论文写作的“救星”正在悄然改变你的学习方式 在当今这个信息爆炸的时代&#xff0c;本科生面对论文写作的压力日益增大。从选题到资料收集&#xff0c;再到撰写与修改&#xff0c;每一个环节都可能让人感…

UI-TARS-desktop案例解析:Qwen3-4B-Instruct在金融风控中的应用

UI-TARS-desktop案例解析&#xff1a;Qwen3-4B-Instruct在金融风控中的应用 1. UI-TARS-desktop简介 Agent TARS 是一个开源的多模态 AI Agent 框架&#xff0c;致力于通过融合视觉理解&#xff08;Vision&#xff09;、图形用户界面操作&#xff08;GUI Agent&#xff09;等…

Qwen-Image-Layered vs Photoshop:实测对比3种图层方案,2小时搞定选型

Qwen-Image-Layered vs Photoshop&#xff1a;实测对比3种图层方案&#xff0c;2小时搞定选型 你是不是也遇到过这样的情况&#xff1a;作为初创公司的产品经理&#xff0c;手头一堆营销海报、商品主图、社交媒体素材要出&#xff0c;设计师忙得焦头烂额&#xff0c;外包成本又…

程序员接单实用指南:平台选择、真实体验与避坑思路

欢迎来到我的博客&#xff0c;代码的世界里&#xff0c;每一行都是一个故事&#x1f38f;&#xff1a;你只管努力&#xff0c;剩下的交给时间 &#x1f3e0; &#xff1a;小破站 程序员接单实用指南&#xff1a;平台选择、真实体验与避坑思路程序员接单之前&#xff0c;需要先想…

部署bge-large-zh-v1.5省心方案:云端GPU按小时计费,1块钱起

部署bge-large-zh-v1.5省心方案&#xff1a;云端GPU按小时计费&#xff0c;1块钱起 你是一位自由译者&#xff0c;每天面对大量专业文献、技术文档和客户术语表。你想建立一个个人术语库智能管理系统&#xff0c;让AI帮你自动归类、匹配相似表达、快速检索历史翻译结果。但问题…

Open Interpreter物理仿真:数值计算脚本生成实战

Open Interpreter物理仿真&#xff1a;数值计算脚本生成实战 1. 引言&#xff1a;AI驱动的本地代码生成新范式 随着大语言模型&#xff08;LLM&#xff09;在代码生成领域的持续突破&#xff0c;开发者对“自然语言→可执行代码”工作流的需求日益增长。然而&#xff0c;多数…

Qwen3-1.7B模型加载异常?常见问题全解

Qwen3-1.7B模型加载异常&#xff1f;常见问题全解 1. 引言&#xff1a;Qwen3-1.7B的部署挑战与背景 随着大语言模型在实际应用中的广泛落地&#xff0c;轻量级、高效率的模型部署成为开发者关注的核心议题。Qwen3&#xff08;千问3&#xff09;是阿里巴巴集团于2025年4月29日…

Scrapy与Splash结合爬取JavaScript渲染页面

在网络爬虫的开发过程中&#xff0c;我们经常会遇到一类 “棘手” 的目标网站 —— 基于 JavaScript 动态渲染的页面。这类网站不会在初始 HTML 中直接返回完整数据&#xff0c;而是通过前端脚本异步加载、渲染内容。传统的 Scrapy 爬虫直接解析响应文本&#xff0c;往往只能拿…

实战演示:用麦橘超然Flux生成赛博朋克风城市街景

实战演示&#xff1a;用麦橘超然Flux生成赛博朋克风城市街景 1. 引言&#xff1a;AI图像生成的本地化实践新选择 随着生成式AI技术的快速发展&#xff0c;高质量图像生成已不再局限于云端服务。在边缘设备或本地环境中运行大模型成为越来越多开发者和创作者的需求。然而&…

Fun-ASR语音识别系统搭建:基于钉钉通义大模型的实操案例

Fun-ASR语音识别系统搭建&#xff1a;基于钉钉通义大模型的实操案例 1. 引言 随着语音交互技术在智能客服、会议记录、教育辅助等场景中的广泛应用&#xff0c;高精度、低延迟的语音识别系统成为企业数字化转型的重要工具。Fun-ASR 是由钉钉与通义实验室联合推出的语音识别大…

Qwen3-14B实战教程:从零开始部署企业级智能客服系统

Qwen3-14B实战教程&#xff1a;从零开始部署企业级智能客服系统 1. 引言 随着人工智能技术的快速发展&#xff0c;大型语言模型&#xff08;LLM&#xff09;在企业服务中的应用日益广泛。智能客服作为企业与用户交互的重要窗口&#xff0c;正逐步由规则驱动向AI驱动演进。Qwe…

GPT-OSS-20B-WEBUI参数调优:max_tokens与temperature设置建议

GPT-OSS-20B-WEBUI参数调优&#xff1a;max_tokens与temperature设置建议 1. 技术背景与应用场景 随着开源大模型生态的快速发展&#xff0c;OpenAI推出的GPT-OSS系列模型在社区中引发了广泛关注。其中&#xff0c;GPT-OSS-20B作为一款具备较强语言理解与生成能力的开源模型&…

5个必备翻译工具推荐:HY-MT1.5-1.8B镜像免配置上手

5个必备翻译工具推荐&#xff1a;HY-MT1.5-1.8B镜像免配置上手 1. 引言&#xff1a;轻量级多语翻译模型的工程突破 随着全球化内容消费和跨语言协作需求激增&#xff0c;高质量、低延迟、可本地部署的神经机器翻译&#xff08;NMT&#xff09;模型成为开发者与企业的刚需。然…

Qwen2.5-0.5B推理费用高?本地运行降本增效实战指南

Qwen2.5-0.5B推理费用高&#xff1f;本地运行降本增效实战指南 1. 背景与痛点&#xff1a;云上推理成本居高不下 随着大模型在各类业务场景中的广泛应用&#xff0c;推理服务的成本问题日益凸显。尤其是对于初创团队、个人开发者或边缘计算场景&#xff0c;依赖云端API调用的…

轻量翻译模型HY-MT1.5-1.8B:WMT25测试集表现分析

轻量翻译模型HY-MT1.5-1.8B&#xff1a;WMT25测试集表现分析 1. 引言 随着多语言交流需求的不断增长&#xff0c;神经机器翻译&#xff08;NMT&#xff09;已成为跨语言沟通的核心技术。然而&#xff0c;传统大模型在移动端部署面临显存占用高、推理延迟长等现实挑战。为解决…

Supertonic极速TTS实战:为技术类乐理博文注入声音

Supertonic极速TTS实战&#xff1a;为技术类乐理博文注入声音 1. 引言&#xff1a;当乐理遇上语音合成 在内容创作领域&#xff0c;文字依然是最主流的信息载体。然而&#xff0c;随着AI语音技术的发展&#xff0c;将静态文本转化为自然流畅的语音正成为提升阅读体验的重要手…

《创业之路》-859- 价值发现、价值实现、价值传递、价值回报是描述商业逻辑运行过程的动态流程,而商业模式画布是一种系统化表达商业模式的静态组成。

在商业模式分析中&#xff0c;价值发现、价值实现、价值传递、价值回报是描述商业逻辑运行过程的四个关键阶段&#xff0c;而商业模式画布&#xff08;Business Model Canvas&#xff0c;即“9宫格”&#xff09; 是一种系统化表达商业模式的工具。两者之间存在密切的对应关系&…