LFM2-1.2B-Extract:9语文档智能提取新体验
【免费下载链接】LFM2-1.2B-Extract项目地址: https://ai.gitcode.com/hf_mirrors/LiquidAI/LFM2-1.2B-Extract
Liquid AI推出全新轻量级文档提取模型LFM2-1.2B-Extract,以12亿参数实现跨9种语言的非结构化文档智能提取,为企业级信息处理提供高效解决方案。
在数字化转型加速的当下,企业面临海量非结构化数据处理挑战。据Gartner预测,到2025年,80%的企业数据将以非结构化形式存在,而传统人工处理成本高、效率低,普通OCR工具又难以满足多语言、复杂格式的提取需求。此时,专门优化的文档提取AI模型成为打通数据孤岛的关键技术。
LFM2-1.2B-Extract基于Liquid AI的LFM2-1.2B基础模型开发,专注于将非结构化文档转化为JSON、XML或YAML等结构化格式。该模型支持英语、阿拉伯语、中文、法语、德语、日语、韩语、葡萄牙语及西班牙语共9种语言,可广泛应用于多场景:从发票信息提取、合规文档转换,到客服工单分析和知识图谱构建。
模型核心优势在于兼顾轻量化与高性能。采用贪婪解码(temperature=0)策略确保输出稳定性,通过自定义系统提示可精确控制输出格式与 schema。其ChatML类对话模板设计支持便捷集成,用户只需提供提取要求和原始文本,即可获得结构化结果。值得注意的是,该模型在仅12亿参数规模下,多项关键指标超越270亿参数的Gemma 3模型,展现出卓越的参数效率。
性能评估显示,在包含5000份跨100+主题文档的测试集上,LFM2-1.2B-Extract在语法正确性、格式准确性、关键词忠实度等维度表现优异。特别是在多语言混合文档处理场景中,其结构化输出的完整性和准确率显著优于同量级模型,为全球化企业提供了经济高效的本地化数据处理能力。
该模型的推出标志着轻量级专用模型在垂直领域的突破。通过聚焦文档提取这一核心任务,LFM2-1.2B-Extract在保持边缘设备部署能力的同时,实现了与大模型相当的专业性能。目前模型已在Hugging Face、llama.cpp等平台开放,并通过Liquid AI的LEAP平台提供企业级服务,为金融、法律、医疗等数据密集型行业带来智能化转型新工具。
【免费下载链接】LFM2-1.2B-Extract项目地址: https://ai.gitcode.com/hf_mirrors/LiquidAI/LFM2-1.2B-Extract
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考