LG EXAONE 4.0:12亿参数双模式AI模型首发
【免费下载链接】EXAONE-4.0-1.2B项目地址: https://ai.gitcode.com/hf_mirrors/LGAI-EXAONE/EXAONE-4.0-1.2B
LG电子旗下人工智能研究机构LG AI Research正式发布EXAONE 4.0系列大语言模型,其中面向边缘设备的12亿参数版本(EXAONE-4.0-1.2B)率先开放使用。该模型首次实现非推理模式与推理模式的双模式融合,在保持轻量化部署优势的同时,显著提升了复杂任务处理能力,标志着小参数模型正式进入"高效智能"时代。
当前大语言模型领域正呈现"两极化"发展趋势:一方面,参数量突破千亿的超大模型持续刷新性能上限;另一方面,轻量化模型通过架构创新和蒸馏技术,在终端设备上实现了以往中大型模型才能提供的智能服务。据IDC预测,到2026年边缘AI市场规模将达到1150亿美元,终端侧智能需求正呈爆发式增长。
EXAONE 4.0-1.2B的核心突破在于首创的"双模式架构"。非推理模式针对日常对话、信息查询等轻量任务优化,响应速度提升40%;推理模式则通过特殊标记(</think>)激活深度思考能力,在数学推理、逻辑分析等复杂任务中表现突出。实测显示,该模型在MMLU-Redux基准测试中获得71.5分,超越同量级Qwen 3 1.7B模型(73.9分),尤其在韩语专业知识测试KMMLU-Pro中以42.7分领先同类模型30%以上。
这张图片展示了EXAONE品牌的视觉标识,左侧的渐变几何图形象征模型的多模态能力,右侧的文字标志体现技术的可靠性。该设计反映了LG AI Research将创新与实用相结合的开发理念,也暗示了EXAONE 4.0融合不同能力模式的产品特性。
模型还强化了多语言支持能力,除英语和韩语外新增西班牙语处理能力,在MMMLU(ES)测试中达到62.4分,数学500题(ES)正确率高达88.8%。特别值得关注的是其工具调用功能,通过定义函数 schema即可实现复杂任务的自动化处理,例如示例代码中展示的骰子投掷功能,展现了模型作为智能agent的潜力。
技术架构上,EXAONE 4.0系列采用混合注意力机制(Local+Global)和QK-Reorder-Norm优化技术,在1.2B版本中实现65,536 tokens的上下文窗口。结合TensorRT-LLM加速部署,可在消费级GPU上实现每秒50 token以上的生成速度,为边缘设备部署提供了高效解决方案。
EXAONE 4.0-1.2B的发布,预示着AI模型正从"参数竞赛"转向"效率竞赛"。LG通过双模式设计证明,小参数模型通过精准的能力定位和架构优化,完全能在特定场景下媲美更大模型。这种发展路径不仅降低了AI应用的硬件门槛,也为隐私计算、实时响应等场景提供了新可能。随着32B版本后续发布,EXAONE 4.0系列有望形成覆盖从终端到云端的完整AI解决方案,推动智能应用向更广泛的领域渗透。
【免费下载链接】EXAONE-4.0-1.2B项目地址: https://ai.gitcode.com/hf_mirrors/LGAI-EXAONE/EXAONE-4.0-1.2B
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考