茂名优化网站建设家装网站
茂名优化网站建设,家装网站,榆林北京网站建设,长春人才网招聘前言
近日#xff0c;艾伦人工智能研究所联合多个顶尖学术机构发布了史上首个100%开源的大模型“OLMo”#xff0c;这一举措被认为是AI开源社区的一大里程碑。OLMo不仅公开了模型权重#xff0c;还包括了完整的训练代码、数据集和训练过程#xff0c;为后续的开源工作设立…前言
近日艾伦人工智能研究所联合多个顶尖学术机构发布了史上首个100%开源的大模型“OLMo”这一举措被认为是AI开源社区的一大里程碑。OLMo不仅公开了模型权重还包括了完整的训练代码、数据集和训练过程为后续的开源工作设立了新的标准。这一开源模型的推出无疑将极大促进自然语言处理NLP技术的发展和研究。 Huggingface模型下载https://huggingface.co/allenai/OLMo-7B AI快站模型免费加速下载https://aifasthub.com/models/allenai OLMo模型的创新之处
OLMo模型基于decoder-only的Transformer架构采用了PaLM和Llama使用的SwiGLU激活函数引入了旋转位置嵌入技术RoPE并改进了基于字节对编码BPE的分词器以减少模型输出中的个人可识别信息。此外该模型还采用了不使用偏置项的策略以增强模型的稳定性。 开源内容的全面性
OLMo的开源内容包括了模型的所有相关资料 模型权重和训练代码提供了四个不同架构、优化器和训练硬件体系下的7B大小的模型以及一个1B大小的模型。 预训练语料库包含高达3T token的开源语料库及其生成代码。 评估工具套件包括每个模型训练过程中每1000步中包含的超过500个的检查点以及评估代码。
性能评估
从评估结果来看OLMo-7B模型在多个核心任务上的准确率呈现上升趋势显示了良好的性能。尤其是在生成任务或阅读理解任务上OLMo-7B甚至超过了Llama 2等同类开源模型尽管在某些热门的问答任务上表现略逊。
在很多生成任务或阅读理解任务例如truthfulQA上OLMo-7B都超过了Llama 2但在一些热门的问答任务如MMLU或Big-bench Hard上表现则要差一些。 下图展示了9个核心任务准确率的变化趋势。
除了OBQA外随着OLMo-7B接受更多数据的训练几乎所有任务的准确率都呈现上升趋势。 与此同时OLMo 1B与其同类模型的核心评估结果表明OLMo与它们处于同一水平。 开源带来的影响
OLMo的全面开源不仅为AI研究提供了宝贵的资源还有助于降低研究和开发的门槛推动AI技术的创新和发展。通过这种开放的模式研究人员可以更深入地探索AI模型的内部运作机制共同推动语言模型科学的进步。
结论
OLMo的发布标志着AI开源模型进入了一个新的时代。随着越来越多的研究机构和企业加入到开源的行列我们有理由相信未来的AI技术将更加开放、透明和创新。
模型下载
Huggingface模型下载
https://huggingface.co/allenai/OLMo-7B
AI快站模型免费加速下载
https://aifasthub.com/models/allenai
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/92213.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!