重磅!Meta 发布 Llama 3,前所未有的强大功能和多模态能力|TodayAI

Meta今日宣布推出其最新一代尖端开源大型语言模型Llama 3。该模型预计很快将在多个领先的云服务平台上线,包括AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM和Snowflake。

Llama 3模型得到了AMD、AWS、Dell、Intel、NVIDIA和Qualcomm等硬件平台的大力支持。Meta表示,他们致力于负责任地开发和推广Llama 3,为此引入了多项新的信任与安全工具,例如Llama Guard 2、Code Shield和CyberSec Eval 2。

在接下来的几个月中,Meta计划引入多项新功能,提供更长的上下文窗口、更多的模型尺寸选择,并进一步提升性能。此外,Meta还计划发布有关Llama 3的研究论文,以分享其技术细节和成就。

Llama 3技术使Meta AI成为全球领先的AI助手之一,旨在通过学习、完成任务、创造内容及更多方式增强用户智能和减轻负担。用户现已能够体验Meta AI的服务。

Meta同时推出了Llama 3的两个版本,包括预训练和指令微调的语言模型,分别具有8B和70B的参数,以支持广泛的应用场景。该模型在各种行业基准测试中展示了卓越性能,并引入了改进的推理功能。Meta坚信,这些都是目前最优秀的同类开源模型。

为了维护开放和共享的精神,Meta已将Llama 3交由社区使用,期望激发AI技术在整个技术堆栈中的创新,从应用开发到开发者工具,再到评估和推理优化等。Meta热切期待看到社区使用Llama 3取得的成果,并希望收到广泛的反馈。

尽早并频繁发布的策略

Meta已设定其新一代开源大型语言模型Llama 3的发展目标,旨在建构能够与当前市场上顶尖的专有模型竞争的优秀模型。公司计划依据开发者社区的反馈来增强Llama 3的整体实用性,并持续在负责任地使用和部署大型语言模型的领域中发挥领导作用。

为了贯彻开源精神,Meta采取了尽早并频繁发布的策略,确保社区在模型仍在开发阶段时即可访问和使用这些工具。作为Llama 3系列的首款产品,今天发布的模型主要基于文本处理。

Meta的近期计划包括扩展Llama 3的功能,使其支持多语言和多模态输入,并提供更长的上下文理解能力。此外,公司还致力于在模型的核心功能,如推理和编程上,持续提升性能,以满足更广泛的应用需求。

显著的性能提升

Meta的最新8B和70B参数模型Llama 3在先前版本Llama 2的基础上实现了显著的性能提升,设定了大型语言模型的新标准。这两个模型通过预训练和训练后的改进,已成为同类规模中的领先者。


 

具体来说,这些模型在减少错误拒绝率、提高对齐度以及增加模型响应多样性方面实现了显著的进步。 

 

此外,Meta还大幅提升了模型在推理、代码生成和指令遵循等关键功能上的能力,进一步增强了Llama 3的指导性和实用性。 

 

庞大的训练数据集

为了开发出卓越的语言模型,Meta投入了大量资源以策划一个庞大且高质量的训练数据集,这是培养成功的语言模型的关键因素。Llama 3模型在预训练阶段使用了超过15T的令牌,这些令牌均来自公开可获取的数据源。相比于Llama 2, Llama 3使用的训练数据集增加了七倍,其中包含的代码量也增加到了四倍。

为了满足即将推出的多语言用例,Llama 3的预训练数据集中超过5%的内容是覆盖30多种语言的高质量非英语数据。尽管如此,开发团队并不期望这些非英语语言的性能能完全与英语相匹敌。

为了确保Llama 3在最优质的数据上进行训练,Meta开发了一系列数据过滤管道,包括启用启发式过滤器、不适宜工作内容(NSFW)过滤器、语义去重技术以及用于预测数据质量的文本分类器。值得一提的是,先前版本的Llama模型在识别高质量数据方面表现卓越,因此Meta利用Llama 2生成了推动Llama 3的文本质量分类器的训练数据。

通过广泛的实验评估混合不同来源数据的最佳方式,Meta能够选择一个优化的数据组合,确保Llama 3在多种应用场景中,如小知识点问题、科学技术工程数学(STEM)、编程和历史知识等,都能有出色的表现。

扩大训练规模

在Meta的最新Llama 3模型开发过程中,公司为了有效地利用其庞大的预训练数据集,投入了大量资源扩大训练规模。这包括制定一系列详细的下游基准评估规模法则,以选择最佳数据组合并做出明智的计算资源分配决策。这些规模法则还使公司能够预测最大模型在关键任务上的表现,如基于HumanEval基准的代码生成,这些预测在实际训练模型前已经进行。

在开发Llama 3的过程中,Meta观察到几个新的规模行为模式。例如,尽管8B参数模型的最佳训练计算量对应于大约200B个令牌,但模型性能随着训练量增加至两个数量级后仍然在提高。公司的8B和70B参数模型在训练达到15T令牌后,性能持续呈对数线性提升。大型模型虽然可以用较少的训练计算匹配较小模型的性能,但较小模型由于在推理过程中更高的效率,通常更受青睐。

为了优化其最大的Llama 3模型,Meta结合了数据并行化、模型并行化和流水线并行化三种类型的并行化策略。在使用高达16K GPU进行训练时,其最高效的实现计算利用率超过400 TFLOPS每GPU。此外,Meta在两个定制构建的24K GPU集群上进行了训练。为了最大化GPU运行时间,公司开发了一个先进的训练堆栈,能够自动检测、处理和维护错误,并且显著提高了硬件可靠性和静默数据腐败检测机制。新的可扩展存储系统减少了检查点和回滚的开销,这些改进使整体有效训练时间超过95%,将Llama 3的训练效率提高了约三倍。

指令微调

在开发Llama 3模型的过程中,Meta采用了创新的指令微调技术以最大化其预训练模型在聊天应用场景中的效能。该公司的微调方法包括监督式微调(SFT)、拒绝采样、邻近策略优化(PPO)以及直接策略优化(DPO)。特别是在SFT中使用的提示和在PPO及DPO中使用的偏好排名对模型性能的提升有着显著影响。

Meta对这些数据进行了精心策划,并对人类注释员提供的注释进行了多轮质量保证,这些都是模型质量提升的关键因素。通过PPO和DPO学习偏好排名,Llama 3在推理和编程任务上的表现也得到了显著提高。公司观察到,当模型面对难以回答的推理问题时,它有时能够生成正确的推理轨迹,即模型知道如何得出正确答案,但之前不知道如何选取它。通过偏好排名的训练,模型学会了如何选取正确的答案,从而提高了整体性能和应用效果。

与Llama 3共建

在最近的Llama 3发布中,Meta推出了新的信任与安全工具,旨在使开发者能够更容易地定制Llama 3以支持相关用例,并推动最佳实践和开放生态系统的改进。这些工具包括带有Llama Guard 2和Cybersec Eval 2的更新组件以及新引入的Code Shield,一个用于过滤生成的不安全代码的推理时保护装置。

此外,Meta还与torchune合作开发了Llama 3,这是一个全新的PyTorch原生库,旨在简化编写、微调和实验大型语言模型(LLMs)的过程。torchune库提供了内存高效且易于修改的训练配方,完全使用PyTorch编写。该库已与Hugging Face、Weights & Biases和EleutherAI等流行平台集成,并支持Executorch,以便在各种移动和边缘设备上高效运行推理。

Meta提供了全面的入门指南,从下载Llama 3开始,覆盖提示工程和与LangChain的集成,指导开发者在生成式AI应用中进行规模部署。这一系列工具和资源旨在增强Llama 3的可定制性和易用性,同时确保其在各种应用场景中的安全性和效率。

负责任的部署

Meta在设计其最新的Llama 3模型时,采取了一种系统级的方法,旨在确保其模型不仅在行业中以负责任的方式部署,同时也能最大限度地提供帮助。公司视Llama模型为更广泛系统的一部分,使开发者能够根据自己的独特目标设计系统,将Llama模型作为核心组成部分。

 

在确保模型安全性方面,指令微调发挥了关键作用。Llama 3的指令微调模型已经通过了一系列内部和外部的红队安全测试,这些测试包括由人类专家和自动化系统执行的对抗性提示生成,以诱发并识别潜在的问题响应。例如,Meta对模型在化学、生物和网络安全等高风险领域的误用进行了全面测试,这些测试旨在评估和减少滥用风险。

此外,Llama Guard模型被设计为一个安全提示和响应的基础框架,可以根据具体应用需求进行灵活微调,创建新的分类法。最新的Llama Guard 2采用了最近宣布的MLCommons分类法,支持这一重要行业标准的发展。同时,CyberSecEval 2在其前身基础上进行了扩展,增加了对LLM的安全性能评估,包括防止其代码解释器被滥用、网络安全能力被恶意利用和对提示注入攻击的抵抗力。

最后,Meta引入了Code Shield,增强了对推理时过滤不安全代码的支持,提供了围绕不安全代码建议、代码解释器滥用预防和安全命令执行的风险缓解措施。这些努力的详细描述可在公司发布的模型卡和技术论文中找到。

全球范围的部署

Llama 3模型即将在全球范围内的所有主要平台上推出,包括各大云服务提供商和模型API提供商,预计将实现广泛的可访问性。

根据Meta的基准测试,Llama 3的新标记器在令牌效率上有显著提升,与前代模型Llama 2相比,令牌使用量减少了多达15%。此外,群组查询注意力(GQA)技术已被整合到Llama 3的8B版本中。尽管Llama 3的参数量比Llama 2的7B版本多出1B,但得益于标记器效率的提升和GQA的添加,Llama 3保持了与Llama 2相当的推理效率。

对于希望了解如何利用这些新功能的开发者,Meta推荐查阅Llama Recipes,这是一系列包含从微调到部署再到模型评估各个环节的开源代码示例,旨在帮助用户最大化Llama 3模型的应用潜力。

Meta的未来计划

Meta的新语言模型Llama 3已经发布了其8B和70B参数版本,这只是该公司为Llama 3计划发布的众多内容的开始。Meta还计划在未来几个月推出多个功能更加丰富的模型,包括多模态性、多语言对话能力、更长的上下文窗口以及更强大的总体性能。其中,最大的模型已经达到了400B参数,虽然这些模型仍在训练中,但Meta团队对其发展趋势表示非常期待。

 

一旦Llama 3的开发和训练完成,Meta还计划发布一篇详细的研究论文,以深入介绍这些模型的技术和性能。为了让公众提前了解这些模型的当前状态,Meta提供了一些关于其最大语言模型(LLM)的发展趋势的快照,尽管需要注意,这些数据基于目前仍在训练中的Llama 3的早期检查点,并且今天发布的模型尚未支持这些新功能。

Meta强调,他们致力于持续发展和开发一个开放的AI生态系统,并负责任地发布其模型。公司一直认为,开放性能够带来更优质、更安全的产品,加速创新,并促进市场的整体健康。这种策略不仅对Meta有利,对整个社会同样有益。目前,Llama 3已在全球领先的云平台、托管服务和硬件平台上提供,并且未来将会有更多的扩展。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/825754.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【深度学习】yolov5目标检测学习与调试

2024.4.15 -2024.4.16 完结 0.准备&&补充知识点 yolo检测算法可以实现目标检测、分割和分类任务。 项目仓库地址:https://github.com/ultralytics/yolov5 跟练视频:目标检测 YOLOv5 开源代码项目调试与讲解实战 lux下载视频神器:h…

2W 3KVDC 隔离 稳压单输出 DC/DC 电源模块——TPK-SAR 系列介绍

TPK-SAR系列产品是专门针对PCB上分布式电源系统中需要与输入电源隔离且输出精度要求较高的电源应用场合而设计。该产品适用于;1)输入电源的电压变化≤5%;2)输入输出之前要求隔离电压≥3000VDC;3)对输出电压…

idea新建一个springboot项目

本文分为几个部分, 首先是在idea中新建项目, 然后是配置 项目的目录(新建controller、service、dao等), 然后是自定义的一些工具类(比如启动后打印地址等)。 1.、创建篇 新建项目&#xff0…

IO基础-传统I/O模型

关于IO数据流有两种形式,来源于网络和磁盘分别叫做网络IO、磁盘IO。 客户端通过TCP和UDP协议将数据流发往服务端,服务端接收数据这个过程称为网络IO。 服务端读取本地文件数据到服务中的过程称为磁盘IO。 基于 Linux 一切皆文件的理念,在内…

[大模型]Qwen-7B-Chat WebDemo

Qwen-7B-Chat WebDemo 环境准备 在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8 接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo…

AI大模型日报#0419:全球最强开源大模型 Llama 3 发布:15T 数据预训练,参数将超 4000 亿

导读: 欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”生成了每条资讯的摘要。 标题: 刚刚,全球最强开源大模型 Llama 3 发布:使用 15T 数据预训练,最大模型参数将超 4000 亿 摘要…

【目标跟踪】ByteTrack详解与代码细节

文章目录 一、前言二、代码详解2.1、新起航迹2.2、预测2.3、匹配2.4、结果发布2.5、总结 三、流程图四、部署 一、前言 论文地址:https://arxiv.org/pdf/2110.06864.pdf git地址:https://github.com/ifzhang/ByteTrack ByteTrack 在是在 2021 年 10 月…

书生浦语训练营第2期-第4节笔记

一、为什么要微调? 1. 适应特定任务或领域:虽然预训练的模型通常具有广泛的知识和理解能力,但它们可能不完全适应特定任务的需求。通过在特定的数据集上微调模型,可以使模型更好地理解和处理与特定任务或领域相关的数据。 2. 提高…

【uniapp】微信小程序2024手机号快速验证及无感登录教程(内附代码)

组件:手机号快速验证组件 适用对象:企业/个体 费用:0.03元/次 目录 前言思路前端后端代码无感登录onload事件无感登录方法登录判断后端mini_login2 最后 前言 最近注册了公司,可以注册具有支付能力的小程序了,各种材料…

在Nuxt.js中添加PostCSS自动前缀器

在其他浏览器中,有些 CSS 属性需要带有前缀。如-webkit- | -o- | -ms- 等等 Autoprefixer 是一个 PostCSS 插件,可以将你的CSS代码渲染到浏览器中自动补充厂商前缀,因此你不用担心自己编写的CSS代码有浏览器兼容性问题。 如: .fl…

kaggle咖啡销售分析案例侧重可视化折线图条形图扇形图柱状图

目录 概述 环境依赖 数据描述 代码概述 导包 数据读取 统计缺失值 数据结构概述 描述统计 时间轴数据转换 月交易统计直方图 周交易统计图 小时数据转换 小时折线图 销售关系可视化统计 销售占比扇形图 价格箱线图 各类别多维度条形图统计 商店位置交易量折线…

重磅福利!参与现金红包抽奖活动,赶快行动吧!

文章目录 粉丝福利 粉丝福利 亲爱的朋友们,令人振奋的消息来啦!本月,我们特地为大家准备了一份特别的粉丝福利!只要您轻轻一点,关注我们的公众号,就有机会抽取现金红包,让您的生活多一份惊喜与喜…

【微信公众平台】扫码登陆

文章目录 前置准备测试号接口配置 带参数二维码登陆获取access token获取Ticket拼装二维码Url编写接口返回二维码接收扫描带参数二维码事件编写登陆轮训接口测试页面 网页授权二维码登陆生成ticket生成授权地址获取QR码静态文件支持编写获取QR码的接口 接收重定向参数轮训登陆接…

游泳耳机哪个牌子好?体验与口碑兼顾的4大游泳耳机汇总!

最近的天气越来越炎热了,许多人选择游泳作为一种既能锻炼身体又能享受清凉的活动。而随着科技的发展,越来越多的运动爱好者希望在游泳时也能享受到音乐的乐趣。因此,游泳耳机应运而生,成为市场上的热门产品。然而,面对…

使用PixVerse使用指定的角色生成视频

PixVerse 是一款可以将文字描述转换为高清视频的AI视频生成工具,它还支持直接生成原神角色的专属动画视频。以下是如何使用PixVerse使用指定的角色生成视频的步骤: 1. 点击PixVerse 网址 访问以下网址:https://app.pixverse.ai/create/vide…

jvm中的垃圾回收器

Jvm中的垃圾回收器 在jvm中,实现了多种垃圾收集器, 包括: 1.串行垃圾收集器 2.并行垃圾收集器 3.CMS(并发)垃圾收集器 4.G1垃圾收集器 1.串行垃圾回收器 效率低,使用较少 2.并行垃圾回收器 3.并发垃圾回…

软件估算的方法、过程、内容解读(估算指南)

4 估算方法 4.1 基于经验的方法 4.1.1 头脑风暴法 4.1.2 Delphi方法 4.1.2.1 过程图 4.1.2.2 组建评估组 4.1.2.3 系统介绍 4.1.2.4 系统分解与假设 4.1.2.5 设定偏差值 4.1.2.6 个人估计 4.1.2.7 估计结果汇总 4.1.2.8 估计差异讨论 4.1.2.9 结束 4.2 分解的方法…

Brainpan(VulnHub)

Brainpan 1、nmap 2、web渗透 随便看看 目录爆破 使用不同工具,不同字典进行爆破 9999端口分析 10000端口分析 字符串信息中,提示这个程序不能运行在DOS模式下,然后有32个A,还有一行关于复制字节到缓冲区的信息,还有一…

谈谈前端CSS盒模型

前言: 什么是CSS盒模型?盒模型的构造? 在前端开发中,CSS 盒模型是一种非常基础且核心的概念,它描述了文档中的每个元素被框架处理的方式。 ---- 打开浏览器开发者工具,查看Elements右侧下的Styles底部。 …

libVLC Ubuntu编译详解

1.简介 有时候,windows上开发不满足项目需求,需要移植到linux上,不得不自行编译libvlc,编译libvlc相对而言稍微麻烦一点。 我使用的操作系统:Ubuntu20.04 查看系统命令lsb_release -a libvlc版本: 3.0.1…