怎么生成网站地图做智能网站
web/
2025/10/6 21:20:53/
文章来源:
怎么生成网站地图,做智能网站,网上智慧团建入口,app软件开发费用大模型价格战#xff0c;这匹国产黑马又破纪录了#xff01;最低的GLM-4 Flash版本#xff0c;百万token价格已经低至0.1元#xff0c;可以说是击穿地心。MaaS 2.0大升级#xff0c;让企业训练私有模型的成本无限降低。
刚刚#xff0c;智谱AI开放日上#xff0c;新一代…大模型价格战这匹国产黑马又破纪录了最低的GLM-4 Flash版本百万token价格已经低至0.1元可以说是击穿地心。MaaS 2.0大升级让企业训练私有模型的成本无限降低。
刚刚智谱AI开放日上新一代MaaS平台2.0正式发布。
这次GLM技术团队带来的是从模型到成本、企业定制模型以及业务场景的全面升级。
令人惊喜的是第四代GLM系列开源模型GLM-4 9B官宣开源免费用还具备了多模态能力。同时新发布的GLM-4-AIR性能媲美此前的最大基座模型且价格降至1元/M token。 在5月这波价格战之后国内主流大模型API调用已经直降超90%。
需要明白的是即便token价格无限逼近零企业需要搞清楚如何用才能发挥巨大业务价值。
否则再便宜也是无用功。
这次的发布直接将智谱AI带入了商业化的最后一站。新一代MaaS平台出场便是一个很好的起点。
大模型2024既要落地又要开源 如果说2023年是世界发现生成式AI的一年那么2024年才是企业真正使用GenAI并从中获得商业价值的一年。
麦肯锡最新的全球调查报告称65%的受访者表示企业会经常使用生成式AI。
而这个数字比十个月前的调查33%几乎翻了一番。 对于企业来说从选用模型到以低成本微调部署模型并拥有灵活可用的全栈工具链是让GenAI走向落地必不可少的过程。
那些无法「造血」没有自研模型的公司就需要通过API、MaaS等平台以便让LLM融入工作流。
比如法律AI初创公司Harvey通过OpenAI API为律师们微调定制了一个「案例法模型」。
而且经过测试相较于GPT-4有97%的律师更喜欢使用Harvey的模型。
而另一个典型的案例是开源社区借助Llama 3之力已经大大加速GenAI在医疗领域的应用。
在英伟达NIM推理微服务平台支持下医疗开发者利用Llama 3已经开发出各种聊天助手、健康APP等。 反观国内LLM落地究竟有多火就从卷疯的token价格战可一瞥而知。
API价格已经卷疯 而在国产大模型的战场上价格战也在最近卷出新高。
智谱AI开放平台的新用户登录就送的500万token直接涨到2500万tokenGLM-3-Turbo每千token从0.005元直降到0.001元GLM-3 Turbo批处理API的价格也直接砍半每千token砍到0.0005元 随后火山引擎祭出更劲爆价格——豆包的企业定价直接击穿地心千token低至0.0008元比整个行业都便宜了99.3%。
智谱AI表示基于技术突破、效率提升和成本控制三个因素综合的结果。通过大模型价格调整更好满足开发者、客户需求。
当然价格战仅是智谱AI贯彻MaaS战略中的一个「支点」。
大厂MaaS如火如荼 大模型沸腾的热度也让国内厂商的MaaS发展如火如荼。
所谓MaaS即用户可以直接使用不同参数、不同规格的细分模型来应对千变万化的应用场景。
商业链路打通后蜂拥而至的开发者就会让应用商店持续繁荣形成「马太效应」。
今天的OpenDay上智谱AI宣布MaaS平台不仅已经拥有了30万注册用户而且模型的日均调用量也超过了400亿token。
在下面这条曲线中可以看出在过去6个月中智谱每日API的消耗量增长了50倍以上。这正说明已经有越来越多的企业已经真正把模型用到了日常工作中。
GLM-4的API调用量则则达到了90倍的增长。这也正说明企业已经开始利用模型能力进入深水区解决一些真正复杂的问题。 而今年大家开始对于大模型有了一些新的期待——除了更强大、更快的模型用户也开始对成本变得敏感。
模型升级0.1元写2本《红楼梦》
如今平台上已经全线接入新模型由ChatGLM3-6B升级为GLM-4-9B堪称“最能打的小模型”已经全面超过了 Llama3-8B-Instruct。 在开放平台上它变成GLM-4 Flash版本价格相对于GLM-3-Turbo再次降价10倍仅仅0.1元就可以拥有一百万tokens足够写两本四大名著了 如果小模型不能满足需求新推出的GLM-4-Air性能更加强大。它的性能跟和此前的GLM-4-0116相仿但价格仅为前者的百分之一一百万tokens仅需一元。
而许多企业应用到深水区时对速度也有极高的要求在此基础之上智谱加入了极速版。
效果不变但推理速度直升162%。71 token每秒相当于每秒可以直出100多个汉字 并且GLM-4-0116也同时升级了。
就在今天智谱推出了GLM-4-0520它的综合能力已经提升了11.9%。
真正做过模型的应用的人都明白这意味着什么虽然在数字上看来只是一点点的提升但这已经进一步提升了模型的天花板极大扩展应用的范围降低应用的成本。 如今智谱AI已经拥有全模型矩阵。
无论是GLM-4V还是CogView-3降价都达到了50%-60%——一张图只需一毛钱。 开放平台升级3步训出一个私有模型
每个企业都希望构建自己的私有模型。虽然开源生态让模型训练门槛大幅降低但对于绝大多数企业这个过程依然太复杂。 为此智谱AI也全面升级了自己的平台仅仅三步——准备数据、创建微调任务、部署模型就能让企业训出一个私有模型了
这个过程中不需要任何代码功底。而且GLM-4全系列模型都支持这样的微调。 针对企业智谱AI提供了两种模式LoRA微调和全参微调。
LoRA微调可以说是性价比之王用更低的成本达到较好的结果。
全参微调相当于是探索模型微调的极限。 可以看到训练成本可以降低到87%。在LoRA微调上GLM-4每千token只需要四毛钱GLM-4-Air则只需要三分钱。
比起训练千亿模型动辄需要的多台A100、A800显然门槛已经大幅降低。
而即使是全参微调的情况下GLM-4每千token也只需要六毛钱GLM-4-Air则只需要五分钱。
下面这个例子是一个发生在客户身上的真实实验。
客户需要模型能够提供某领域专业化的咨询服务于是智谱AI尝试为客户做了微调。
他们选择了6000条语料折合下来是一千万token。
训练后模型的可用性从60%直接上升到了89% 这不是一个简单的提升而是一个本质性的飞跃让模型从不可用变成了完全可用进一步探索了模型使用的边界。
所以这次微调的成本是多少
答案令人惊诧——如果使用LoRA的话成本仅为300元即使选择全参也只需要500元。 这个具体的demo可以让我们深刻地体会到如今训练出一个私有模型是多么容易。
另外在AllTools的API平台上智能体的能力能让大模型从解决一个单一任务变成处理一个复杂任务。
在企业端这样让使用模型的能力大幅度放开。
从此每一家企业都能制作自己的智能体以及智能体平台。
它可以让模型更好拆解任务更好调用上下文function call的能力还为企业提供了常用的一些智能体插件。
包括代码解释器、知识库检索增强、函数调用能力等等。 开放平台地址bigmodel.cn
国内开源影响世界 另一边国内模型开源掀起的风浪已然波及到全世界。
而坚持开源是智谱AI一直以来的传统。
他们不仅是国产LLM的领头羊也是大模型学术生态、开源生态中不可忽视首屈一指的中国力量。
目前为止智谱AI已经有三代模型全部开源。
6B系列开源模型在Github上已累计获得超过6万star相当于Llama系列模型的star总数超过了Grok和其他所有模型在Hugging Face上吸引了超过1300万次下载四周Hugging Face趋势榜第一。
GPT-4发布的同一天团队首次开源了ChatGLM-6B模型随后6月开源了二代6B模型并首次引入GQA、FlashAttention技术将模型上下文扩充到32K并加速了生成速度。
紧接着10月三代6B模型开源支持128K上下文。 GLM-4 9B系列免费开源
今天智谱带来了第四代开源模型最新成果——GLM-4-9B。
显然这次开源模型最大的变化是参数规模从6B升级到了9B并首次拥有了多模态能力。
而且基于强大基座模型GLM-4-9B不仅拥有更强的基础能力更长的上下文更精准的函数调用和All Tools能力。 比起上一代ChatGLM3-6B在5倍的计算量下GLM-4 9B的性能从61.4提升到了72.4中英文综合能力提升40%。
另外在与训练量更多的Llama-3-8B-Instruct较量中GLM-4-9B毫不逊色。
具体来说英文方面第四代模型小幅领先而在中文学科方面实现了50%的提升。 1M上下文一次读完2本《红楼梦》
除此以外GLM-4-9B的上下文从128K扩展到了1M可同时处理200万字的输入。
这相当于能够一次读完2本《红楼梦》又或是125篇论文。
在长度为128K的LongBench-Chat上GLM-4-9B-Chat模型相比上一代提升了20%。同时在长度为1M的大海捞针测试中GLM-4-9B-Chat-1M获得了「全绿」的成绩。 演示中在1M版本模型中输入《三体》的三本全集共90万字的内容。
然后给模型prompt「请仔细阅读上面的三部小说如果让你给这个小说写第四部你会怎么写请给出大纲」。
模型给出了比较合理的续写规划。 另外GLM-4-9B函数调用能力比上一代大幅提升40%。
在UC伯克利函数调用Leaderboard上9B模型函数调用能力即可媲美GPT-4-Turbo。 智谱AI在开源仓库中还提供了一个完整的All Tools Demo开发者可以在本地拥有一个轻量级的清言平替。 比如先用网页搜索「马拉松的世界纪录」然后用代码解释器去计算「跑步平均速度」。 搜索世界纪录 计算平均速度
All Tools还有非常多的组合开发者可以自行去探索。
多模态比肩GPT-4V
除了文本模型这次一并开源了多模态模型GLM-4V-9B。
最新模型采用了与CogVLM2相似的架构设计能够处理高达1120 x 1120分辨率的输入并通过降采样技术有效减少了token的开销。
与CogVLM的不同之处在于GLM-4V-9B并没有通过引入额外的视觉专家来增加参数量而是采用了直接混合文本和图片数据的方式进行训练。
这种训练方法使得GLM-4V-9B模型能够同时具备强大的文本和视觉处理能力实现了真正的多模态学习。 它能够以13B总参数激活量超越了一众多模态模型甚至比肩GPT-4V。 不如看看GLM-4V-9B在实际任务中的表现。
比如让模型去识别T恤上的公式印花——麦克斯韦方程式。
你甚至还可以追问关于方程组的细节模型可以凭借自己的文本能力完成回答。
这从另一方面印证了并没有因为引入多模态能力而丧失模型原本的文本能力。 在下面这个例子中是截取清华大学网络学堂的一个网页截图并要求模型翻译成HTML代码。
GLM-4V-9B就可以识别出其中元素并翻译成相应的代码。 整体来说GLM-4-9B模型共有9.4B参数是在10T的高质量多语言数据上完成了预训练几乎利用了所有网页数据。
其数据量是ChatGLM3-6B模型的3倍还要多。
与此同时智谱AI采用了FP8精度进行高效的预训练并成功收敛比起上一代模型训练效率提升3.5倍。
由此智谱AI将参数规模从6B扩展至9B并将预训练计算量增加了5倍。
基于文本基座打造的多模态模型GLM-4V-9B完全融合了文本和视觉模型并与GPT-4V不相上下。 成立于2019年智谱AI用了4年的时间从一家明星创业公司跻身为国内头部AI独角兽。
一直以来外界对智谱的印象是清华系国家队全面对标OpenAI技术领先to B气质强烈。
智谱不仅在大模型的能力上向OpenAI看齐而且在投资领域布局上也不遑多让深受资本青睐。 过去一年中他们完成了3次基座大模型升级迭代这次OpenDay 核心展示了面向AGI愿景的完整产品矩阵透传出未来商业化的模式。
智谱AI正把MaaS商业模式提升到新的境界。MaaS平台2.0的诞生将会进一步扩大智谱生态朋友圈。
如何学习AI大模型
作为一名热心肠的互联网老兵我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】 一、全套AGI大模型学习路线
AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能 二、640套AI大模型报告合集
这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。 三、AI大模型经典PDF籍
随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。 四、AI大模型商业化落地方案 作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/88114.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!