ServiceNow周二与OpenAI签署了一项多年协议,该公司表示这一合作旨在"加速企业AI成果"。
该公司表示,计划使用OpenAI模型构建直接语音对语音技术,"打破语言障碍,提供更自然的交互体验。通过包括GPT-5.2在内的最新OpenAI模型,ServiceNow将为全球最大的企业解锁新一类AI驱动的自动化能力。"
当被问及此举的原因时,ServiceNow产品管理高级副总裁John Aisien表示:"与OpenAI的深度整合反映了客户需求和AI能力的快速拐点。随着AI模型发布的加速,大型企业需要帮助保持其工作流程与最新创新保持一致。"
他说,企业"正在寻求从AI实验转向大规模部署——转向安全、可扩展且旨在提供可衡量结果的工作流程。通过我们的AI控制塔以及与OpenAI的联合创新工作,与英伟达、Anthropic等的合作伙伴关系,我们满足了这些需求。"
Info-Tech研究集团咨询研究员Scott Bickley对此交易表示赞赏,指出由于ServiceNow仍将在OpenAI等前沿模型旁边提供其专有模型,企业将可以选择在开箱即用的Now Assist工作流程上运行哪种模型。不过他指出,这些工作流程在ServiceNow专有模型上效果最佳。
尽管如此,Bickley表示,大多数企业已经发现单一模型无法在所有事情上达到相同的熟练程度,并开始将特定模型定制用于特定用例。
他补充道:"两全其美的方法是明智的,前沿模型提供核心智能引擎,而专有模型针对需要专业知识库和更强护栏的情况。ServiceNow仍将基于其AI控制塔融入其工作流程特异性、数据治理和企业控制。"
此外,他指出:"现实是专有大语言模型的开发在整个生命周期中都很昂贵,需要持续关注和调优。在可能的情况下利用正在快速成为商品化的AI模型,并利用混合架构将前沿模型与企业逻辑和治理相结合,兼顾规模和上下文相关性,这在经济上是合理的。"
Moor Insights & Strategy副总裁兼首席分析师Jason Andersen表示,从最高层面来看,此举非常合理。他指出,增加OpenAI总体上对首席信息官来说是好消息。"如果他们已经有使用OpenAI模型和技术的策略,这可能会为他们节省一些资金。"
但他补充说,为业务调优或训练的大语言模型并未衰落。"我们正在走向智能体的世界,它们可以针对特定任务使用多个模型,"他说。ServiceNow足够聪明,知道其模型应该专注于最具体针对其客户流程和数据的任务,而更通用的事情可以用前沿模型来处理。
Greyhound Research首席分析师Sanchit Vir Gogia表示,此举现在发生是因为企业AI对话已经从辅助跨越到问责。"直到最近,ServiceNow还可以令人信服地论证业务调优模型是足够的,因为AI主要是增强性的,"他说。"它总结工单。它起草回复。它帮助智能体更快地移动,但人类仍然承担责任。"
这个边界"现在已经崩塌。客户希望AI能够开启案例、触发审批、升级事件、与遗留系统交互,并越来越多地通过语音和智能体而不是结构化用户界面进行操作,"他指出。"一旦AI被期望采取行动,推理质量和泛化深度就不再是锦上添花,而是开始成为运营风险变量。"
他补充说,还有一个残酷的内部现实:"前沿模型的节奏已经与企业软件开发周期不兼容。当智能每几周改善一次时,通过内部调优保持同等水平成为一个无休止的追赶练习,分散人才、资本和注意力,远离平台层。"
他说,ServiceNow并没有对其模型失去信心,"而是更清楚地知道时间花在哪里更好。其可防御的优势不是语言智能。而是工作流程权限、权限、数据关系和大规模治理。"
Gogia说,另一个未被充分讨论的驱动因素是客户疲劳。"企业不再对专有AI的声明印象深刻,"他指出。"他们被模型蔓延、不透明的成本和分散的控制所压倒。他们想要的是一个能够吸收智能改进而不强制每季度进行架构重写的系统。"
此外,他对首席信息官有这样的建议:"最危险的解读是认为业务调优模型已经过时。它们没有过时。过时的是认为一种模型策略可以满足所有企业需求的假设。企业AI堆栈是有意分化的,而不是偶然的。"
Gogia补充说,ServiceNow的举措"应该被解读为既是警告也是机遇。企业AI堆栈正在变得分层、更快和更重要。继续从工具和功能角度思考的首席信息官将会遇到困难。从系统、控制和故障模式角度思考的首席信息官将是提取真正价值的人。"
Q&A
Q1:ServiceNow与OpenAI合作的主要目标是什么?
A:ServiceNow与OpenAI签署多年协议,旨在"加速企业AI成果"。该合作将构建直接语音对语音技术,打破语言障碍,提供更自然的交互体验,并通过最新OpenAI模型为全球最大企业解锁新一类AI驱动的自动化能力。
Q2:企业为什么需要多模型策略而不是单一AI模型?
A:分析师指出,大多数企业已经发现单一模型无法在所有任务上达到相同的熟练程度。最佳策略是前沿模型提供核心智能引擎,而专有模型针对需要专业知识库和更强护栏的特定用例,这样既能兼顾规模又能保持上下文相关性。
Q3:这种合作对企业首席信息官有什么影响?
A:对于已有OpenAI使用策略的首席信息官来说,这可能会节省资金。同时,企业AI堆栈正变得更加分层和复杂,需要从系统、控制和故障模式角度思考,而不是仅从工具和功能角度考虑,才能提取真正价值。