企业在构建和购买生成式AI的方法上正在经历16种变化

企业在构建和购买生成式AI的方法上正在经历16种变化-3

2023 年,生成式人工智能(AI)以惊人的速度席卷了消费市场,消费者的支出迅速突破了十亿美元大关。展望 2024 年,我们预计在企业级市场,生成式 AI 的收入潜力将迎来数倍的增长。

回顾去年,消费者热衷于与 AI 伴侣(如Character AI)进行互动交流,或是利用扩散模型创作图像和视频。与此同时,企业对生成式 AI 的应用似乎还停留在一些显而易见的场景,以及推出一些简单的“GPT包装”产品。一些悲观者对生成式 AI 在企业中的扩展能力表示怀疑:我们是否只有三个应用场景?这些初创企业真的能够盈利吗?这一切是否只是炒作?

近几个月,我们与众多财富 500 强企业和顶尖企业的领导者进行了深入交流,并调查了超过 70 位企业决策者,以探究他们对生成式 AI 的使用、采购和预算安排。

我们惊讶地发现,在过去六个月中,这些企业对生成式 AI 的资源投入和态度发生了显著变化。尽管这些领导者对部署生成式 AI 仍持谨慎态度,但他们的预算几乎翻了三倍,同时在开源模型上部署的用例数量也在增加,更多实验性工作负载开始转向生产环境。

对于创业者而言,这是一个巨大的机遇。我们认为,那些能够 1) 针对企业以 AI 为核心的战略规划进行产品开发,并预见潜在问题点,以及 2) 从侧重服务的模式转变为打造可扩展产品的 AI 初创企业,将能够抓住新一轮的投资浪潮,并在市场中占据重要地位。

和往常一样,为企业打造和销售产品需要深刻理解客户的预算、顾虑和发展规划。为了帮助创业者洞察企业领导者在部署生成式 AI 方面的决策过程——同时也为了让 AI 领域的其他领导者了解同行是如何处理相同问题的——我们在下文中总结了我们近期与这些领导者对话中关于资源配置、模型选择和应用场景的 16 个关键考量点。

资源配置:预算的大幅增长已成定局

1. 企业对生成式 AI 的预算正在飞速增长

2023 年,我们调研的数十家公司在基础模型 API、自托管和微调模型上的平均每年支出达到了 700 万美元。而且,我们接触到的几乎所有企业都对生成式 AI 实验的初步成效表示乐观,并计划在 2024 年将预算增加 2 至 5 倍,以便支持更多工作负载转向生产环境。

企业在构建和购买生成式AI的方法上正在经历16种变化-4

2. 企业领导者开始将人工智能投资转移到持续性的软件预算中

去年,企业在生成式 AI 上的支出主要来自于“创新”预算和其他一次性资金来源,这并不令人意外。然而,在 2024 年,许多领导者正在将这些资金转移到更为稳定的软件预算项目中;不到四分之一的受访企业表示今年的生成式 AI 支出将来源于创新预算。我们还注意到,一些领导者开始将生成式 AI 预算用于节省人力成本,尤其是在客户服务领域。

如果这一趋势持续下去,我们预计未来对生成式 AI 的投资将会大幅增加。有企业表示,他们的 LLM 驱动的客户服务每处理一个电话可以节省约 6 美元的成本,总计可节省约 90% 的开支,这也是他们决定将生成式 AI 投资增加八倍的原因之一。

以下是企业如何分配 LLM 预算的概览:

企业在构建和购买生成式AI的方法上正在经历16种变化-5

3. 衡量投资回报率(ROI)仍然是一个复杂的过程

目前,企业领导者主要通过 AI 提升的生产力来衡量 ROI。尽管他们依赖 NPS 和客户满意度作为衡量的代理指标,但他们也在寻找更具体的衡量方法,比如根据具体用例的收入增长、节省成本、效率提升和准确性提高等。

短期内,领导者们仍在推广这项技术,并探索最佳的衡量指标,但在未来 2 至 3 年,ROI 将成为越来越重要的考量因素。在领导者们寻找答案的过程中,许多人选择相信员工的说法,即他们能更有效地利用时间。

企业在构建和购买生成式AI的方法上正在经历16种变化-6

4. 部署和扩展生成式 AI 需要具备相应的技术人才,而目前许多企业内部并不具备这样的专业人才。

仅仅接入模型提供商的 API 并不足以支持生成式 AI 解决方案的大规模部署。实施、维护和扩展所需的计算基础设施需要高度专业化的人才。仅实施一项就占据了 2023 年 AI 支出的主要部分,在某些情况下甚至是最大的支出项。一位高管指出,“LLMs 的成本可能只占构建用例成本的四分之一”,而开发成本则占据了预算的大部分。

为了帮助企业快速启动和运行他们的模型,基础模型提供商提供了专业服务,通常涉及定制模型开发。我们估计这些服务在 2023 年为这些公司带来了可观的收入,并且除了性能之外,也是企业选择特定模型提供商的关键因素之一。鉴于在企业中招募到合适的生成式 AI 人才非常困难,那些提供工具以简化企业内部生成式 AI 开发流程的初创企业可能会更快地得到市场的认可和采用。

模型选择趋势:企业正逐步迈向多元化和开源化

5. 未来的模型选择趋向多样化

六个月前,大部分企业还在尝试单一模型(通常是 OpenAI 的)或最多两个模型。然而,现在与企业领导者的交流显示,他们正在测试——甚至在某些情况下已经在生产环境中使用——多个模型。这种做法使他们能够 1) 根据不同的性能、规模和成本来定制用例,2) 避免过度依赖单一供应商,3) 快速利用该领域快速发展的成果。由于模型排名不断变化,领导者特别看重这一点,因为他们希望整合当前最先进的模型和开源模型,以获得最佳效果。

企业在构建和购买生成式AI的方法上正在经历16种变化-7

预计未来会有更多模型涌现。根据调查数据,企业领导者报告了多个正在测试的模型,这预示着未来将用于生产的模型。在生产用例中,OpenAI 仍然占据主导市场份额。

企业在构建和购买生成式AI的方法上正在经历16种变化-8

6. 开源模型的兴起

过去六个月中,最令人惊讶的变化之一是开源模型的兴起。我们估计 2023 年的市场份额有 80%–90% 是闭源的,主要流向 OpenAI。然而,46% 的受访者表示,他们偏好或强烈偏好进入 2024 年的开源模型。

在访谈中,近 60% 的 AI 领导者表示,他们有兴趣增加开源使用或在开源模型的性能与闭源模型相匹配时进行转换。因此,企业预计在 2024 年及以后,将有一个显著的使用转向开源,有些甚至明确目标是实现 50/50 的分割——从 2023 年的 80% 闭源/20% 开源分割上升。

企业在构建和购买生成式AI的方法上正在经历16种变化-9

7. 成本虽然是开源模型吸引力的一个因素,但在选择标准中排在控制和定制之后

控制(专有数据的安全性和理解模型为何产生特定输出)和定制(有效微调给定用例的能力)远比成本更重要。尽管成本不是首要考虑因素,但这反映了领导层的信念,即生成式 AI 创造的额外价值将远远超过其价格。一位高管解释说:“获得准确的答案是值得的。”

企业在构建和购买生成式AI的方法上正在经历16种变化-10

8. 对控制的需求源于对敏感用例和企业数据安全的担忧

由于监管或数据安全考虑,企业仍然不愿意与闭源模型提供商共享他们的专有数据,尤其是那些知识产权是其商业模式核心的公司。一些领导者通过自己托管开源模型来解决这个问题,而其他人则优先考虑具有虚拟私有云(VPC)集成的模型。

9. 领导者通常通过微调而不是从头开始构建模型来定制模型

在 2023 年,围绕构建定制模型(如 BloombergGPT)有很多讨论。到了 2024 年,尽管企业仍然对定制模型感兴趣,但随着高质量开源模型的兴起,大多数人选择不从头开始训练自己的 LLM,而是使用检索增强生成(RAG)或为特定需求微调开源模型。

企业在构建和购买生成式AI的方法上正在经历16种变化-11

10. 云服务提供商在模型购买决策中仍然具有重要影响

在 2023 年,许多企业出于安全原因通过其现有的云服务提供商(CSP)购买模型,领导者更担心闭源模型处理他们的数据不当,而不是他们的 CSP。这种情况在 2024 年仍然存在,这意味着 CSP 和首选模型之间的相关性很高:Azure 用户通常偏好 OpenAI,而 Amazon 用户偏好 Anthropic 或 Cohere。在调查中,使用 API 访问其模型的 72% 的企业中,超过一半使用了其 CSP 托管的模型。(请注意,超过四分之一的受访者选择了自托管,可能是为了运行开源模型。)

企业在构建和购买生成式AI的方法上正在经历16种变化-12

11. 客户仍然关注早期市场特性

尽管领导者提到了推理能力、可靠性和易于访问(例如,在他们的 CSP 上)作为采用特定模型的首要原因,但他们也倾向于选择具有其他差异化特性的模型。多位领导者提到,之前的 200K 上下文窗口是他们选择 Anthropic 的关键原因,而其他人则因为 Cohere 提供的早期市场、易于使用的微调产品而选择它。

12. 尽管如此,大多数企业认为模型性能正在趋同

虽然技术社区的大部分关注点在于将模型性能与公共基准进行比较,但企业领导者更关注将经过微调的开源模型和经过微调的闭源模型的性能与他们自己的内部基准集进行比较。

有趣的是,尽管闭源模型通常在外部基准测试中表现更好,但企业领导者仍然给予开源模型相对较高的 NPS(在某些情况下甚至更高),因为它们更容易微调到特定的用例。

一家公司发现,“经过微调后,Mistral 和 Llama 的性能几乎与 OpenAI 一样好,但成本要低得多。”按照这些标准,模型性能的趋同甚至比我们预期的更快,这为领导者提供了更广泛的非常有能力的选择范围。

企业在构建和购买生成式AI的方法上正在经历16种变化-13

企业在构建和购买生成式AI的方法上正在经历16种变化-14

13. 优化选择性

大多数企业都在设计他们的应用程序,以便在模型之间切换只需要一个 API 变更。一些公司甚至预测试提示,以便切换在按下开关时立即发生,而其他公司则构建了“模型花园”,以便他们可以根据需要将模型部署到不同的应用程序中。公司采取这种方法部分是因为他们从云时代学到了减少对提供商依赖的教训,部分是因为市场发展如此之快,承诺单一供应商似乎是不明智的。

应用场景:更多转向生产环境

14. 企业目前更倾向于自主开发而非购买应用程序

企业普遍专注于自主开发应用程序,他们认为缺乏经过实战检验、能够颠覆行业的企业 AI 应用程序是主要原因之一。目前还没有针对这类应用程序的魔力象限。基础模型通过提供 API,使得企业更容易构建自己的 AI 应用程序。

企业正在构建他们自己的熟悉应用场景的版本,如客户支持和内部聊天机器人,同时也在尝试更创新的应用场景,例如编写消费品配方、缩小分子发现范围、以及提供销售建议。

关于“GPT 包装”应用的差异化有限已经有很多讨论,这类初创公司为知名的 LLM 输出(如文档总结)构建熟悉的界面(如聊天机器人);我们认为这些应用将面临挑战,因为 AI 降低了企业内部构建类似应用的门槛。

然而,当更多面向企业的 AI 应用上市时,这种情况是否会改变还有待观察。一位领导者指出,尽管他们在内部开发了许多应用场景,但他们乐观地认为“将会有新工具出现”,并更愿意“使用市面上最好的工具”。

其他人则认为,生成式 AI 是一个日益重要的“战略工具”,它允许公司将某些功能内部化,而不是像传统上那样依赖外部供应商。鉴于这些动态,我们认为那些能够超越“LLM + UI”公式、显著重新思考企业基本工作流程或帮助企业更好地利用自己的专有数据的应用程序,将在这个市场上表现得尤为出色。

15. 企业对内部应用场景感到兴奋,但对外部应用场景持谨慎态度

这是因为企业对生成式 AI 仍有两大主要担忧:1) 幻觉和安全方面的潜在问题,以及 2) 将生成式 AI 部署到敏感消费者领域(如医疗保健和金融服务)时的公共关系问题。

过去一年最受欢迎的应用场景要么专注于提升内部生产力,要么在到达客户之前先经过人工处理——如编程助手、客户支持和市场营销。从下面的图表可以看出,这些应用场景在 2024 年的企业中仍然占据主导地位,企业将完全内部的应用场景如文本摘要和知识管理(如内部聊天机器人)推向生产的速度远远高于敏感的人工参与应用场景如合同审查,或面向客户的应用场景如外部聊天机器人或推荐算法。

企业渴望避免像加拿大航空公司客户服务事件那样的生成式 AI 事故的后果。因为这些担忧在大多数企业中仍然突出,那些开发能够帮助控制这些问题的工具的初创公司可能会看到显著的市场采用。

企业在构建和购买生成式AI的方法上正在经历16种变化-15

总市场机会规模:巨大且快速增长

16. 我们预计到 2024 年底,模型 API 和微调的总支出将增长到超过 50 亿美元的运行速率,企业支出将在这一机会中占据重要份额

根据我们的估算,模型 API(包括微调)市场在 2023 年结束时的运行速率收入约为 15 亿至 20 亿美元,包括通过 Azure 在 OpenAI 模型上的支出。鉴于整体市场的预期增长和企业的具体动向,仅这一领域的支出到年底将至少增长到 50 亿美元的运行速率,且有显著的增长潜力。

正如我们所讨论的,企业已经将生成式 AI 部署作为优先事项,增加了预算并将其重新分配到标准软件项目,优化了不同模型的应用场景,并计划在 2024 年将更多工作负载推向生产,这意味着他们可能会推动这一增长的很大一部分。

在过去 6 个月里,企业已经从高层发出了寻找和部署生成式 AI 解决方案的指令。过去需要一年多时间才能完成的交易现在在 2 或 3 个月内就能完成,且交易规模比以往更大。

虽然本文聚焦于基础模型层,我们也相信这一机会在企业中扩展到技术栈的其他部分——从辅助微调的工具,到模型服务,再到应用程序构建,以及专门构建的 AI 原生应用程序。我们正处于企业生成式 AI 发展的转折点,我们很期待与下一代服务于这个充满活力和增长中的市场的公司合作。

原文:https://a16z.com/generative-ai-enterprise-2024/

版权声明:
作者:小火箭
链接:https://www.xiaohuojian6.top/539.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>