栏目分类
热点资讯
计算机行业专题报告:他山之石,从美股看本轮AI浪潮
发布日期:2025-01-04 16:31 点击次数:211
(报告出品方/作者:东北证券,黄净) 1. 算力:大超预期的白热化战争,AI 蚕食 Non-AI 预算 1.1. NVIDIA:大 Beta 显示出华尔街买卖方的缺位 NVIDIA 作为千亿美元级别的大票,华尔街理论上有着极为紧密的跟踪,但事实上 美股投资者们出现了大 Miss。从卖方视角来看,有较多的 Tracker 可以验证到 NVIDIA 的业绩,2023 年以来卖方对 NVIDIA 股价的 Preview 都是一条直线;从买 方的视角来看,NVIDIA 流动性较为充沛,但此次美股投资者们却出现了大 Miss, 纷纷对 NVIDIA 2024 日历年的收入预期进行较大调整,一定程度上显示出了华尔街 买卖方的缺位。 在达到万亿市值之后,NVIDIA 的估值反而降低了。NVIDIA 突破了万亿美元的市 值,但是目前的 P/E Ratio 反而降低了,主要系 NVIDIA 的业绩的爆炸性增长。从产 业链视角来看,我们认为该增长可能仍将持续:据 BAC 研究报告,CSP(云端服务 业者)占据 NVIDIA 采购占比仅 40%。 如何看待 NVIDIA 的估值?如果将 NVIDIA 看作一家纯半导体公司,那么 NVIDIA 的估值偏高;但如果将 NVIDIA 是一家以软件生态为核心的 AI 算力核心供应商, 那么其估值其实并不高。根据 MS 的研究,2027 年 AI 半导体的 TAM 将达到 1250 亿美元。其他的 ASIC 硬件很难达到 NVIDIA CUDA 生态下的效能,特别是 CuDNN 和 CuBLAS,其甚至可以绕过来驱动直接操作 GPU,CUDA 生态也是 NVIDIA 占据 AI 算力核心地位的重要原因。 NVIDIA 目前提供针对 AI 的服务和软件能力。其中,NVIDIA AI Foundations Cloud Services 提供云端快速训练模型的能力,而 NVIDIA AI Enterprise Software Platform 提供 100 多种框架、预训练模型和开发工具,以加速数据科学管道并简化 AI 应用 的开发和部署。由此可见,NVIDIA 已经逐渐脱离了传统的 Fabless 公司的范畴。 海外巨头不愿意被供应商绑定,并且考虑成本因素,纷纷进行 ASIC 自研。一方面, 由于 NVIDIA 的压倒性优势,巨头在谈判时议价权有限;另一方面,2024 年大规模的推理应用或将铺开,而对于推理端来讲,性价比是唯一的考量因素。而巨头期望 于通过软硬一体的解决方案来大幅度降低推理成本,从而获取竞争优势。因此巨头 大量采用了 ASIC 的解决方案,ASIC 提供商如 AMD、AVGO、MRVL 会有所受益。 巨头在 AI Semi 上的投入十分巨大,AI 对于 Non-AI 形成了显著替代。2024 年日历 年度,巨头对于 AI 芯片的采购量是十亿以上量级,AI 相关的数据中心投入将占巨 头的 Capex 的四成以上。考虑到巨头的 Capex 不会大幅度增长,因此 AI 对于 Non-AI 将形成严重的挤出效应。这不仅解释了为什么 ANET、JNPR、MU、STX 等公司表 现不佳,还解释了为什么 MRVL 跑不过 AVGO。我们预期未来较长一段时间 AI 的 暴露度(Exposure)会是美股半导体相关股票的核心考量,那么对 ANET/MU/INTC 也需要重新考量。 AI Semi 的卡脖子环节在哪里?在 TSMC。目前几乎所有的 GPU 和 ASIC 都需要芯 片和显存/内存的高速连接,并且对于显存/内存而言越大越好。由于对尖峰性能的 极致追求,目前的封装方案中只有 COWOS 能满足需求,而 COWOS 目前由 TSMC 独家掌握。目前看到 MI300 已经将 HBM 堆到 192GB,预计后续的 Training 芯片的 显存将突破 200GB。因此我们认为,TSMC 将会是一个良好的投资标的,特别是其 会叠加消费电子+AI 的双重 Cycles。 2. 数据:版权问题最值得关注 西方的趋势是逐步强调版权的重要性。不同地区的法律法规显著不同,并且在快速 的变化中,其中有两个非常重要的因素值得关注:1)训练中使用的数据的版权, 以及 2)AIGC 生成的作品的版权。从各国版权要求来看: 英国:允许 AIGC 生成的作品拥有部分版权,但是禁止将此版权授予给 AI。 欧盟:立法者目前正在考虑要求生成性 AI 系统的提供者“公开披露使用受版 权法保护的训练数据的摘要”,关注 AI Act。 美国:美国版权局只承认人类创造的作品,国会可能会进行法律修订对于 AIGC 生成的作品的版权的归属进行明晰化。 Adobe Firefly 的一大吸引点是其训练内容都是有版权的。绝大多数的数据均有版权, 因此大模型的海量数据中势必包括版权数据。针对 AIGC 生成的作品,人类参与的 成分和程序参与的成分并不是那么容易进行区分,如果 AIGC 生成的图片和真人的 图片一模一样,其版权划分问题有待商榷。我们预计版权问题还需要长久的立法探 讨之后才能得到解决。作为应对方案,Adobe 声明其会补偿 Firefly 用户相关版权诉 讼的损失。 具体而言,Firefly 是 Adobe 在 AI 时代的核心平台。Adobe Firefly 是一款创新的生 成性人工智能引擎,它可以根据用户的文本提示生成图像、矢量图、视频和 3D 内 容。Firefly 现已集成到 Photoshop(测试版)、Illustrator、Adobe Express 以及 Web 上。 Firefly 将作为 Adobe 的核心 AI Offering 进行推广。首先,Firefly 将作为一项面向 消费者的独立免费增值服务,并针对企业提供服务。其次,Adobe 旗舰应用程序中 的 Copilot 生成 AI 功能将提高平均每用户收入(ARPU)并保持用户粘性。第三, Adobe 将为需要生成更多内容的客户提供订阅点数(Credit)。第四,Adobe 将为开 发者社区提供 Firefly 的 API 访问权限,并允许企业使用他们的专有内容创建独家定制模型。最后,行业合作伙伴以及 Firefly 对 Experience Cloud、Creative Cloud 和 Document Cloud 的发展带来了新的机会。Adobe 目前的优先事项是广泛推广 Firefly, 预计将在今年晚些时候推出具体的定价。 除了 Firefly,公司还有 Sensei AI 等产品。Sensei Gen AI 是一种为市场营销人员和 其他客户体验团队提供的新型 AI 助手,可以在 Adobe Experience Cloud 的多个应用 程序中用于各种用例,如资产创建和在客户旅程中的个性化服务等。公司的 AI 和 机器学习服务团队也正在发布新的下一代功能和解决方案,这些功能和解决方案由 Sensei 驱动,在 Adobe Experience Cloud 中帮助品牌实现规模化的个性化,这些新的 AI 和机器学习功能使用智能决策和预测洞察来加速影响,帮助品牌为其客户提供更 个性化和相关的体验。 Adobe 认为,其在 AI 发展中拥有三大优势:1)独有的数据源,包括 Creative Cloud 中的和 Document Cloud 中的;2)Adobe 自己创建 Foundation Model,具有较高的掌 控力;3)最重要的是 Adobe 提供了良好的界面(Interface)。我们认为公司在终端 应用中具有生态位的卡位优势。 3. 大模型:私有模型两大巨头单挑,开源模式 Meta 苦苦耕耘 与国内大模型百花齐放不同,海外的大模型在 GPT 的强压面前快速收敛。海外以 GPT-3或BERT两大路线作为基础模型或参考,大模型厂商以谷歌系(包括DeepMind 和 Anthropic)和微软系(OpenAI)为首,Facebook、NVIDIA、Runway、AWS 及 学术机构均有参与,但大多采取开源模式,且发展规模较谷歌微软存在差距。国内 则展现出百花齐放的局势,大厂(腾讯、百度、字节、京东、阿里、华为、360 等)、 传统 AI 公司(商汤、讯飞)以及科研国家队(智源、中科院自动化所)纷纷入局。 闭源模型微软、谷歌领先,Meta 持续耕耘开源模式。 闭源:基于 Transformer 衍生出 GPT 与 BERT 两大知名 NLP 模型族,分别对应 业界两大巨头,即微软(OpenAI)&谷歌(GoogleBrain、DeepMind)。其性能 暂时领先其他大厂模型(如 AWS 的 BLOOM),两大巨头在闭源模型领域进行 激烈 PK。 开源:Meta 发布 LLaMA 模型并开源,LLaMA+LoRA 模式是当前开源 LLM 中 最活跃的生态;AWS 与 HuggingFace 基于 LLM 生态展开合作。LLaMA 的出现 验证了 GPT 之外的另一条路径,即更大规模的训练数据+更优的算法调试,降 低模型对参数和算力的依赖。 4. 应用:一切+AI,但单独的 Killer App 可能就是 GPT 本身 4.1. SAP:集成 AI 到公司产品,并没有全新 AI 应用 SAP 的 AI 策略是将 AI 集成(Embed)到其产品组合中。SAP 较为关键的 AI 产品 是 Datasphere,其是 SAP Data Warehouse Cloud 的下一代产品,其是一种全面的数 据服务,可以使每个数据专业人员都能无缝且可扩展地访问对决策产生重大影响的 业务关键数据。同时 SAP 也宣布了跟 UiPath 的合作,将通过 UiPath 更好地进行流 程自动化操作。此外在 SAP Sapphire 会议上,SAP 还宣布了将 SAP SuccessFactors 解决方案与 Microsoft 365 Copilot 和 Microsoft Viva Learning 中的 Copilot 集成,旨在 解决技能差距,提高招聘、保留和提升员工的能力。 4.2. ORCL:强调 OCI+AI 的先进性 与 SAP 显著不同的是,Oracle 提供 Oracle Cloud Infrastructure (OCI)。OCI 可以 理解为 IaaS+PaaS 层,Oracle 的公有云的 SaaS 的解决方案可以在 OCI 上运行,例 如 Fusion Cloud 和 NetSuite。OCI 提供了包括虚拟机(VM)、裸机服务器、GPU 实 例、块存储、文件存储、对象存储、虚拟私有网络(VPC)、负载均衡器、DNS 服 务、身份和访问管理(IAM)、防火墙、数据加密等功能,其上面也可以搭载 Oracle Autonomous Database 和其他数据库服务。 Oracle 表示其客户对于 AI Service 有着非常大的需求。Oracle 的 OCI 的订单已达到 了 20 亿美元。Oracle 与 NVIDIA 正在建设世界上最大的超级计算机,其拥有 16000 颗 GPU 晶片。此外,Oracle 还与企业 AI 平台提供商 Cohere 合作推出了 GenerativeAI Cloud Service,在保护客户隐私的同时允许他们训练大模型,Cohere 也在 Oracle 的 OCI 上训练自己的 LLM。 Oracle 表示其 OCI 与其他公有云厂商有所不同。Oracle 表示其 OCI 采用了 RDMA 架构,并且内嵌了 APEX 低代码平台,同时其数据库产品 Autonomous Database 不 需要数据库维护就可以进行自修复和升级。RDMA 是一类技术的统称,Infiniband 就是 RDMA 技术的一种,而其被 NVIDIA 广泛使用。 4.3. Salesforce:大幅强调 AI 的重要性,建立了完整的 AI 架构 公司近期发布了 AI Cloud 产品。AI Cloud 是 Salesforce 的核心 Offering,其整合了 Salesforce 的技术,包括 Einstein、Data Cloud、Tableau、Flow 和 MuleSoft,以提供 可信赖、开放的生成式 AI。AI Cloud 将使销售代表能够快速自动生成针对客户需求 的个性化电子邮件,服务团队能够自动生成个性化的代理聊天回复和案例摘要。 Salesforce 自研了 Einstein GPT 以及 Einstein GPT Trust Layer。Salesforce 的 Einstein GPT 是世界上第一个给 CRM 定制的 Generative AI,其是公司 AI 产品的核 心。Einstein GPT 的主要特点包括:个性化内容生成:Einstein GPT 可以生成个性化的内容,使每个员工更高效, 每个客户体验更好。 开放和可扩展:Einstein GPT 支持为 CRM 定制的公共和私有 AI 模型,并在可 信赖的实时数据上进行训练。 与 OpenAI 集成:Einstein GPT 将与 OpenAI 集成,为 Salesforce 客户提供开箱 即用的生成 AI 能力。 例如,Einstein GPT 可以为销售人员生成个性化的电子邮件,为客户服务专业人员 生成特定的回答以更快地回答客户问题,为营销人员生成针对性的内容以提高活动 响应率,以及为开发人员自动生成代码。通过应用 LLM,Salesforce 表示员工的生 产力能够提升 20%-30%。 Salesforce 收购的 Slack 进行了 OpenAI 集成。Salesforce 和 OpenAI 早在 3 月推出 了 Slack 的 ChatGPT 应用程序,该应用程序由 OpenAI 在 Slack 平台上构建,集成了 ChatGPT 的 AI 技术,可直接在 Slack 中提供即时会话摘要、研究工具和写作辅助, 帮助数百万家公司更高效地工作。由于 Slack 中沉淀了大量的 Salesforce 数据,并且 是一个关键的交互节点,Salesforce 认为 Slack 在 Generative AI 中意义重大。 Salesforce 还强调了 Data Cloud 的重要性。Salesforce Data Cloud 是一个实时的数据 湖,它提供了连接所有客户数据的能力,无论是来自任何应用程序、设备还是实时 流,都可以使用开箱即用的连接器。它还能够自动将所有数据和谐成一个单一的客 户图,并为任何部门和任何行业提供实时适应其活动的统一客户档案。 Einstein GPT Trust Layer 作为中间层使得大模型无法获得敏感数据。Salesforce 的 Einstein GPT Trust Layer 是一个重要的功能组件。它是 AI Cloud 的一部分,专门用 于处理生成式 AI 的安全性问题。它包括数据脱敏功能,可以从发送到大型语言模 型的数据中删除个人信息。 Salesforce 长期投资进行 AI 能力建设,可以追溯到 2014 年。Salesforce 在 2014 年 成立 SFDC AI Research,即 Salesforce 的人工智能研究部门,致力于在人工智能领 域推动研究进展,并将这些研究应用于开发 AI 产品及解决方案。2016 年 Salesforce 推出Einstein平台,并陆续通过收购/自研方式扩充AI产品及能力,包括对话Insights、 BOTs、Einstein Search 等,直至 2022 年结合 GPT 能力,推出 Einstein GPT、Slack GPT 和 Tableau GPT 等。 Salesforce AI Cloud Starter Pack 定价 36 万美元每年。Pack 内包括 Data Cloud、 MuleSoft、Einstein、Tableau Analytics、Slack、CRM 和 Salesforce 专业服务等功能。 4.4. ServiceNow:黄仁勋力挺的应用软件开发商 与其他公司不同的是,ServiceNow 获得了 NVIDIA 的支持。5 月 17 日,双方发布 合作声明,ServiceNow 借助 NVIDIA 的强大软硬件能力,将在其 ServiceNow Platform 上搭建独有的 LLM,从而大幅度提升流程自动化和生产力。ServiceNow 在 AI 相关 产品的研发中奖采用 NVIDIA AI Foundations Cloud Services 以及 NVIDA AI Enterprise Software Platform。公司将与 NVIDIA 一起开发虚拟助手,并且将大幅度 提升客户支持团队的效率。 ServiceNow 反向对 NVIDIA 赋能。ServiceNow 帮助 NVIDIA 更好地开展 IT Operations,包括在 NVIDIA NeMo 框架下用 NVIDIA 的数据更好地开发支持 DGX Cloud 云端部署和 DGX SuperPOD 本地部署的应用。公司有机会与 NVIDIA 成为双 子星。 ServiceNow 明显在借助外部力量来发展 AI 能力。从 2017 年开始公司就通过 Intentional M&A 对于 AI 相关公司展开了收购。ServiceNow 收购的标的涵盖 Virtual Agent、ML Platform、NLP、Search、AI Ops、RPA 等领域,公司表示 AI 能力使得 公司的 PRO+ Offerings Adoption 提高了 40%,ASP Uplift 提升 25%。考虑到 ServiceNow 市值已经超过千亿美元,我们认为,这说明对于小公司来说单枪匹马开 发 LLM 是较为困难的。 ServiceNow 已经形成了完整的 AI 战略,建立了完整的生态。ServiceNow 将模型分 为 General Purpose 模型和 Domain Specific 模型。对于 General Purpose 模型, ServiceNow 表示其已经接入了 OpenAI,将探索和 Google 合作的机会。对于 Domain Specific 模型,ServiceNow 则是跟 NVIDIA 和 Hugging Face 合作,并且已经跟两者 建立了合作伙伴的关系。但如果从目前的情况来看,AI 仍然没有全新的应用场景。 4.5. Datadog:CEO 对于 LLM 有较为不同的认识 为什么我们要在这里放入 Datadog?因为其作为 Infrastructure Monitoring 的第一股, 其观点极有价值。然而,Datadog 的 CEO and Co-Founder 表明 Generative LLM 不要在私有云上部署。根据 Datadog 公开电话会,公司 CEO 表示,采用通用大模型 的唯一方法就是真正在云端部署,因为技术变化较快,以至于每六个月或每年可能 就要重做一次部署。此外,Datadog 表示基于 Generative LLM 的应用需要巧妙管 理否则会十分昂贵。公司 CEO 表示,仅从数字的角度来看,试图将可观测性数据 直接发送到大语言模型中的成本将比运行最初产生这些数据的应用程序高出几个 数量级,其最大的客户可能不得不花费接近加州 GDP 的水平才能实现这一目标。 尽管看上去有点怂人听闻,但是考虑到其的行业地位,我们认为这是十分重要的观 点。 从 Datadog 最新的举措来看,Observation 领域并没有全新的 AI 产品。Datadog 最 近在 AI 领域的布局主要包括以下几个方面: Watchdog AI 引擎的扩展:Datadog 扩展了其 Watchdog AI 引擎,增加了根因分 析和日志异常检测功能。这些新的 AI/ML 能力使 IT 团队能够更快地检测、调 查和解决应用性能问题,并减少假警报。这是 Datadog 在 AI 领域的一个重要 发展,有助于提高其产品的智能化程度和用户体验。 与 OpenAI 的集成:Datadog 宣布了一项新的集成,可以监控 OpenAI API 的使 用情况,帮助组织监控 AI 的使用情况、成本和性能。这个集成使企业能够更 好地理解和管理他们的 AI 模型,从而提高 AI 的效率和效果。 为 Azure 组织提供新的能力:Datadog 为 Azure 组织提供了新的能力,帮助他 们管理成本、迁移到云端并监控 AI 模型。这些新的能力和集成为企业提供了 一种简单、快速和可扩展的方式来构建和部署 AI 应用。过往,Datadog 的主战 场是 AWS,但随着 Azure 凭借 GPT 模型所获得的强大竞争优势,公司开始在 Azure 上发力。 但是 Datadog 并没有大幅上调全年指引(只上调了约 1000 万美元的收入)。我们认 为这可能跟 Cloud Optimization 依旧持续以及 AI 褫夺非 AI 预算有直接关系。 4.6. MongoDB:积极拥抱 AI 并推出全新产品 MongoDB 最近举办的 Investor Day 展现了公司的巨大野心。MongoDB 认为,AI 将显著增加公司的Workloads,而MongoDB也将成为AI相关应用首选的开发平台。同时,MongoDB 官宣推出的 Vector Search 会成为 Generative AI 的重要基础设施, 最终的结果则是应用程序的全面革新。 MongoDB 设想了一个极为大胆的向量数据库架构。我们 5 月第一周就最前瞻的推 出了向量数据库的深度报告,此前我们设想,向量数据库和传统数据库是一个平行 的关系,两者可能来自于不同的供应商,由向量数据库进行向量搜索,通过 LLM 输出结果。但是公司比我们的想象更为大胆,公司推出的 Atlas Vector Search (in Preview)将向量数据库和传统数据库结合在了一起,并且提供统一的 API(Unified MongoDB Query API)进行调用。在公司的设想下,一个原始的数据将同时以数据本身和向量化数据进行存储,而一个搜索的 Query 可以同时对两者进行搜索调用, 并分别提供给 LLM、APP 等,这将导致调用和管理的大幅度简化。公司的 Atlas 服 务也将因此迅速抢占市场。 MongoDB 展示了向量数据库的新的应用场景。以通过声音来鉴别车辆问题为例。 MongoDB 和某家 Top 车厂合作,将不同型号的汽车发生不同故障时的声音录制下 来,放在向量数据库中。当一个车主发现汽车有问题,其将车开到 4S 店时,4S 的 员工通过录制故障声音之后用相似性搜索在向量数据库中搜寻近似声音,可以迅速 确定问题。公司表示这可以节约 1 个小时以上的故障判断时间。 4.7. 总结:对于 AI 时代 Killer App 的一些探讨 那么全新的非上市公司开发的应用呢?尚无法确定。通过监测 AI 网站访问量,我 们认为可能 ChatGPT 浪潮所带来的最大的 Killer App 是其自己。由于 GPT 的强大性 能和快速迭代能力,以及良好的调用机制,部分新应用的市场竞争快速激烈化导致 用户被分散,例如 ChatPDF。 我们什么时候可以看到 Killer App?1~2 年之后。根据 Morgan Stanley 统计,Apple II 推出 2 年之后才出现 VisiCalc,IBM PC 推出 2 年之后才出现 Lotus 1-2-3,iPhone 推 出 2 年之后才出现 Uber。因此我们预期 1~2 年之后会出现 GPT 技术的 Killer App。 人们总是短期过于乐观,长期过于悲观。我们认为 AI 的奇点已经到来。在本篇报 告的写作中 GPT4 Plugin 做出了卓越的贡献,大幅度地提升了生产力。 短期来看, 算力竞争的白热化超出所有人的想象,强大如华尔街对于 NVIDIA 的判断也出 现了重大错误。大量自研的 ASIC 将在明年海量流片,将白热化的竞争推向高 潮。 由于缺乏 Killer App,所以商业应用是 Embed AI 的情况,暂未出现全新的应用 场景。Embeded AI 在提升原有 AI 功能准确性和速度的同时,To B 应用通过引 入 Copilot 等手段来进行进一步商业化,并且可以取得 ARPU 提升等效果,但 是需要注意版权(内容和 AIGC 的生成物)、隐私的保护(采用中间层或者 Domain Specific AI)和生态的建设(与 AI 软硬件公司联手,并且适当采用收 购的策略)。 最好将 LLM 分开对待。对于 Generative AI,需要积极接入,而不是进行重新 研发,而对于大量的 B 端隐私数据和独特要求,最好是建立 Domain Specific AI, 从而实现平衡。但是我们认为,Domain Specific AI 需要良好的 Foundation Generative AI 的支援。基础软件拥有 AI 带来的新场景,其中,Vector Database 成为兵家必争之地。其 与传统 Database 结合的可能性将导致数据库市场出现巨变。 长期来看,1~2 年内会出现基于 GPT 的 Killer App。我们对此抱有充分的信心。 (本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。) 精选报告来源:【未来智库】。
上一篇:比较级