如果您只想得到YES or No的答案,那么肯定会失望的。至少目前,这个问题没有答案。但我们可以试着从多个不同维度,来解读AWS的生成式AI战略,来看看它有什么不同,同时也分析一下未来的演变方向,来看看竞争格局会怎么变化。
严格来说,今年这波生成式AI浪潮的驱动力,并非来自AI技术创新,而是应用模式创新。
与其他AI一样,生成式AI的底层基础都是机器学习。云厂商在这一领域有着长时间的积累,包括在基础模型/大模型方面。OpenAI的创新是创造了提示词、对话框的应用模式,一下子引爆了个人消费者市场,然后再反哺企业级用户。
与其不同,AWS显然在继续坚持服务企业级用户(2B)的定位。无论是今年早些时候推出的基础模型开发工具Amazon Bedrock、Titan大语言基础模型,还是在2023re:Invent上新发布的AI助手应用Amazon Q,都是需要被集成到企业的开发和应用当中的,无法直接被个人用户使用。
未来,生成式AI到底是个人消费者主导,还是行业企业主导,恐无定论,毕竟生成式AI还处于早期阶段,很难对未来的主流商业模式进行预测。但AWS确定走的是后一条路径,倾尽全力服务企业用户,深入行业市场,去创造业务应用场景。
在今年的re:Invent上,生成式AI毫无疑问成为最热门的话题,很多新发布都围绕其展开。即使在基础架构层,也聚焦在AI算力、向量数据库、Zero-ETL数据治理理念等相关领域。
业界惊呼,AWS正在all in GenAI,所有产品都在为生成式AI而重构。现在下这么绝对的结论为时过早,当然AWS显然希望充分抓住生成式AI的机会,而且相比“挖金子”,似乎更青睐于“卖水”。
这个三层架构图,是AWS在生成式AI领域的整体布局,分为训练和推理基础架构、大模型构建工具和应用三个层面,几乎对应了云计算的IaaS、PaaS和SaaS三层架构。
值得注意的是,AWS一直强调做负责任的AI,帮助企业保护数据安全和隐私。
亚马逊云科技大中华区战略业务发展部总经理顾凡表示,无论Amazon Bedrock还是Amazon Q,都会对客户的数据进行加密处理,不会让数据离开客户的虚拟私有云,并且承诺不会利用客户的数据进行模型训练。
AWS一直强调自己的生态开放,这同样表现在生成式AI领域。这样的开放,不意味着避免与生态伙伴的竞争,有时候甚至恰恰相反。
我们由此不难理解,AWS CEO Adam Selipsky在与英伟达黄仁勋大谈深化合作之后,立刻宣布推出自己的模型训练芯片Trainium2。
亚马逊云科技大中华区产品总监周舸表示,这两者给客户提供了更多选择,选择权在客户。一方面,AWS致力于开发更低能耗、更高性价比的Trainium;另一方面,同样致力于让Nvidia GPU在AWS上跑出更高性能。
这种“选择权”在Amazon Bedrock所支持的基础模型上表现得更为突出。企业可以调用这些基础模型,或者利用这些基础模型进行微调,以支持自己的应用。
AWS自家的Titan基础模型产品线正在丰富,包括新推出的Amazon Titan Image Generator、Amazon Titan Multimodal Embeddings、Amazon Titan Text Embeddings等。与此同时,Amazon Bedrock还支持AI21labs、Anthropic、Cohere、Meta和Stability AI的基础模型,包括Meta Llama 2 70B、Anthropic Claude 2.1等最新产品。除了ChatGPT,市场上的主流大模型几乎都位列其中,不知道将来会不会也有机会纳入其中。
由于生成式AI目前还处于“百模大战”的阶段,所以目前的算力需求主要集中在模型训练上,业界对推理算力的关注程度比较低。未来情况可能会发生变化。
亚马逊云科技大中华区技术专家团队总监王晓野介绍说,在传统机器学习里,训练和推理的算力消耗是1:9;大模型如果未来得到大规模应用,对算力的消耗也应该类似。
推理成本的高昂,很可能会限制生成式AI的落地应用。这一方面需要推理芯片成本的继续下降,另一方面也会引发未来业务模式的演变,比如大小模型结合、多模型套用、私有知识库等。未来会不是超大模型一统天下,也值得观察,毕竟模型越大,应用(推理)成本越高。
合作伙伴对生成式AI的参与,同样值得关注。AWS行业技术伙伴负责人Chris Casey建议,合作伙伴可以在定制应用、基础模型评估、模型打造(训练和微调)等方面发挥自己的价值。合作伙伴既可以使用Amazon Sagemaker这样的专业机器学习平台,也可以使用Amazon Bedrock这样的简单易用的新平台。
由于生成式AI仍处于演进过程中,当前还没有非常确定的商业模式和产品方向。因此,要做竞争格局的任何判断,都还为时过早,但值得期待。