天极大咖秀

登录 | 申请注册

从2023中国峰会,看亚马逊云科技的生成式AI战略

智能进化论 2023-07-19 阅读: 4,064 次

“生成式AI的发展就像一场马拉松比赛,当比赛刚刚开始时,如果只跑了三四步就断言某某会赢得这场比赛,显然是不合理的。我们现在还处于非常早期的阶段。”

近日,在2023亚马逊云科技中国峰会上,亚马逊云科技全球产品副总裁Matt Wood博士这样对媒体表示。

面对生成式AI的技术浪潮,全球最大云计算厂商的一举一动都引人关注。今年,生成式AI成为本届中国峰会的主要议题之一。中国峰会透露了亚马逊云科技在生成式AI领域怎样的战略布局?

亚马逊云科技全球产品副总裁 Matt Wood博士

密集投入,聚焦生成式AI云服务

2023年以来,亚马逊云科技在生成式AI领域动作密集。

2023年4月,亚马逊云科技推出完全托管的生成式AI服务Amazon Bedrock和自有基础大模型Amazon Titan。Amazon Bedrock目前已经接入AI21 Labs、Anthropic、Stability AI等主流基础模型和Amazon Titan,企业可以通过API的形式进行访问。

2023年6月初,亚马逊云科技宣布已经与TII合作助力其训练大语言模型Falcon40B。Falcon 40B是拥有400 亿参数的大语言模型,在知名的Hugging Face开源大语言模型排行榜上位列榜首。

6月底,亚马逊云科技还宣布将投资一亿美元成立生成式AI创新中心,帮助客户构建和部署生成式AI解决方案。创新中心团队由战略专家、数据科学家、工程师和解决方案架构师组成,将通过研讨会、交流和培训等方式,为客户提供生成式AI的战略、工具和支持。

可以看出,在自研基础大模型之外,与全球热门基础大模型合作,通过按需使用的Amazon Bedrock云服务的方式对外推出,是亚马逊云科技布局生成式AI的一大特点。

Matt Wood博士介绍,目前Amazon Bedrock已经积累了数百个客户案例,“通过Amazon Bedrock,客户可以根据自己特定的需求,对模型进行微调,然后很快就可以上手使用。”

全球云计算领头羊的生成式AI战略

回顾过去半年来,亚马逊云科技在生成式AI领域的一系列动作,「智能进化论」认为,目前亚马逊云科技在生成式AI的布局呈现如下几个特点:

第一,灵活易用的基础平台+开箱即用的生成式AI应用

亚马逊云科技将Amazon Bedrock定位为使用基础模型 (FM) 构建和扩展生成式 AI 应用程序的最简单方法,旨在降低企业应用大模型和生成式AI技术的门槛。

Amazon Bedrock的一大特点就是极其容易定制模型。客户只需向Amazon Bedrock展示Amazon S3中的几个标注好的数据示例,Amazon Bedrock就可以针对特定任务微调模型,最少仅需20个示例即可,而无需标注大量数据。

“我们不会把Amazon Bedrock做成类似应用市场那样的模型市场。相反的,我们会选择那些最有趣的、最有用的模型,而且确保它们是低时延的,而且具有广泛可用的运维性能。”谈到Amazon Bedrock的定位时,Matt Wood博士表示。

如果说Amazon Bedrock集成了业内最主流的基础大模型,Amazon SageMaker则是承载更广泛AI模型的创新平台。“最终在Amazon Bedrock上可能会有几十个拳头模型产品,它们非常新颖、有趣,或者说与众不同。但是你会在Amazon SageMaker上看到有几百个模型存在。

通过机器学习中心Amazon SageMaker JumpStart ,用户可以访问内置算法,包括来自常用模型中心的预训练模型,以及用于解决常见用例的端到端解决方案。据透露,很多行业模型也已经在亚马逊云科技的平台之上进行训练。例如,彭博社目前就在亚马逊云科技上运行了非常大的一个金融服务模型。

在平台之外,亚马逊云科技也有可以开箱即用的生成式AI工具,比如代码生成工具Amazon CodeWhisperer,它可以将使用者的代码开发速度提升57%,成功率提高 27%。目前,Amazon CodeWhisperer适用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持Go、Kotlin、Rust、PHP 和 SQL等10 种开发语言。

第二,以安全为基础,按需定制

灵活丰富的基础大模型和降低开发门槛的创新平台,目的都是为了解决大模型行业适配性的问题。通过这些基础设施,用户只需几个带标签的示例,就可为自己的企业自定义基础模型。

“我们认为不能依赖一个万能的、单一的大型语言模型来应对各种任务,我们认为正确的做法应该是,客户可以访问多个模型,然后根据自己的需求和数据来定制自己的模型。”Matt Wood表示。

定制模型的一个大前提就是数据安全。亚马逊云科技将所有数据都经过加密处理,而且不会离开用户自己的Amazon Virtual Private Cloud(VPC),让企业在训练模式时没有后顾之忧。

第三,持续优化成本效益

如何降低大模型训练成本是人工智能行业普遍面临的挑战。亚马逊云科技通过加大投入自研芯片,降低算力成本,提升模型训练效率。

比如,基于Amazon Trainium芯片的Trn1实例,适合在超大规模集群中部署。其数量可以扩展到在同一可用区中3万个Amazon Trainium芯片,相当于超过6 exaflops的计算能力,并具有PB级网络。基于Amazon Inferentia2芯片的Inf2实例,专门针对数千亿参数模型的大规模生成式AI应用程序进行了优化。与同类Amazon EC2实例相比,可将推理性价比提高40%。

“相信Amazon Bedrock能够提供非常有竞争力的价格,而且用户是即用即付。” Matt Wood强调。

第四,云智一体,无缝集成

亚马逊云科技将生成式AI平台、工具与云服务无缝打通,并继承了其在云计算领域的核心优势,比如强大的基础设施、安全合规、无缝的应用集成等。借助熟悉的控件,以及与 Amazon SageMaker 和 Amazon S3 等云服务的高效集成,用户可以快速将基础大模型集成并部署到在 亚马逊云科技上运行的应用程序和工作负载中。

“在云计算时代我们提供通过API访问云上应用的快捷访问,这一愿景不会因为生成式AI的出现而改变,我们希望将这项技术交到每一个构建者和每一个商业用户的手中。”Matt Wood强调。

在生成式AI领域,新的基础大模型仍然在不断涌现,这也侧面印证了行业发展处在初级阶段。在生成式AI领域,亚马逊云科技的整体策略是保持开放性、易用性、降低技术的使用门槛,这无疑将对生成式AI的普惠起到大力推动作用。

文中图片来自摄图网

END

智能进化论
专注云计算、AI、数字化转型领域深度报道。

特别声明:文章版权归原作者所有,文章内容为作者个人观点,不代表大咖秀专栏的立场,转载请联系原作者获取授权。(有任何疑问都请联系wemedia@yesky.com)