天极大咖秀

登录 | 申请注册

阿里云,用开源开启云计算第三次浪潮

智能进化论 2023-11-07 阅读: 3,345 次

导读:从云栖大会2023,看懂阿里云在大模型时代的生态位。

AIGC时代,大模型已经成为云服务商的核心赛道。

作为亚太地区最大的云服务商,阿里云在2023云栖大会公布了其在大模型领域的最新进展:发布自研大模型通义千问2.0版本和8个行业(场景)大模型,以及一站式大模型应用开发平台百炼。

在国内“百模大战”不断升级的格局下,阿里云处在一个什么样的生态位?

表面上看,在基础大模型能力方面,通义千问可能不是最近距离追赶GPT4的。2023云栖大会上发布的通义千问2.0,综合性能超过GPT3.5,而隔壁百度文心一言4.0已宣称综合水平“与GPT-4相比毫不逊色”。

在自家行业模型落地方面,阿里云也不是动作最快的。云栖大会上,通义千问刚刚发布了通义听悟、通义灵码等8个行业大模型。相比之下,截止今年9月,华为云盘古大模型已经积累了20多个行业大模型和400多个AI应用场景。

那么,“百模大战”中阿里云的差异化竞争力在哪?阿里巴巴董事局主席蔡崇信在云栖大会上明确表示:阿里云要做AI时代最开放的一朵云。

开源开放,就是阿里云在AIGC时代找到的锚点。自2023年4月发布通义千问正式入局大模型赛道以来,可以看出,阿里云一直在围绕开源开放布局大模型技术生态。

2023年8月-9月,通义千问开源7B、14B参数大模型后,阿里云在云栖大会上宣布通义千问72B模型即将开源,届时将成为中国参数最大的开源模型。开源社区魔搭ModelScope已聚集2300多款AI模型,AI模型下载量突破1亿,成为中国规模最大、开发者最活跃的AI社区。目前中国80%的科技企业和一半的大模型公司都跑在阿里云上,包括百川智能、智谱AI、零一万物、昆仑万维、vivo、复旦大学等企业及机构。

在AIGC时代,任何科技企业包括OpenAI,要做到基础大模型的领先与先发优势难度都非常高。作为云服务商,阿里云积极拥抱开源生态不失为一种优势策略。

云计算第三次浪潮

针对此轮AIGC浪潮,黄仁勋等业内大佬纷纷抛出“AI的iPhone时刻、互联网时刻”等评价,那么如何评估GPT浪潮对云计算的影响?

阿里云创始人、中国工程院院士王坚博士认为,“2023年,人工智能与云计算在60年后自然地走在一起,是云计算的第三次浪潮”(自约翰·麦卡锡在1956年首次提出人工智能概念算起),前两次分别是互联网企业上云和传统企业上云。

2000年美国工程院评选的《二十世纪最伟大20项工程技术成就》榜单中,排在第一名的是电气化。可以说,电气化催生了其余19项成就的出现,包括无线电与电视、电话、家用电器、计算机、因特网等等。

王坚博士认为,云计算就像电,两者都是“你每分每秒都在用,但不会感觉到它的存在。”

如果将当前的人工智能革命类比100多年前的电气化革命,云计算与大模型的关系,就像电和电机的关系。

根据工信部数据,电机能耗约占整个工业能耗的65%以上,占全国总耗电的60%。未来,云计算大部分基础资源将被大模型消耗掉。

这一判断与很多业内观点不谋而合,比如2023年8月,一向专注硬件创新的英伟达发布生成式AI和超级计算云服务。这背后是黄仁勋对未来的判断,智能时代“所有计算,都将以云的方式提供。”

围绕“电与电机”这样的趋势判断,阿里云已经在为智能时代的云底座做准备:

在电(云端算力等基础设施)的部分,目前阿里云提供了国内公共云市场三分之一左右的算力,其中也包括大模型所需的先进异构算力资源。

在电机(大模型)部分,阿里云保持着自研大模型处在第一梯队的领先性,更重要的是为更开放的大模型生态构建全栈AI基础设施。

大模型不是仅靠算力资源堆积就能做好的,而是一个系统工程。阿里云早在2009年就提出过“数据中心是一台计算机”的理念,现在大模型正是这种理念的最佳应用场景。

不仅底层计算、存储、网络能力需要针对智算场景进行优化,还要融入容器、Serverless、数据库、大数据领域的智算创新。此外,云与用户的交互形态也在向“自动驾驶”进化,比如阿里云上已经有超过30款云产品接入了大模型能力。

在家用电器(智能应用)部分:借助开放的AI基础平台和工具,千行百业企业利用自身私域数据与个性化场景,将大模型能力为我所用。

锚定开源一路狂飙

ChatGPT 一骑绝尘后,GPT4选择闭源,不再公布技术细节,模型架构、参数量、数据集、token数、成本都成为黑箱,但业界却不断有爆料信息发出。

今年Meta的LLaMA系列大模型用开源为大模型生态撕开一个口子。在开源势力中疯长的还有Hugging Face这样的社区。

被称为AI领域的GitHub的Hugging Face是全球最大的大模型开源社区。2023年9月,Hugging Face获得谷歌、亚马逊、英伟达、Salesforce、AMD、英特尔、IBM 和高通的共同投资,估值达到45亿美元。目前,Hugging Face上的预训练模型数量超过30万个,数据集5.8万个。

国内大模型开源阵营中,不乏昆仑万维、百川等头部玩家,但阿里云是云计算大厂中率先开源的。

2023年8月,通义千问开源两款70亿参数模型QWen-7B 和QWen-7B-Chat,开发者可以在在Hugging Face和魔搭ModelScope平台上免费使用。目前,Qwen-7B等模型累计下载量已接近100万。

据悉,这两款模型在多个测评基准中取得了超过业界同尺寸开源模型的效果,在部分测评中甚至“跃级”赶超了部分更大尺寸模型。不少开发者在公开平台分享认为,通义千问开源模型更具普惠性,能够以较小成本、较高性能满足大部分开发者的需求,这对于硬件投入预算不高的中小企业和个人开发者非常友好。

9月25日,阿里云再次开源通义千问140亿参数模型Qwen-14B,Qwen-14B在多个权威评测中远超现有同规模模型,部分指标甚至接近llama2-70B。

接下来,通义千问72B模型也将开源,届时将成为中国参数最大的开源模型。

魔搭社区ModelScope也是阿里云大模型开源生态的重要一环。目前魔搭社区汇聚了280万AI开发者,模型下载量超过1亿,是中国规模最大、开发者最活跃的AI社区。魔搭社区还免费为开发者提供超3000万小时的GPU算力。

目前,包括百川智能、智谱AI、上海人工智能实验室、IDEA研究院等都选择在魔搭社区首发自己的开源大模型。

大模型开源的前提

开源的前提一定是技术领先。

随着开源大模型日渐增多,开源大模型同样面临着激烈的竞争,在全球AI开发者用脚投票下,模型下载量和口碑都是公开的考题。

“从阿里云创办的第一天开始,企业就坚信,不开放,就没有生态。没有生态,就没有未来。这些年,我们始终在攀登技术的高峰,因为只有站在更先进更稳定的技术能力之上,才有开放的底气。”从蔡崇信在云栖大会的讲话可以看出,阿里云对开源大模型的投入力度。

阿里云如何保持大模型的领先性,这离不开底层的人工智能平台PAI。通义千问就是通过人工智能平台PAI训练而来。

今年云栖大会,阿里云全新升级了人工智能平台PAI,底层采用HPN 7.0新一代AI集群网络架构,支持高达10万卡量级的集群可扩展规模,超大规模分布式训练加速比高达96%,远超业界水平;在大模型训练任务中,可节省超过50%算力资源,性能全球领先。

更重要的是,其他大模型企业也可以借助PAI平台的训练和推理能力,打造领先的专属大模型。

目前,百川大模型、智谱AI ChatGLM、零一万物大模型等都在借助超高性能分布式模型训练平台PAI灵骏,与超低延时模型推理与服务平台PAI灵积,加速自身大模型的创新。零一万物联合创始人马杰表示:“阿里云PAI灵骏智算服务为零一万物提供了高性能AI训练集群和工程平台,助力零一万物自研大模型,推动其AI-first的技术和应用生态。”

结语

从国外云巨头的财务数据上看,云计算第三次浪潮已经开始显现。

今年第三财季,微软智能云Azure和其他云服务的收入增长29%。微软管理层认为,高于预期的AI消费推动了Azure的收入增长。

亚马逊CEO Andy Jassy近日也表示,预计生成式AI所带来的机遇将在未来几年为亚马逊云服务(AWS)带来“数百亿美元”的收入。

在国内云服务厂商中,AIGC增量带来的财务体现还没有那么快到来。

王坚博士认为,“云计算的第三次浪潮可能要几十年才能到高峰。”

幸运的是,我们都有机会成为这次浪潮的见证者。可以预见,在人工智能开启的云计算新时代中,开源力量一定会有一席之地。

文中图片来自摄图网

END

本文为「智能进化论」原创作品。

智能进化论
专注云计算、AI、数字化转型领域深度报道。

特别声明:文章版权归原作者所有,文章内容为作者个人观点,不代表大咖秀专栏的立场,转载请联系原作者获取授权。(有任何疑问都请联系wemedia@yesky.com)