天极大咖秀

登录 | 申请注册

反思“一蜂窝都搞大模型”,李彦宏和杨元庆想到一起了

丁道师 2023-11-21 阅读: 2,302 次

1

2023年11月15日,深圳2023西丽湖论坛上,百度创始人、董事长兼首席执行官李彦宏发言时表示行业现在有200多个大模型,不断地重复开发基础大模型是对社会资源的极大浪费。

几乎在同时,联想集团董事长兼CEO杨元庆也表达了类似的观点。2023年11月16日,在联想集团2023/24财年第二财季业绩沟通会上,联想集团董事长兼CEO杨元庆指出,现在做大模型的企业都在一窝蜂的搞大模型训练,但并不完全合理,未来很多的机会将会出现在承载大模型推理的边缘端、设备端。

有意思的是,李彦宏和杨元庆虽然观点类似,但推导观点的过程却不一样。

李彦宏的逻辑在于,大模型本身是一个基础底座,类似操作系统(想想,假如现在行业有200个操作系统,该多么混乱),那么最终开发者要依赖为数不多的大模型来开发出各种各样的原生应用。所以,不断地重复开发基础大模型是对社会资源的极大浪费。

杨元庆的逻辑在于,大模型真正能够产生价值,70%的价值会体现在推理环节,30%的才放到学习训练环节。未来,不会所有的计算都跑公有云上去,很多机会会出现在边缘端(基于本地的、非连接远程网络的设备)。

 2

对于这两位大佬殊途同归的观点,我有几点解读和看法。

先说杨元庆。

杨元庆提到的边缘端、设备端承载大模型推理的观点确实非常具有前瞻性。在现代社会,随着物联网、边缘计算等领域的飞速发展,数据处理和分析的需求正迅速增长。传统的数据处理方式,通常需要将数据传送到远程的数据中心进行处理,然后再将处理结果传回设备端,这样的方式往往会带来较高的传输延迟,影响用户体验。

然而,如果我们能将大模型的推理能力下沉到边缘端、设备端,情况就会有所不同。这种处理方式的好处很多,首先是数据可以在本地进行处理,无需远程传输,从而降低了传输延迟,使得系统能够更快地响应用户请求。同时,由于数据处理在本地进行,不需要依赖远程服务器,因此可以减少因网络不稳定导致的处理失败的情况,从而提高系统整体的处理效率。

从用户使用层面来看,更快的响应速度和更高的处理效率,无疑会大大提升用户的使用体验。无论是智能对话、实时翻译,还是AI创作等场景,都需要快速、准确的数据处理和分析,而这些都可以通过边缘端、设备端的大模型推理来实现。

这些价值,需要强大的本地芯片支撑,这也就是英伟达为什么能够洛阳纸贵的原因所在。同样,这也是为什么国内一些大模型公司,洋洋自得“囤积了几千片英伟达芯片”原因所在。

当然,有必要说明,大模型的实时化是大势所趋。单靠边缘计算无法玩转大模型,还得结合在线云服务,方能发挥大模型真正的价值。

3

再来说李彦宏。

李彦宏是大模型时代的布道者,及时对于大模型开发泼“冷”水,很有必要,避免行业过热发展走向畸形。

李彦宏认为大模型是AI应用的基础,类似于一个公共平台。在这个平台上,开发者可以基于已有的大模型来开发各种应用,而不是每个开发者或团队都从头开始构建自己的基础模型。

李彦宏的论述其实就是“借船出海”的理论:你的面前有一条大河,你要过去河的对岸,你是自己造一艘船呢,还是借助别人的船呢?

这种思路其实在其他领域也得到了验证。例如,在Web开发领域,开发者基于现有的框架和库来开发应用,而不是每个开发者都从零开始编写所有的基础代码。

况且,如果每个团队或企业都从头开始构建自己的大模型,那么大量的时间、金钱和人力资源将被消耗在基础建设上,而不是创新和应用开发。李彦宏的观点提醒我们,我们应该更多地考虑如何利用和复用现有的大模型,而不是盲目地重复造轮子。

在那天的分享中,李彦宏还提到智能涌现能力。简单来说,当大量的数据、算法和计算资源结合在一起,就有可能产生出超出预期的智能行为或能力。

如果一个企业或城市只是简单地购买硬件、囤积芯片,然后训练自己的专用大模型,那么他们可能只是得到了一个“大”的模型,而不是一个真正具有智能涌现能力的模型。真正的智能涌现能力往往需要更大规模的数据、更先进的算法以及更强大的计算资源来支撑。

4

最后,对于李彦宏的论述,我稍微谈点不一样的看法。

我认为大模型应该是“百家争鸣,百花齐放”,越多大模型,才能赛出来那匹更快的马。大模型到底是有1个好,还是有100个好,让市场来决定为好。就像当年团购网站的“千团大战”一样,如果没有那么多竞争者,就不会有后来的美团。

一个简单的逻辑在于,多个大模型的存在意味着更多的技术路线、更多的尝试和创新。这种竞争态势可能会催生出更先进、更有用的大模型技术。因为,我们谁也不知道,哪个模式或者哪个技术路线是正确的。

同时,市场竞争也有助于满足多样化的用户需求。不同的大模型可能会针对不同的应用场景、不同的用户需求进行优化,这样用户就可以根据自己的实际需求选择最适合的大模型。好比这两天传出来滴滴也做大模型,如果滴滴认为已经有的大模型就可以解决他的需求,为什么还要费力开发大模型呢?显然,滴滴的大模型肯定是基于移动出行场景来开发,服务专属领域。

总体来看,最理想的状态是找到一个结合了市场竞争和资源优化的方法,既能够保持技术的进步和创新,又能够避免过度的资源浪费。这需要行业内的企业、研究者和政策制定者共同努力,以实现可持续和高效的大模型发展。

丁道师
资深互联网观察家、媒体专栏作家

特别声明:文章版权归原作者所有,文章内容为作者个人观点,不代表大咖秀专栏的立场,转载请联系原作者获取授权。(有任何疑问都请联系wemedia@yesky.com)