“未来是一个人人都有自己的AI代理人的时代,而黄仁勋和扎克伯格,想成为制作AI代理人的平台,如同微软之于PC,IOS之于苹果。”
与子同袍的“战友”皮衣
球场,有个互换球衣的传统。
一场比赛打完,如果你赢得了对手的尊敬,或者在比赛中打出了载入史册的表现,对手常常会主动找你互换球衣。有点算是西方竞技场上的“与子同袍”之意。
如今在AI的“竞技场”上,又出现了这一幕。
这一次互换“球衣”的,是AI界的两位巨擘——黄仁勋与扎克伯格。
在北京时间2024年7月30日早上6点,计算机图形学领域顶级的年度会议——SIGGRAPH上,黄仁勋与扎克伯格用一场世纪对谈,拉开了今年下半年AI大战的序幕。
一位靠给AI界卖“淘金铲子”,拥有了这个星球上最高市值公司的大BOSS,另一位则是拥有着全球最大的社交软件、又在前几天发布了全世界最大的开源模型Llama 3.1的“外星人”。
当他们坐在一起“炉边谈话”,任何人都知道,这件事很不寻常。
他们聊了什么呢?
官方归纳,基本上就是:
1.Meta在AI领域的投入与进展:
Meta的印钞机业务——信息流和推荐系统,在过去被大模型动摇,其在生成式AI方面的发展将改变核心业务,如 Instagram 和 Facebook 的信息流和推荐系统。
2.Llama 模型与智能体:
Meta 从Llama 3 切换至Llama 4 及以后的版本后,Meta AI助手可能将不再只是简单的问答,而是能在理解意图后自主工作。
Meta还会推出AI Studio,让创作者和企业能创建自己的智能体。
3.Meta 的开源哲学:
Meta开源是因为在一些领域起步晚,开源能从生态系统受益。扎克伯格希望下一代计算机发展回到开放生态系统获胜的局势,认为开源对整个行业构建计算平台有很大价值。
4.英伟达与 Meta 的合作:
英伟达与Meta合作部署Llama 3.1,英伟达围绕Llama构建“AI工厂”,为企业提供工具和技术帮助构建AI服务。
5.对未来AI发展的看法:
扎克伯格认为未来不会只有一个中心化的AI代理或模型,不同模型会大规模增加。黄仁勋认为每个公司会为每个功能打造专门的AI。
不知道是不是这些话题看着就让人昏昏欲睡的缘故,会议结束后,疯传在科技媒体头条的,却是黄仁勋和扎克伯格互换皮衣。
在谈话结束的时候,扎克伯格翻出了一件羊毛围领的皮革大衣,送给了黄仁勋。黄仁勋也把身上的经典皮衣给扎克伯格披上,然后夸了一句:“扎克看着真健壮”,扎克伯格不甘示弱的回夸:“你看起来也挺男人的。”
这种互夸似乎有人发现了里面的小心机,因为之前在聊天中,扎克伯格一度向黄仁勋吐槽:“你的头发变白了,我的头发只是变长了。”而黄仁勋表示:“你的头发明明变卷了。”
看起来最后的换衣环节,两人都在借着夸对方穿衣后的样子来夸自己。
这或许是科技媒体们疯狂转发的原因之一。
智慧共享的开源战线
作为世界上最重要的计算机图形研究顶级会议,SIGGRAPH大会是英伟达的主场。
而今年的SIGGRAPH大会,又恰好是开办以来的50周年。
在这个节骨眼上,黄仁勋邀请此前从未来过大会的扎克伯格做客,意味深长。
除去两人私交好到能在聚会做奶酪牛排,在生意场上,两个人也是非常友好的伙伴——在英伟达2024财年里609亿美元的营收中,扎克伯格的Meta贡献了13%,仅次于微软的15%。
既然扎克伯格对黄仁勋如此重要,不如看看最近扎克伯格干了什么。
一周前,Meta正式发布了其最新的开源模型-Llama 3.1,包含8B、70B和405B三个尺寸,最大上下文提升到了128k。
而最大尺寸405B,从评分上看,超过了GPT-4 0125,和Anthropic公司的Claude 3.5不相上下,以至于被人称为迄今最强大的模型。
不过这当中,最重要的不是性能,而是“开源”。
所谓“开源”,指的是将开发的大型人工智能模型的相关代码、数据、算法等关键要素向公众开放,允许其他人自由地使用、修改和分发。
开源大模型,意味着全球的开发者和研究人员能够查看和研究模型的实现细节,了解其工作原理,并基于这些模型进行改进和创新,最重要的是,不用支付高额的授权费用。
而闭源大模型,则自然站在了开源大模型种种优点的反面,好处是有利于维持拥有闭源大模型的Ai企业的竞争力,防范数据泄露,通过控制模型的访问和使用权限,来获取利润。
比如OpenAI目前都是闭源大模型,国内前段时间的大模型价格战的基础,也都是闭源大模型。
扎克伯格的手笔,相当于把等同于OpenAI的最强GPT-4能力的大模型,拆开给你看里面的工作原理、使用数据,让全世界的创作者随便改随便造,还不收钱。
扎克伯格表示,此举是让人类的智慧共享。
谈话中,黄仁勋非常欣赏Meta的开源愿景,因为这样做,“能让所有人使用AI技术。”很显然,如果所有人都使用AI技术,那所有人也就都需要他的GPU,这符合黄仁勋的利益。
扎克伯格却表达得更直接:“让我谈论封闭的平台,我就会生气。”
这个让他生气的平台,是苹果。
生气的原因,他也解释了,是因为原本移动手机时代到来前,Facebook的阵地在网页上,那时是开放的,但向移动端过渡后,他不得不通过苹果这种竞争对手发布应用程序,想必也是被苹果税割痛了一把。
随着谈话的深入,两人的商业野心也凸显了出来。
原来,扎克伯格想做个AI studio,也就是AI平台上的平台,让每个公司、每个人都能制作并拥有自己的AI。这与黄仁勋一拍即合,他也想做个AI工厂,为此英伟达可以提供一个名叫NIM的英伟达推理微服务,来提供工具,专业知识,帮普通人用Llama这样的开源大模型来转化为AI服务。
换言之,他们构想的未来里:是一个人人都有自己的AI代理人的时代,而黄仁勋和扎克伯格,想成为制作AI代理人的平台,如同微软之于PC,IOS之于苹果。
商业野心背后的底层逻辑
这次谈话中,黄仁勋和扎克伯格表达对开源大模型的支持后,引起了小范围的讨论。
原来在七月初的2024世界人工智能大会上,百度的李彦宏谈及开源大模型时,曾说过“开源是智商税”。
虽然语出惊人,但在这句话之前,他还说了一句:“我们为什么要做大模型?是它能够有应用,这些应用在各种场景下,能够为客户为用户提升效率、降低成本,产生过去产生不了的作用。”
他认为大模型对客户的价值是,提升效率,降低成本,而恰恰闭源大模型比开源大模型更能做到这点。
比如他觉得闭源模型的平均水平比开源模型更强大,推理成本比开源模型更低。
确实,闭源大模型能更方便团队维护并进行性能优化,和控制数据的使用,以及获取收益。
不过,扎克伯格也在谈话中表明了开源大模型的优势。
比如闭源模型终究是一家企业的一己之力,而开源模型可以集全行业之力,就像《龙珠》中强如魔人布欧,也打不赢悟空集齐全地球之力的元气弹。
在谈话中,扎克伯格就提到了Meta曾经还是Face book的案例,即Open computer project开源计算项目。
当年Facebook由于用户体量大,导致网站运营成本非常高,所以不得不大规模砸钱投入进行网站基础硬件设施的优化。
后来从2009年开始,Facebook持续对外分享,逐渐把所有服务器、网络交换机和数据中心的设计都开源公布了出去。
由于Facebook的方案确实好,越来越多的公司都开始沿袭或改善Facebook的方案,工厂也开始批量生产符合方案的产品,直接导致整个产业的标准都因为Facebook的方案而统一了。
在产业的规模效应下,Facebook方案里需要的硬件采购成本,也快速下降,间接帮助Facebook省了几十亿美元。
这套底层逻辑,扎克伯格自然想同时应用在如今的AI时代上。他的逻辑也与黄仁勋不谋而合——黄仁勋说:“就像我身上穿的皮衣,我不愿意自己去制作,而是希望有人为我制作,那么这些皮革材料就需要开源,大家都能来用它。”
没想到最后是皮衣串联起了两位AI巨擘的商业野心。
不过林林总总的分析终归不够系统,行业外的观察还需行业内人士解惑,小巴也请了两位大头来对这次AI界世纪对话进行分析解答。
大头有话说
这次对谈是一个展示行业领导者思想和见解的平台,有助于公众和业界更好地理解人工智能和相关技术的未来趋势。
这次对谈的核心议题是,开源大模型和人工智能的未来发展。
开源大模型和闭源大模型各有优势,关键在于如何平衡创新、效率和质量。开源模型可以促进技术的快速传播和创新,但也可能带来知识产权保护和质量控制的挑战。李彦宏所说的“智商税”,可能指的是开源模型在某些情况下因为缺乏专业维护而降低效率或质量。
扎克伯格提出观点:AI大模型不会一家独大,从小到大的模型都有场景。这个观点很有道理,AI大模型并不是唯一的解决方案,不同规模的模型可以根据不同的应用场景和需求发挥作用。
扎克伯格还看好智能眼镜的未来。我认为,随着技术的进步和消费者对智能设备的需求增加,智能眼镜有可能会成为人们日常生活中的常见配件,但是,这是在10年还是20年以后才会出现的场景?同时,这种眼镜的成本又是多少?如果类似Apple Vision Pro,那恐怕只是一个落灰的设备。
除了扎克伯格,黄仁勋也分享了不少有趣的观点。他强调了AI在企业运营中的重要性,以及为特定功能定制AI解决方案的趋势。这表明AI技术正变得越来越专业化和个性化,有助于提高效率和满足特定需求。
对谈之外,英伟达的业务前景也值得一说。
我认为,如果Meta、OpenAI、谷歌等大厂的自研AI芯片获得成功,它们可能会对英伟达的市场地位产生一定的影响。然而,AI芯片技术门槛高,三年走不完十年的路,上述厂商主要推出ASIC芯片,英伟达GPU是通用芯片,两种用途不一样,因此不太可能被轻易取代。
扎克伯格与黄仁勋的对话,是积极正面的,体现了算力基础设施提供者与开源生态架构者的合作关系。
这次对谈的信息量非常大,是近两年扎克伯格最重要的一场公众表达。
扎克伯格认为,目前的大模型是问答式的,一问一答,不问不答,比较呆板。下一阶段的大模型,比如Llama 4模型,就不仅仅是一种问答,不仅仅是多模态,而是真正的智能助手。它能记得你讲过的每一句话,包括你提出的每一项任务。有些任务,它当下就帮你完成了。有些任务,它会在你需要的时间点交付。
扎克伯格还分享了很多精彩观点,让我印象最深的是,他对开源生态的理解和建构。
这个开源生态,对Meta来讲是很全面的布局,从深度学习开发工具到开源基础模型(小体量的、中体量的、大体量的),再到端侧的AI agent、AI studio、AI Foundry,还有AI 硬件,都有涉及。他对开源生态的完善思路,契合了我过去在多个场合表达过的观点,对用户来说是好消息。
扎克伯格坚决支持开源模型,点名批评苹果式封闭系统,引起了网络热议。我认为,开源模型和闭源模型,从长期来看是互补的关系。但短期来看,开源模型和闭源模型的竞争会越来越激烈。
开源模型在关键方面补足了短板,能力和水准越来越接近闭源模型。开源生态会越来越好,当越来越多的开发者加入、越来越多的用户数据卷入以后,这个生态就会进化出很多新的能力。
主打闭源模型的企业,比如说百度,也开始投资和布局开源模型。大模型领域的头部企业,正在转向全生态的竞争,不仅是要模型做好,还有很多事情要做。这是我的一个预测,而且这个预测即将成为现实。
未来,一个用户不会只用一个闭源大模型,也不会在端侧只用一个大模型。对用户来说,一定是云端模型和端侧模型的结合,一定是公域和私域的智能能力的结合,一定是通用和专用模型能力的结合,一定是大、中、小体量模型的搭配。
还有一个重要的趋势,只有能够做出来水准非常高、体量比较大的大模型(如405 B),然后经过蒸馏或压缩,才能够做出来比较好的实用模型(如Llama3.1的8B)。
因为,从大模型蒸馏过来的小模型,比纯粹就着小模型做出来的小模型,水准无疑更高。从用户端的实际使用状况来看,模型总体来说还是越大越好。受算力局限,很多时候不得不用小模型,但并不是说小模型就是最好的。
除了AI模型,两位企业家还讨论了智能眼镜话题。
我认为AI glass(不需要显示但拥有自然交互能力)的增长态势,会比VR glass更好。未来,AI glass会成为基于自然交互的入口设备,重要性甚至不亚于智能手机。所以,我对Apple Vision Pro的评价不高。
苹果这款产品其实是假AR、真VR,在自然交互上存在短板,且体积太大、重量也不轻,不会有人带着它满街跑。扎克伯格透露了Meta在 AR glass方面的进展,如产品集成度变高、重量减轻、厚度变薄、体积变小。
对谈之外,Meta和英伟达的潜在竞争关系也值得关注。
科技大厂都想打破,英伟达在AI芯片领域一家独大的现状。在研发AI芯片方面,各个大模型厂商选择了不同的路线,取得了一些成果,但还无法撼动英伟达的霸主地位。英伟达也没有止步不前,而是在不断探索新方向。
大模型厂商与英伟达的竞争是一件好事,或将改变科技行业算力不足、能效比不理想的状况。