换了发型的扎克伯格越来越不像机器人了。
这是网友们对扎克伯格最近形象转变的普遍评价,但看顺眼的网友更多是对他旗下 Meta 公司的认可。
时间往回倒退 3 年,当时的「Facebook」或许还指望着改名转运。
改变这一切的根由,不是扎克伯格烧了数百亿美元打造的乌托邦——元宇宙,而是当下科技圈最热的词汇——AI。
从一众巨头脱颖而出的 Meta 仅凭一招「开源」,便在人们心中树立起极大的声誉。
昔之 Linux,犹如今之 Meta。
独一档的 Meta AI 大模型,走上了开源之路
今天,Meta 发布了 2024 财年第二季度未经审计的财报。
数据显示,Meta第二季度营收为 390.71 亿美元,同比增长 22%。净利润为 134.65 亿美元,同比增长 73%。
这也揭示了当前 AI 行业所面临的困境,一眼望不到头的烧钱投入,以及「一眼望不到头」的利润回笼。
财报电话会议上,Meta CFO Susan Li 向投资者坦言,公司近期在 AI 领域的投资回报需要较长时间才能显现。
扎克伯格也就投入数十亿美元购买英伟达硬件和其它基础设施等问题直言不讳:
虽然很难预测 AI 将如何在未来几代人中发展,但现阶段,我更愿意在需求到来之前冒险进行产能建设,而不是等到太迟才入局。
调侃 Meta 为英伟达优质客户的扎克伯格曾透露,Meta 计划在 2024 年底向英伟达购买 35 万个 H100 GPU 芯片,预计 Meta 的 GPU 总量将达到约 60 万个。
作为对比,全球 Top 5 的机器学习博士曾发文自曝,所在实验室里的 H100 数目为零的场景,一语道出了 GPU 之间的「贫富差距」。
Meta 的高投资换来了 Llama 2 、Llama 3、再到上周深夜发布的最强开源 AI 大模型 Llama 3.1 系列模型的横空出世。
Llama 系列模型刷新一次又一次的性能纪录 ,并跻身于当今 AI 大模型的第一梯队。
其中,Llama 3.1 系列模型最大尺寸版本 405B 在多个基准测试中展现了卓越的性能,甚至在某些领域中超越了如 GPT-4o 和 Claude 3.5 Sonnet 等顶尖模型。
更重要的是,Llama 3.1-405B 模型的发布也用无可辩驳的实力证明了开闭源只是路线之争,并非影响最终的技术成果。对此,马斯克在线点赞。
与许多科技巨头不同,Meta 有着投资开源项目的历史,从机器学习库 PyTorch 到 Java 库 React,再到当下的 Llama 3.1 系列模型都是 Meta 最佳的案例。
扎克伯格所写的长文《开源 AI 是未来之路》也回答了 Meta 选择开源路线的意义。
在他看来,Llama 3.1 的发布将成为行业的一个转折点,大多数开发者将开始主要使用开源模型。而 Meta 有机会做大模型时代的 Linux,成为开源 AI 的领头羊。
全力押注开源的 Meta 也逐步扩大开放性,允许开发者进行模型微调、蒸馏到其他模型以及在任何地点部署。唯一的要求是前缀加上 Llama 前缀,这一点,合情也合理。
而经过蒸馏的 8B 和 70B 尺寸则印证了模型的另一条路,比起把大模型越做越大,懂得怎么将大模型越做越小也是一门本事。
另外,扎克伯格最近也透露,Llama 4 已经正在训练中,该模型在明年发布时将成为业内最先进的模型,训练过程所需的算力将是其前代 Llama 3 的近十倍。
如此看来,或许扎克伯格还得与黄仁勋多交换几次皮衣。
用 AI 重塑一切,Meta 押注下一个未来
Llama 系列底层模型推动了 Meta 在应用层面的全面开花,多点布局。
手握 Facebook、Instagram 等社交软件,扎克伯格不止一次谈到社交技术的终极梦想「真正感受与另一个人在一起」。
为此,他耗资数百亿美元豪赌元宇宙,但结果却是当头一棒,而 AI 成了拯救这个未竟梦想的灵丹妙药。
几天前,在与黄仁勋的聊天中,他表示:
我梦想有一天,你可以想象整个 Facebook 或 Instagram 都像一个 AI 模型,将所有不同的内容类型和系统统一在一起,这些内容类型和系统实际上在不同的时间范围内有不同的目标。
因为其中一些只是向你展示,比如你今天想看哪些有趣的内容。但还有一些内容是在帮助你构建你的长期社交网络,对吧?比如你可能认识的人或者你可能想要关注的账户。
扎克伯格希望提供一个可以帮助用户完成不同任务的 AI 助手,每个创作者都可以构建自己的 AI 版本。
话糙理不糙,尽管那场 QA 采访被办成了 Meta 产品的推介会,但 Meta AI 成为最广泛使用的 AI 助手的愿景也在 AI 的加持下曙光乍现。
而在当下的最热门的 AI 硬件领域,Meta 也有所涉猎。
从「iPhone 杀手」Ai Pin 寻求卖身到当红炸子鸡 Rabbit R1 被曝套壳,AI 智能穿戴设备市场在用户严苛审视之下,短短数月便逐渐哑火。
经过几轮淘汰后,不少行业内外人士达成的共识是,智能眼镜或许才是 AI 智能穿戴设备的最理想的形态。
如果说天下 AI 智能眼镜共分十斗,那么 Meta 旗下的 Ray-Ban Meta 智能眼镜至少独占五斗以上。
第三方数据显示,起售价为 299 美元的 Ray-Ban Meta 在发布两年后,销量突破百万大关。 不久前,扎克伯格在接受采访时曾放言:
如果我们只采用今天最好的眼镜形式,我们能在不影响形式因素、重量等方面的情况下,塞进多少技术。这就是我们得到的 Ray-Ban Meta。
甚至他也曾预言道,基于我们现在看到的雷朋智能眼镜,300 美元的价格、无显示屏的 AI 眼镜将会成为一个非常热门的产品。 未来或许会有数千万人、甚至数亿人拥有这些眼镜,届时,用户能与一个互动能力超级强的 AI 对话。
而拥有先发优势的 Meta,下一个目标是理想中的全息 AR 眼镜。
扎克伯格认为,下一个计算平台将主要围绕智能眼镜和 VR/MR 头显展开。你的下一台手机何必是手机将不再是空话,智能眼镜将成为下一代智能移动设备的开端。
而 VR、MR 头显将执行更高强度的计算任务,Meta 也已经启动研发理想中的全息 AR 眼镜,这款眼镜将集成超级交互式 AI,同时在设计上也追求时尚美学。
出于对智能眼镜的看好,The Verge 报道称,Meta 还计划斥资数十亿美元收购雷朋眼镜制造商 EssilorLuxottica 约 5% 的股份。
随后又有消息传出,Google 也在和 EssilorLuxottica 洽谈,商讨要将 Gemini AI 助手融入智能眼镜之中,并考虑将 Meta 排除在合作之外。
尽管扎克伯格并未上述传闻作出评论,但他在今天财报电话会议上也表示,在 Meta Ray-Bans 取得初步成功后,他对于开发未来几代 AI 眼镜感到兴奋。
除了智能眼镜,扎克伯格也提到,Quest 3 的销量超出了公司的预期,尽管具体预期未明。 据悉,Meta 将在 9 月份推出更便宜的版本。
当然,目前整个 AI 行业都处在赔钱赚吆喝的阶段,Meta 也不例外。
但幸运的是,论技术,Meta Llama 3.1 位列 AI 大模型的第一梯队,论落地应用,雷朋眼镜是目前公认比较正确的形态,甚至 Meta 还借着开源的旗号扭转声誉。
与此同时,两代最大的热点元宇宙和 AI 都被 Meta 牢牢抓住,因此,可以说,同时踩中 AI 大模型、AI 硬件、元宇宙等多个大火热点的 Meta 占据了应用端的最有利的位置。
另外,押注开源的 Meta 不仅仅呈现了 AI 路线的另一种选择,也成了整个 AI 行业极佳的观察窗口。
这种策略与一向封闭的 Google 要用大模型生态占住搜索端和云服务端的布局,有着异曲同工之妙,都是服务于其商业目的的手段。
简言之,我们甚至可以下个暴论:
Meta 不是世界上技术最强的 AI 公司,但它可能是布局最成熟的 AI 公司。
OpenAI 风波的背后:分岔的超级智能之路
在科技与商业的交叉路口,OpenAI的剧变犹如一场跌宕起伏的剧情,将超级智能的伦理边界推至显微镜下。 这一切始于Sam Altman的离职与回归,背后隐藏的是对超级智能道路的深刻分歧与考量。 以下是这场风暴的核心事件,揭示了公司内部的深度交锋与影响:
1. 破晓筹款Sam Altman在展示OpenAI的重大突破之际,积极筹备新一轮的融资,目标高达900亿美元,这一举动触动了对自主性与人类情感的敏感神经。 然而,Ilya的担忧不绝于耳,他强调团队需要更多时间研究模型的可控性和伦理边界。
2. 融资与伦理碰撞Greg与Macron的会面引起了主权基金的兴趣,但这种资金涌入也引发了关于AI责任与关爱的讨论。 当GPT-5的研发推进,资金需求飙升时,这些分歧愈发尖锐。
3. 板块重组与分歧加剧Sam的出局与Greg的降职,标志着董事会的动荡。 微软的缺席与员工的反抗,使得AI安全议题成为焦点。 最终,Sam回归CEO,董事会重组,Bret Taylor、Larry Summers和Adam DAngelo加入,展示了对科研与工程优先级的不同理解。
伦理与工程的抉择
AI业界的智者们,如Ilya的超级对齐理念与Sam和Greg的工程化产品化路线,形成了鲜明对比。 Stuart的《Human Compatible》提醒我们,应对AI的挑战需要提前布局。 然而,OpenAI在模型能力的转折点上,如何平衡安全与应用,成为亟待解决的难题。
理论与实践的挑战试图像《万神殿 2》那样建立“监督者”模型,防止恶意AI,实则困难重重。 评估守护者模型的复杂性,需要跨领域的合作与社会适应。 Sam倡导渐进式开放,以避免安全危机,而e/acc则认为AI灭绝风险相对较低,但短期影响不容忽视。
尽管AGI的未来充满不确定性,但通过竞争抑制恶意使用,AI的益处显而易见。 人类文明的延续可能涉及高级形态,而当前的技术限制导致了短期矛盾。 OpenAI的信任度下滑,GPT-5的未来命运与公司生态的演变,都将在这一场戏剧中写下新的篇章。
超级智能的冲突无疑将引发全球对AI安全的深度关注,OpenAI内部的动态将如何影响其前行之路,以及GPT-5将如何定义这个时代的边界,我们拭目以待。 在未知的未来,我们期待OpenAI在探索与责任之间找到平衡,引领智能的光明之路。
中国最牛AI公司:成立不到1年,单笔融资70亿。
在AI的璀璨星河中,一颗新星璀璨升起——月之暗面,这家不到一年便崭露头角的科技新秀,最近以一笔创纪录的70亿人民币融资震惊业界。 估值高达250亿美元,月之暗面已成为国内大模型领域的翘楚,其创始人杨植麟,凭借清华大学和卡内基梅隆大学的深厚背景,亲手塑造了Transformer-XL和XLNet的里程碑式成果。 受ChatGPT的启发,杨植麟与志同道合的校友共同创立了月之暗面,推出了智能助手Kimi Chat,这是一款革命性的产品,支持长达20万汉字的长文本交互,关键在于其自主研发且闭源的特性,以及专注于To C用户的直接服务。 Kimi Chat在长文本处理能力上超越了行业标杆,参数量在千亿级实现了无损长程注意力,是Anthropic Claude的2.5倍,GPT-4的8倍,展现了月之暗面团队在大模型创新上的卓越实力,特别是RoPE编码技术的运用。 月之暗面的愿景远不止于此,他们旨在打造To C领域的超级应用,计划在2024年推出多模态产品,区别于OpenAI的Sora,他们坚信自主研发的模型对于构建Super App至关重要。 尽管商业化进程尚未走到终点,但月之暗面坚守在消费者端,深知开源模型虽具有开放性,但难以形成独特的产品壁垒。 杨植麟的观点鲜明而深思熟虑,他指出,闭源模型对于产品差异化和壁垒构建的重要性不容忽视。 在国内大模型的战场上,互联网巨头和创业公司形成了各自的路径。 大厂着眼于产业生态,而创业公司则聚焦技术深度。 面对OpenAI的领先地位,国内玩家们正积极追赶,但同时也认识到,这是一场时间与技术创新的马拉松,每个参与者都在寻找自己的独特场景优势。 月之暗面的崛起,象征着中国AI创业公司的崭新力量和雄心壮志。 未来,随着市场的发展和技术创新,我们期待月之暗面在AI的浪潮中书写更多传奇,引领国内AI领域的崭新篇章。
8年增长1000倍,英伟达带来史上最成功的产品
“It’s ok,Hopper。 You’re very good,good boy or good girl”。
北京时间3月19日凌晨,GTC最重磅的主题演讲开始,英伟达创始人黄仁勋身着标志性的皮衣,先是感谢了“改变世界的Hopper”,并宣布重磅推出新一代AI芯片架构Blackwell。
在他看来,加速计算已达转折点,通用计算已走到尽头,需要有另一种计算方式,来进一步降低计算成本、提高计算效率。
我们需要更大的GPU。 黄仁勋说。 过去8年时间里,AI算力需求有了1000倍增长。 在Blackwell架构下,芯片之间可连接构建出大型AI超算集群,支撑更大的计算需求。 “它是英伟达最成功的产品”。
黄仁勋进一步介绍表示,Blackwell拥有2080亿个晶体管,是上一代芯片“Hopper”800亿个晶体管的两倍多,可以支持多达10万亿个参数的AI模型。 “其将成为亚马逊、微软、谷歌、甲骨文等全球最大数据中心运营商部署的新计算机和其他产品的基石”。
第一款采用Blackwell架构的芯片名为GB200。 它被黄仁勋称为“史上最强AI芯片”,将于今年晚些时候上市。
B200芯片拥有2080亿个晶体管,采用台积电定制的4NP工艺制造。 值得一提的是,这次的芯片将两个die连接成一个统一的GPU,die之间的通信速度可以达到10TB/秒。
黄仁勋强调,Blackwell架构的全新型GPU处理器设计架构在处理支持人工智能的大语言模型训练、推理方面速度提高数倍,而成本和能耗较前代改善巨大。
他举例表示,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。 但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。 不只是训练,生成Token的成本也会随之显著降低。
6大创新技术,Blackwell被认为是“最成功产品”
“1993年,英伟达旅程开始……”
Blackwell GPU登场之前,黄仁勋先回顾了英伟达30年发展历程,他认为沿途有几个重要里程碑。
首先是2006年,CUDA发布,黄仁勋表示,后来被证明是一种革命性的计算模型。
“我们当时认为它是革命性的,以为它将一夜之间获得成功。”黄仁勋如是表示,
从后续发展来看,CUDA确实配得上“革命”这个词。
作为一项同时支持硬件和软件的技术,CUDA可利用图形处理器中的多颗计算核心进行通用计算处理工作,极大加快了开发模型的训练速度。
可以简单理解为,CUDA是英伟达实现软硬件适配的一种架构,而软件生态决定了产品的适用性,计算平台决定了硬件的使用效率,CUDA是英伟达实现生态的绝对护城河。
不过,外界认识到CUDA的价值还是将近10年之后。
2016年,AlexNet与CUDA首次接触,一种名为DGX1的新型计算机诞生,首次将170teraflops和8个GPU连接在一起。 正如外界了解那样,黄仁勋笑言,“我亲自交付了第一台DGX1给一家位于旧金山的初创公司,名为OpenAI”。
2017年,Transformer到来。
2022年,ChatGPT捕获了世界的想象力,人们意识到人工智能的重要性和能力。
2023年,生成式AI出现,新的行业开始形成。
“为什么是一个新行业?”黄仁勋表示,因为这样的软件以前从未存在过,我们现在正在使用计算机编写软件,这是一个全新的类别,它从无到有占据了市场份额,生产软件方式与此前在数据中心所做的完全不同。
面对全新的市场和需求,需要更强大的GPU。
“Hopper很棒,但Blackwell更好”。 黄仁勋认为,生成式AI是这个时代的决定性技术,Blackwell是推动这场新工业革命的引擎。
根据黄仁勋介绍,Blackwell GPU有6大创新技术,包括:
全球最强大的芯片。 具有2080亿个晶体管,采用专门定制的双倍光刻极限尺寸4NP TSMC工艺制造,通过10 TB/s的片间互联,将GPU裸片连接成一块统一的GPU。
第二代Transformer引擎。 得益于全新微张量缩放支持,以及集成于TensorRT-LLM和NeMo Megatron框架中的英伟达动态范围管理算法,Blackwell将在新型4位浮点AI推理能力下实现算力和模型大小翻倍。
第五代 NVLink。 为了提升万亿级参数模型和混合专家AI模型的性能,最新一代 NVIDIA NVLink为每块GPU提供1.8TB/s双向吞吐量,确保多达576块GPU之间的无缝高速通信。
RAS引擎。 采用Blackwell架构的GPU包含一个用于保障可靠性、可用性和可维护性的专用引擎。 此外,Blackwell架构还增加了多项芯片级功能,能够利用AI预防性维护来运行诊断并预测可靠性相关的问题。 这将最大程度延长系统正常运行时间,提高大规模AI部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。
安全AI。 机密计算功能可以在不影响性能的情况下保护AI模型和客户数据,并且支持全新本地接口加密协议。
解压缩引擎。 专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。
在黄仁勋看来,未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由GPU加速。
多次迭代,英伟达不断拉大与对手差距
之所以取名Blackwell是为了致敬美国科学院首位黑人院士、杰出统计学家兼数学家David Blackwell,其擅长将复杂的问题简单化,独立发明的“动态规划”、“更新定理”被广泛运用于多个科学、工程学等多个领域。
而这,也是每一代英伟达GPU架构的命名习惯。
GPU的概念,是由英伟达在1999年发布Geforce256图形处理芯片时首先提出的,从此英伟达显卡的芯就用GPU来称呼,它是专门设计用于处理图形渲染的处理器,主要负责将图像数据转换为可以在屏幕上显示的图像。
与CPU不同,GPU具有数千个较小的内核(内核数量取决于型号和应用),因此GPU架构针对并行处理进行了优化,可以同时处理多个任务,并且在处理图形和数学工作负载时速度更快。
随后20多年时间,英伟达每隔1-2年提出新的芯片架构以适应计算需求升级,陆续推出Tesla、Fermi、Kepler、Maxwell、Pascal、Volta、Turing、Ampere和Hopper等。 不断增强GPU的计算能力和程序性,推动GPU在图形渲染、人工智能和高性能计算等领域的应用。
比如,2020年Ampere架构在计算能力、能效和深度学习性能方面大幅提升,采用多个SM和更大的总线宽度,提供更多CUDA Core及更高频率,引入第三代Tensor Core,具有更高的内存容量和带宽,适用于大规模数据处理和机器学习任务。
再比如,2022年发布Hopper架构,支持第四代TensorCore,采用新型流式处理器,每个SM能力更强。
可以理解为,GPU架构的更新主要体现在SM、TPC(CUDA核心的分组结构)增加,最终体现在GPU浮点计算能力的提升。
从Pascal架构到Blackwell架构,过去8年,英伟达将AI计算性能提升了1000倍。 “在Blackwell架构下,芯片之间可连接构建出大型AI超算集群,支撑更大的计算需求。 ”黄仁勋表示,GPU的形态已彻底改变,未来英伟达DGX AI超级计算机,就是AI工业革命的工厂。
从数据和性能看,英伟达的GPU产品在AI训练上的性能和水平,确实与全球其他玩家的差距在进一步拉大。
这也使得英伟达芯片在大模型训练领域占比不断提升,但受限于芯片管制、产能等因素,在推理市场,英伟达丢失了一些份额。
生成式AI微服务推出,打造AI应用级入口
两周前,英伟达在CUDA11.6更新版本中强调:“禁止其他硬件平台上运行基于 CUDA的软件”。
显然,它想要训练和推理芯市场一起抓。
为了上述目标的实现,光有硬件还不够,软件护城河也要跟上。
因此,在讲完硬件生态之后,黄仁勋开始介绍在AI软件方面的创新,即生成式AI微服务NIMS(Nvidia Inference Micro Service)。
在黄仁勋看来,生成式AI改变了应用程序编程方式。 未来,企业不再编写软件,而是组装AI模型,指定任务,给出工作产品示例,审查计划和中间结果。
而NIM的出现能够让这件事的实现更加简单。 黄仁勋希望,用NIM平台,支持应用厂商开发智能应用,将NIM打造为CUDA生态之后的一个AI应用级入口,增加生态护城河价值。
据介绍,英伟达NIM是英伟达推理微服务的参考,是由英伟达的加速计算库和生成式AI模型构建的。 微服务支持行业标准的API,在英伟达大型CUDA安装基础上工作,并针对新的GPU进行优化。
“企业可以利用这些微服务在自己的平台上创建和部署定制应用,同时保留对知识产权的完整所有权和控制权”。 据黄仁勋介绍,NIM微服务提供基于英伟达推理软件的预构建容器,使开发者能够将部署时间从几周缩短至几分钟。
它们为语言、语音和药物发现等领域提供行业标准API,使开发者能够使用安全托管在自己的基础设施中的专有数据,来快速构建AI应用。 这些应用可按需扩展,从而为在英伟达加速计算平台上运行生产级生成式AI提供灵活性和性能。