新智元报道
编辑:桃子
【新智元导读】 天网离我们还有多远?现在,科学家们希望通过一个强大的超算网络,来加速发展人类级别的人工智能,预计在2025年前全面投入运行。
一台世界极其强大的全新超算,将于9月正式上线。
据称,这台超算将会带来AGI时刻。
这是由SingularityNET公司建造,形成了「多层次认知计算网」,主要就是拿来托管和训练AGI所需的架构。
这就包括,能够模仿人脑的深度神经网络、AI系统训练所依赖的LLM,以及多媒体输入和输出的多模态系统。
毕竟,AGI是假设中的未来系统,能在多学科领域都超越人类智能,具有自学习和自我改进能力。
英伟达最强GPU加持,构建新型AI超算网络
这台模块化超级计算机,将配备先进的组件和硬件基础设施。
其中包括,NVIDIA L40S GPU、AMD Instinct和Genoa处理器,还配备了H200 GPU的Tenstorrent Wormhole服务器机架,以及英伟达GB200 Blackwell系统。
这台超算,本身将是向AGI过渡的一个突破。
目前,他们团队正在开发一个新型神经-符号AI方法,减少了对资源需求,但仍需要强大的计算能力。
SingularityNET表示,这台超算的使命是,让基于大数据学习和简单上下文再现,向更高级的非模仿性机器思维转变。
也就是说,全新的机器思维基于多步推理算法和动态世界建模,涉及跨领域模式匹配和迭代知识提炼。
目前,在我们眼前,一个范式正在发生转变:
a. 持续学习:AI能够不断学习和更新知识。
b. 无缝泛化:AI能够将学到的知识应用到新的、未见过的情况。
c. 反身AI自我修改:AI能够自主地改进和调整自己的算法和结构。
内部人士称,第一台超级计算机将于9月开始投入使用,整个项目将在2024年底或2025年初完成,具体取决于供应商的交付时间表。
通向AI「超级智能」之路
可能很多人,对SingularityNET了解的并不多。
这家公司成立的目标,便是为AI、AGI和未来的人工超级智能(假设远远超越人类认知能力的未来系统)的发展,提供数据访问。
为此,Goertzel和他的团队还需要独特的软件来管理联邦(分布式)计算集群。
联邦计算集群,允许抽象用户数据,并暴露必要的汇总数据,以进行大规模且受保护的计算。
这些计算涉及包含高度安全元素(如个人身份信息)的数据集。
Goertzel补充道,「OpenCog Hyperon是一个专为AI系统架构设计的开源软件框架」。
这个全新的硬件基础设施,是专门为实现OpenCog Hyperon及其AGI生态系统环境而构建的。
论文地址:https://arxiv.org/pdf/2310.18318
为了授予用户访问超算的权限,Goertzel和团队使用了在AI领域常见的分词系统。
用户通过token获得对超级计算机的访问权,他们可以使用并向现有数据集添加数据,其他用户依赖这些数据集来测试和部署AGI概念。
GPT-3是在3000亿个token上训练的,而GPT-4是在13万亿个token上完成训练。
还有,自动驾驶系统是在数千小时的视频上训练的,用于编程的OpenAI Copilot,是在Github网站上数百万行人类代码的基础上训练的。
DeepMind的联合创始人Shane Legg曾表示,AI系统可能在2028年达到或超越人类智能。
不过,现在Goertzel估计,预计在2027年实现这一水平。
有网友直呼,天网来了。
另有网友表示,「让我们想象一个超级智能的玩具计算机」。
它的学习方式与其他计算机不同——不仅仅是记住大量信息,而是尝试独立理解和思考。这种全新的学习方式可能帮助我们创造出更像人类思考方式的计算机。
这个玩具不断学习并变得越来越聪明,甚至可能找出如何改进自己的方法。这是我们制造智能计算机方式的一个重大改变。
参考资料:
https://www.livescience.com/technology/artificial-intelligence/new-supercomputing-network-lead-to-agi-1st-node-coming-within-weeks
https://x.com/SingularityNET/status/1822264864057741759
AI的「iPhone 时刻」,英伟达的「核弹发射」
近日,一年一度的英伟达 GTC 大会再度拉开帷幕。 穿着标志性皮夹克的「AI 黄仁勋」向开发者介绍了英伟达在硬件和 AI 领域最新的进展。
年初的 CES 刚刚过去,对于英伟达来说,短时间就要拿出很多新的东西,挑战不小。 但是从 CES 到现在,短短 3 个月里,全球 AI 领域发生了翻天覆地的变化,这也成了英伟达的新契机。
AI的「iPhone 时刻」
「AI 的『iPhone 时刻』已经到来」,老黄这样形容最近 AI 行业的「大事件」。
2016年8月,黄仁勋将当年全球第一台 AI 超算捐给了 OpenAI。 6年多后,OpenAI 带着 ChatGPT搅动了整个地球。 大量的新型创业公司希望借助于这股东风来颠覆既有的传统商业模式,而许多传统的科技巨头也在纷纷拥抱 AI,来维系自己的领先地位。
在 2023GTC 大会上,英伟达宣布了将和谷歌云、微软 Azure、甲骨文云联手推出 DGX 云服务。 ChatGPT 将从目前使用的 A100 GPU 升级到使用微软 Azure 超级计算机用上 H100,理论上回复速度将快 10 倍。
毫无疑问,ChatGPT 将会引发新一轮的人工智能革命,其对整个汽车行业也会产生深远的影响。 ChatGPT 模型也将逐渐从人机沟通逐步赋能包括自动驾驶在内的智能网联系统的各个环节。 在网络推出「中国版 ChatGPT」的「文心一言」后,吸引了包括集度、长安、吉利、长城、东风日产、零跑等车企纷纷抛来合作的橄榄枝。
而在 ChatGPT 以及其他一众 AI 大模型技术的背后,都离不开英伟达在算力层面的大力支持。 自从英伟达向 OpenAI 交付首台 DGX 超级计算机后,目前台 DGX 超级计算机已经成为市场上最主流的产品。 最新 DGX 超级计算机的核心,是英伟达的 8 块 H100 模组。 当 ChatGPT 这样的 AI 工具逐步渗透车企之后,最大的赢家之一依然会是英伟达。
联想 x 英伟达,汽车行业新亮点?
对于英伟达来说,在这次 GTC 上,和车企的合作,尤其是自动驾驶领域着墨不多。 但这并不影响未来汽车领域的业务会成为英伟达的一个快速增长的新引擎。
作为如今全球可以和特斯拉齐平、最为炙手可热的新能源车企之一,比亚迪与英伟达进一步扩大合作当消息得到了官宣。 比亚迪的下一代王朝系列和海洋系列中的多款车型都将使用英伟达 DRIVE Orin 高性能计算平台。 其中,在今年二季度,比亚迪首款采用英伟达芯片且搭载了激光雷达的车型就将上市。
在王传福看来,作为新能源汽车的上半场,比亚迪在电动化方面凭借刀片电池赚得盆满钵满;而在新能源汽车的下半场,比亚迪选择了英伟达作为智能化方面的最重要合作伙伴之一,也是希望在芯片算力层面,能够走在市场的最前列。 除了 DriveOrin 平台之外,在今年 1 月份的 CES 展上,比亚迪也作为首批合作企业,将落地英伟达旗下 GeForce NOW 云游戏服务计划。 而后者也是英伟达进军智能座舱市场的最新布局。
不过让我们惊讶的是,联想成为首家采用英伟达新的自动驾驶域控制器的一级制造商,在不远的未来,其域控制器将采用英伟达的 SoC 芯片。
对于联想这样从事电脑服务器的硬件公司,进军智能电动车的高算力中央计算平台,既在意料之外,也是情理之中。 对于联想来说,布局智能座舱、智能驾驶和中央计算平台等领域是对现有技术和产品的延伸,虽然会面临一定的困难,但是联想并不是从零开始,过往的技术积累可以发挥不小的作用。 众所周知,联想一直没有涉足芯片领域,因此引入英伟达的雷神芯片将帮助联想补齐最重要的一块短板。
根据英伟达的介绍,雷神这款 SoC 芯片内部拥有 770 亿个晶体管,可以实现 2000 TOPS 的 AI 算力,或者是 2000 TFLOPs,其在算力上不仅已经远远超过了满足高等级自动驾驶的需要,已经完全有能力承担起汽车高算力中央计算平台的重任。 这款芯片将在 2025 年大规模量产,而这个也和联想在 2025 年推出高算力的中央计算平台的时间表相吻合。
在此之前,联想会推出算力达到 32TOPS 的行泊一体方案,而这也是目前被不少国内车企,尤其是在低成本车型上广泛应用的驾驶辅助解决方案,市场前景较为看好。
不过对于国内汽车领域来说,已经有不少像联想这样的跨界玩家入局,甚至已经上车量产;对于联想来说,除了首发英伟达自动驾驶域控制器的一级制造商的先发优势外,还有哪些优势能让它赢得市场,还是未知数。
Omniverse,英伟达征战车圈的新工具
在汽车行业,英伟达的触角不仅仅是提供自动驾驶算力平台以及中央计算平台,其早已经将目光投向了汽车零部件的设计以及整车制造领域。 通过赋能汽车行业的虚拟制造和虚拟工厂,英伟达希望让汽车设计和生产的数字化进程再上一个新的台阶。
在过去几十年里,CATIA、UG 这些软件已经成为工程师必不可少的助手。 整车企业使用这些虚拟仿真软件,通过数字化模拟的手段提前对后期的成品进行预览的方法来进行前期的零部件设计以及整车的总布置工作。 如果没有前期的虚拟仿真,后期重新设计不仅成本较高,而且很有可能造成项目的时间节点的延误。
但最近十多年来,这些软件都没有突破性的革命成为席卷全球的 AI 浪潮的「法外之地」,没有能够对整车企业的零部件设计提供更大的帮助。
为此,英伟达打造了 Omniverse,它说到底是一个虚拟世界仿真引擎,不仅可以精确反映真实的物理世界,同时也能够遵守物理学定理。 所以 Omniverse 不仅能够在前期验证零部件与整车的装配关系,避免后期的包括动态干涉在内的各种装配上的问题,同时也能指导工厂设计,并帮助整车企业对工厂布局进行持续优化。
对于绝大部分希望全面转型电动车的传统车企来说,工厂的改造任务非常繁重。 前期虚拟阶段验证地越充分,后期实际占用工厂时间就会越少,而节约出来的时间就可以被用来进行生产。
根据 GTC 现场黄仁勋的介绍,宝马时下正在使用 Omniverse 来对全球 30 家工厂的运营进行规划。 在每座工厂正式投入量产前两年,宝马就会使用 Omniverse 模拟建造一座完整的虚拟工厂,并进行持续的调整和优化,以此避免后期工厂建设完毕之后再进行比较大规模的调整,进而影响生产。
宝马之外,包括沃尔沃、通用汽车、奔驰、捷豹路虎、Lotus、丰田等都已经是英伟达 Omniverse 的用户。
从某种程度上来说,未来英伟达很有可能利用自己的优势地位来逐步取代我们熟悉的 CATITA 和 UG,成为整车企业的数字化设计工具。 而这个所能撬动的,同样是一个体量巨大且前景非常可观的市场。
最后
「生成式 AI 正在推动 AI 的快速应用,并重塑无数行业。 」 在 ChatGPT 之后,相信没有人再会去怀疑这句话。 汽车行业只是英伟达当前涉足的一个产业而已,可能深深埋藏在老黄心底的,是让 AI 去赋能整个社会的方方面面,以此来推动全世界科技的进步和产业发展的梦想。
AI 的「iPhone 时刻」,也正是英伟达「核弹发射」的时刻。
刚刚,马斯克开了一位印度裔高管
苹果前高管接手
作者|王磊 楚门
特斯拉又有一位大佬离开了。
其引以为傲的超级计算机Dojo项目的负责人加内什·文卡塔拉马南(Ganesh Venkataramanan)离职。
Venkataramanan的title是特斯拉的自动驾驶硬件高级总监,可以直接向马斯克汇报。
目前离职原因众说纷纭,但可以确定的是,在本周三,Venkataramanan的名字在特斯拉内部组织名录里已经找不到了。
更有意思的是,如此高职级的人物离职,马斯克和特斯拉还没有任何回应。
印度裔技术高管
Venkataramanan有可能是被辞退的。
根据彭博社的报道,上个月,他就曝出离职,不过现在才被公开。
而按照另一家海外媒体Electrek的说法,早在半个月前,就有内部人士爆料,Venkataramanan被特斯拉解雇,和下一代超级计算机项目有关,但当时无法确定真伪。
如今Venkataramana离职已经成为事实,Electrek报道称,内部人士向他们透露,这位高管从特斯拉离职的具体原因,是第二代“Dojo 2”芯片没有达到预期,从而影响到了自己的饭碗。
这家媒体还表示,Dojo项目存在着一些重大问题,所以特斯拉才会对高层进行重大的人事调整,并放弃Venkataramanan这样的人才,而且他也不是唯一一个因为第二代芯片问题受到牵连的人。
不过以上说法,还没有得到官方的回应。
Venkataramanan被业内所熟知还是在第一次在特斯拉的亮相,2021年的AI Day上,发布Dojo第一代超级计算机时,正是他拿着第一代的Dojo D1 芯片走进了会场。
他是特斯拉中为数不多的印度籍工程师,就读于孟买大学的电子工程,并取得了学士学位,后来又继续在印度理工学院德里分校攻读集成电子学研究生课程。
2016年加入了特斯拉,一开始担任自动驾驶硬件总监。 事实上,他加入特斯拉之前,就已经是一名享誉圈内的技术大牛了。
加入特斯拉之前,Venkataramanan在AMD的CPU部门工作,并且为这家公司工作了接近15年。 他最初以高级设计工程师的身份加入,后来逐步晋升为高级设计工程总监,管理着一个由200多名高技能工程师组成的团队。
他还是开发了几代x86和ARM内核团队的核心成员。 业界第一个x86-64芯片、第一个双核x86和Zen核心就是由他以及他的团队主导完成。 在此之前,Venkataramanan还曾与Analog Devices和Hexaware Technologies合作。
后来在2016年3月加入了特斯拉,也正是那一年,特斯拉成立了人工智能硬件和芯片团队。 截至其离职,已经在特斯拉工作了7年10个月。
2018年,马斯克在内部首次提出了超级计算机Dojo的概念,当时的Venkataramanan还担任着自动驾驶硬件总监,由于过硬的技术,那一年被马斯克提拔为自动驾驶硬件的高级总监,开始主导Dojo项目。
事实证明,即便简历再好看,不能达到马老板的预期也会被劝退。
苹果前高管接手
目前特斯拉已经为Dojo超算项目找到了接班人。
Peter Bannon也算是特斯拉的老人,2015年离开苹果后加入了特斯拉,到现在Peter已经在特斯拉工作了近8年,比Venkataramanan还多一年。
接替Venkataramana负责超算项目前,PeterBannon一直担任特斯拉低压电子&硅工程副总裁,带领团队设计了全自动驾驶车载计算机,并已在特斯拉的汽车上使用。
有人曾问Peter,为什么特斯拉一家汽车制造公司要研发用于深度神经网络训练的超算集群?
Peter认为这个问题从根本上误解了特斯拉的性质。 他表示,从本质来说,特斯拉是一家硬核技术(hardcore technology)公司。 “整个公司的人都在科学和工程领域努力工作,以推进我们可用来制造汽车、能源解决方案、机器人以及其他任何我们可以用来改善世界各地人类状况的基本认知和方法。 ”
1984年,Peter毕业于麻省大学阿默斯特分校,并获得了电气和计算机工程学士学位。
加入特斯拉之前,Peter是iPhone 5上第一个32b ARM处理器的首席架构师,并组建了iPhone 5s上第一个64b ARM处理器的团队,除此之外,他还是苹果 A5 芯片的研发负责人,并在苹果一直待到了A9时代。
入职苹果之前,Pete 则是 PA Semi 公司的架构和验证部门副主席。
多年的工作经验,丰富的大厂工作经历,让Peter Bannon接管Dojo超算项目也变得顺理成章。
Dojo超级计算机项目一直是特斯拉推进自动驾驶计划的一部分,可以把Dojo看作是一个强大的算力中心,用于处理大量的人工智能任务,特别是在特斯拉的Autopilot和完全自动驾驶(FSD)系统上的加速迭代,同时也为特斯拉的人形机器人Optimus提供算力支持。
2019年马斯克首次对外分享了超级计算机计划,为Dojo提供驱动的是由Venkataramanan,Bannon等人设计的D1芯片,在2021年的特斯拉AI Day上正式发布。
马斯克曾表示,Dojo的设计目的是处理大量数据,包括创建自动驾驶软件所需的特斯拉汽车的行驶视频。
也就是说Dojo项目是特斯拉为自己定制的超级计算机平台,用于人工智能机器学习,帮助训练其自动驾驶的视觉技术等。
Dojo负责处理车辆捕获的数据,然后将数据传输并用于学习车辆的行为和倾向,本质上是训练车辆为在任何情况下导航做好准备。 目前Dojo已经部署了1.8万台节点,总算力超过1.8 exaFLOPS,24Q4目标是Dojo算力达100EFlops(约91个集群)。
特斯拉的计划是使用神经网络来存储数据,然后打造世界上最安全、最准确的自动驾驶汽车。
特斯拉还计划在2024年之前,在 Dojo超算上投入超10亿美元。
这次Dojo超算项目负责人的更换,虽然特斯拉还有做出回应,但不少人已经联想到了去年特斯拉人工智能(AI)与无人驾驶部门主管Andrej Karpathy的离职。
这些大佬相继离职,意味着特斯拉在自动驾驶、人工智能等方面的工作并没有那么容易推进。
AI帝国的基础
没推出Dojo前,特斯拉用的是基于英伟达GPU实现的大型超级计算机,这个超算已经是世界上性能最强的超算集群之一,特斯拉表示,那是当时全球排名第五的超级计算机。
但随着特斯拉数据体量指数级增加,它所需要的 GPU 数量也极速增长,由于没有自己的芯片,在那段时间,特斯拉也是疯狂购买英伟达的 GPU。
每年就为英伟达支付数亿美金的使用费,就连马斯克本人也在推特(X)上公开吐槽,英伟达的GPU太贵了。
特斯拉Dojo就是马斯克打造“AI 帝国”的基石,不仅能帮助训练特斯拉的自动驾驶功能和机器人,还能摆脱自身对于英伟达GPU的依赖。
今年7月,特斯拉开始生产Dojo 超级计算机,用于训练自动驾驶汽车的人工智能(AI)模型。
不过Dojo也需要不断迭代,按照马斯克的说法,Dojo V1 版本是通过大体量的视频训练和通用型AI进行高度优化的,但 Dojo V2 将解决这样的限制。
这也意味着,V2版本的Dojo在一定程度上能自主优化,成为训练AI的AI,这样的想法确实很疯狂。
在V1到V2的关键时刻,马斯克虽然决定临阵换帅,但Dojo超算项目还是要继续运营。
特斯拉希望Dojo的算力规模可以在2024年进入全球前五,为了这一目标,马斯克甚至要豪掷10亿美元。
去年特斯拉AI Day 上,特斯拉还展示了 Dojo 超级计算机的最新成果,功耗强到当地的变电站都跳闸了。
今年9月,在大摩发布的一份关于Dojo超算平台的报告中,将特斯拉股价上调到了400美元。 并认为,如果 Dojo能够推动自动驾驶出租车和软件服务的普及,那么就会使特斯拉的市值增加近 6000 亿美元。 这份报告也让特斯拉市值一夜暴涨799亿美元(约合人民币5800亿元)。
无论是资本角度还是战略层面,Dojo对特斯拉来说都太重要了。 所以马斯克严苛些没什么错,就看新晋负责人能不能按照老马的心意推动进展了。
英伟达的dgx A100是什么意思?
1、A100 系列是计算加速显卡,该系列产品为数据中心的高性能计算机推出,用于人工智能科学产业等运算该系列产品 GPU 芯片代号为 GA100,核心面积 826 平方毫米,具有 540 亿个晶体管,新品最高搭载 80GB 显存,使用 HBM2。
2、英伟达的DGX A100单台算力就能够高达5 Peta Flops,拥有超高的计算密度性能和灵活性,确实很适合做人工智能等开发,上海世纪互联的GPU服务好像就是首款基于A100所构建的AI系统,可以去了解一下。
3、DGXA100 AI 是世界上第一台单节点 AI 算力达到 5 PFLOPS 的服务器 ,每台 DGX A100 可以分割为多达 56 个独立运行的实例,还集合了 8 个 NVIDIA A100 GPU,每个 GPU 均支持 12 路 NVLink 互连总线据了解,与。
4、A100 GPU的优势也在边缘推理中也十分明显在单数据流SingelStream测试中,A100对比英伟达T4和面向边缘终端的英伟达Jetson AGX Xavier有几倍到十几倍的性能优势在多数据流MultiStream测试中,A100对比另外两款自家。
5、Dojo D1计算芯片采用了5760个算力为321TFLOPS的英伟达A100显卡,组成了720个节点构建的超级计算机,总算力达到了18EFLOPSEFLOPS每秒千万亿次浮点运算,有10PB的存储空间,读写速度为16TBps 注意,这还是单个Dojo D1的算力,未来特斯拉。
6、最重要的是,A100 现在就可以向用户供货,采用的是台积电的 7nm 工艺制程生产阿里云网络云腾讯云这些国内企业正在计划提供基于 A100 GPU 的服务2Orin+安培架构 GPU实现 2000TOPS 算力 随着英伟达全新 GPU 架构安培。
7、A100目前来说,是计算卡里的“超级核弹”,它是专门针对AI数据分析和HPC应用场景,基于NVIDIA Ampere架构,有40G和80G两种配置A100作为NVIDIA数据中心平台的引擎,性能比上一代产品提升高达20倍,还可以划分为七个GPU实例。
8、这款芯片儿符合出口管制规定,可以代替a800,是一款高端芯片,和手机适配度非常高。
9、但那时DOJO用的是英伟达的A100 GPU,单卡算力321TFLOPS,共计 5760 张,节点数高达720个 而现在,DOJO更进一步,自研了“心脏” 芯片 特斯拉首款AI训练芯片 D1 ,正式发布 7nm 工艺,单片FP32达到算力226TOPs,BF16算力362TOPs。
10、A100的性能比上一代产品提升高达20倍,可以划分为7个GPU实例,A100 80GB将GPU内存增加了一倍,提供超快速的内存宽带,可处理超大模型和非常庞大的数据集国内思腾合力就是英伟达的精英级合作伙伴,可以去了解看看。
11、但是对于人工智能和高端行业,速度越快可以节约算法计算的时间,可以更快更好的获得想要的结果,比如机器人控制,智能化减灾预警等A100是英伟达公司2020年5月中旬发布的一款芯片产品,采用了台积电7纳米工艺A100的GPU芯片性能。
12、随着黄仁勋从自家壁炉前烤箱中拿出包含超过540亿个晶体管,AI训练峰值算力312TFLOPS,AI推理峰值算力1248TOPS,较上一代Volta架构提升20倍的NVIDIA A100 GPU,英伟达一年一度的肌肉大秀拉开了帷幕除了AI医用游戏服务器等。
13、DOJO 组成的一个训练单元的接口带宽每秒 36 TB,算力总达 9 PFLOPS我们拿目前全球第一的富岳超级计算机算力作比较,它的超频算力为 215 EFLOPS,默频 195 EFLOPS,而特斯拉之前用英伟达 A100 GPU 组成的超算算。
14、提高整体的运行速度对于从事专业图形设计的人来说显卡非常重要 民用和军用显卡图形芯片供应商主要包括AMD超微半导体和NVIDIA英伟达2家现在的top500计算机,都包含显卡计算核心在科学计算中,显卡被称为显示加速卡。
15、这也直接让伤了面子的老黄决定不再挤牙膏,从橱柜里掏出了 其Drive AGX Orin新产品以及Ampere 架构旗舰产品Nvidia EGX A100芯片,这应该是目前世界上最高效的深度学习芯片,7nm制程工艺,算力624TOPS,功耗400W基于这枚芯片。
16、这卡原价就2W多,现在已经被矿炒到7W多了而且也根本买不到,比3090都强的MH值而且才250W功耗,肯定是香饽饽了。
17、推荐你上海世纪互联的GPU云计算平台,可以去了解一下,他们用的是英伟达的DGX A100超级AI计算集群,算力很强,而且GPU带宽也很高,性能强劲,很适合进行深入的AI开发还有不明白的,欢迎随时提问。
18、NVIlrmDIAlrmAlrm10lrm0系列产品为数lrm据中心的高lrm性能计算机推出lrm,应lrm用于人lrm工智能科学产业等lrm运算,lrm该系列产品GPU芯片代号为GlrmA1lrm00,核心lrm面积8。