4年从幼儿园蹿到高中生 2027年AGI降临!GPT智商飙升 OpenAI前员工预测

新智元报道

编辑:乔杨 桃子

【新智元导读】 最近,OpenAI的一位前员工发表了一篇165页的超长博文,对AI发展的未来做出了一系列预测。文章的核心观点可以概括成一句话:人类很可能在2027年实现AGI。

AGI到底是科技公司画的大饼,还是可预测的未来?

几天前,Anthropic一名25岁的高管在博客上发文,表示自己已经准备好了3年后退休,让AI取代自己的工作。

最近,OpenAI前员工的一篇博客文章也有类似的观点。

他不仅认为AGI很可能实现,而且「奇点」预计就在2027年。

文章作者名为Leopold Aschenbrenner,于2023年入职OpenAI超级对齐团队,工作了1年6个月。

Aschenbrenner认为,到2027年,大模型将能够完成AI研究人员或工程师的工作。

他的论据也很简洁直观——你不需要相信科幻小说,只需要看到图上的这条直线。

画出过去4年GPT模型有效计算量的增长曲线,再延伸到4年后,就可以得出这个结论。

距离GPT-4发布已经过去了一年多的时间,包括Gary Marcus和Yann LeCun在内的很多人都不再对模型的Scaling Law深信不疑,甚至持否定态度。

虽然我们看起来正在碰壁,但Aschenbrenner提醒我们:往后退一步,看看AI已经走了多远。

直觉上,我们可以将模型能力类比为人类的智能水平,从而衡量AI能力的进步:从2019年学龄前儿童水平的GPT-2,到2023年聪明高中生水平的GPT-4,OpenAI只用了4年。

用4年从学龄前读到高中,是人类智力发展速度的3倍不止。

GPT-2只能写出一个半连贯的段落,几乎不能顺利地从1数到5。在文章总结任务中,生成的结果只比随机选3个句子稍微好一点。

GPT-3能生成更长、逻辑更一致的段落,具备了少样本学习能力,还可以完成一些基本的算术或代码任务。

GPT-4不仅可以思考和推理数学问题,还能编写复杂的代码并迭代调试。语言能力也是飞跃性的提高,不仅能在更长的文本中实现逻辑和内容的一致,也能掌握各种复杂话题。

在所有测试中,GPT-4都能击败绝大多数高中生,包括AP和SAT分数。

从基准测试的角度衡量,可以看到下面这张图。

根据Contextual AI去年7月发布的研究结果,AI在语言理解、阅读理解、文字细微差异的解释、图像识别等方面的能力都已经超过了人类表现。

预测性推理、一般性知识测试和解决数学问题等任务上也与人类水平接近。

此外也可以看出,在模型能力增长得越来越快的同时,基准测试愈发捉襟见肘。

过去需要几十年的时间才能达到饱和的基准测试,现在只需要几个月。

2020年,MMLU测试发布,相当于高中和大学的所有最难考试的水平,研究人员希望它可以经得起时间考验。

结果仅仅三年后,LLM就几乎解决了这个测试,像GPT-4和Gemini这样的模型可以获得超过90%的评分。

数学测试也是一样的趋势。

2021年MATH基准发布时,SOTA模型只能正确回答约5%的问题。

当时很多研究者都认为,算法方面的根本性突破才能提升模型的数学能力,未来几年能取得的进展非常微小。

2021年,研究人员对模型未来在MATH数据集上的表现给出了非常悲观的预测

然而,又一次超乎所有人的想象。2022年一年的时间内,模型准确率从5%上升到50%,最近的SOTA可以达到90%。3年前公认难度很高的基准测试,很快饱和。

基准测试似乎也无法跟上模型的速度了。

为了更严谨地评估深度学习的发展速度和趋势,作者使用了OOM指数,即「计算数量级」(order of magnitude)。

不仅要考量模型的算力和算法效率,作者还引入了一种新的概念,「解开收益」(unhobbling gains)。

算力规模

刚刚结束的ComputeX大会上,英伟达、AMD纷纷宣布了芯片年更计划。

这说明了什么?大模型性能呈指数级增长,对算力需求也在不断放大。

而在微软Build大会上,CTO Kevin Scott更是用海洋动物形象地阐述了,OpenAI模型进阶对算力的吞噬之极。

提到算力增长,很多人的第一反应会认为,这是摩尔定律的延伸。

然而作者指出,事实并非如此。AI硬件的改进速度远远快于摩尔定律。

大模型时代来临前,即使摩尔定律处于鼎盛时期,每10年也仅有1-1.5个OOM的增长。

但现在,每年都有0.6个OOM的增长,比曾经摩尔定律的5倍还多。

Epoch AI对著名深度学习模型的训练算力进行估算

以GPT系列为例,GPT-2到GPT-3实现了设备的过渡,从较小的实验设备变成了数据中心,一年内增长了2个OOM。

GPT-4延续了这种戏剧性增长,而且从OpenAI囤积芯片的动作来看,这个增长速度会逐渐演变为长期趋势。

这种庞大的增长,并不能主要归因于摩尔定律,而是投资算力的热潮。

曾经,在一个模型上花100万美元是令人发指的想法,没有人会接受;但现在,这只是科技巨头囤芯片、训模型的零头。

过去一年里,科技巨头们谈论的话题已经从100亿美元计算集群转向1000亿美元集群,再变成万亿美元集群上的竞争。

每隔六个月,董事会的计划里,就会增加一个「0」。

作者预估,「在这个十年结束之前,将有数万亿美元投入到GPU、数据中心和电力建设中。为支持AI的发展,美国至少将电力生产提高数十个百分点」。

随着AI产品收入的快速增长,谷歌、微软等公司在2026年左右的年收入可能达到1000亿美元。

这将进一步刺激资本,到2027年,每年的AI投资总额可能超过1T美元。

时间线再拉远,到2028年,单个训练集群就需要耗资千亿美元,比一个国际空间站还贵。

而到本世纪末,一个集群就能吞掉1T美元,每年产出上亿个GPU,AI所需电力占美国发电总量的百分比,将从现在的不到5%上升到20%。

算法效率

对算力的疯狂投资带来的惊人收益是非常明显的,但算法进步的驱动力很可能被严重低估了。

比如,很少有人关注到模型推理成本的大幅下降。

以MATH基准测试为例,过去两年内,从Minerva到最新发布的Gemini 1.5 Flash,在MATH上取得50%准确率(一个不喜欢数学的计算机博士生可以得到40%)的推理效率提高了将近3个OOM,也就是1000倍的效率提升。

虽然推理效率不等同于训练效率,但这个趋势可以表明,大量的算法进步是可行的,而且正在发生。

从长期趋势来看,算法进展的速度也相当一致,因此很容易根据趋势线做出预测。

回顾2012年-2021年期间ImageNet上的公开算法研究,可以发现,训练相同性能模型的计算成本以近乎一致的速度下降,每年减少约0.5个OOM,而且每种模型架构都是如此。

虽然LLM的团队一般不会公开算法效率相关的数据,但根据Epoch AI的估算,2012年-2023年期间,每年算法效率的收益也约为0.5个OOM,也就是在8年时间里提升了1万倍。

「解开」收益

相比算力和算法效率,「解开」收益带来的提升更加难以量化。

所谓「解开收益」,是指某些情况下模型的原始能力被阻碍了,而通过简单的算法改进可以解锁和释放这些潜在能力。

虽然它也是一种算法改进,但不仅仅是在已有范式内提升训练效果,而是跳出训练范式,带来模型能力和实用价值的跃升。

比如基础的语言模型经过了RLHF,才变成真正可用的产品。InstructGPT论文的量化结果显示,根据人类评分者的偏好,有RLHF的小模型相当于非RLHF的大100倍的模型。

再比如,近年来被广泛使用的CoT可以为数学或推理问题提供10倍多的有效计算能力提升。

上下文长度的增加也是如此。从GPT-3的2k tokens、GPT-4的32k,到Gemini 1.5 Pro的1M+,更长的上下文可以解锁更多的用例和应用场景。

训练后改进(post-training improvment)带来的收益也不容忽视。OpenAI联创John Schulman表示,与GPT-4首次发布时相比,当前的GPT-4有了实质性的改进,这主要归功于释放潜在模型能力的后期训练。

Epoch AI进行的一项调查发现,在许多基准测试中,这类技术通常可以带来5-30倍的有效计算收益。

METR(一个评估模型的非营利组织)同样发现,基于相同的GPT-4基础模型,「解开收益」非常可观。

在各种代理任务中,仅使用基本模型时性能只有5%,经过后期训练可以达到20%,加上工具、代理脚手架和更好的后期训练,可以达到今天的近40%。

与算力和算法效率带来的单一维度的扩展不同,「解开收益」能够解锁模型能力的巨大可能性,带来「阶梯式」、不拘一格的进步。

想象一下,如果AI可以使用电脑,有长期记忆,能针对一个问题进行长期思考和推理,而且具备了入职新公司所需的上下文长度,它会有多么强悍的能力?

算力、算法效率、「解开收益」叠加

2027年,取代所有认知工作

综合考虑算力、算法效率与解开收益这三个方面的叠加,GPT模型从第2代到第4代,大致经历了4.5-6个OOM的有效计算扩展。

此外,从基本模型到聊天机器人,相当于约2个OOM的「解开收益」。

基于这个发展速度,数一数OOM,未来4年我们可以期待什么?

首先,随着计算效率提高,迭代速度会越来越快。假设GPT-4训练花了3个月的时间,到2027年,领先的AI实验室将能够在一分钟内训练一个GPT-4级别的模型。

而且,由于「解开收益」的存在,我们不能仅仅是想象一个非常聪明的ChatGPT,还需要把它看成一个非常智能的、能独立工作的Agent。

到2027年,这些AI系统基本上能够自动化所有认知工作,或者说是所有可以远程进行的工作。

但是作者同时也提醒道,这其中有很大的误差范围。如果「解开收益」逐渐停滞,或者算法的进展没能解决数据耗尽的问题,就会推迟AGI的来临时间。

但也有可能,「解开收益」释放了模型更大的潜能,让AGI的实现时间比2027年更早。

虽然这篇文章有比较全面的论据,但「2027年实现AGI」的结论还是引发了不少网友的质疑。

将GPT-4的智力水平类比成聪明的高中生,很难让人相信。

也没有谈到一些关键问题,比如当前LLM最大的挑战之一——幻觉,这也是AI实现自动化工作的巨大障碍。

有人指责作者,将曲线外插和巨大的误差范围包装成一份技术分析。

也有人指出,文中经常提及的「有效计算」是一个非常模糊的概念,没有进行严谨准确的定义。

抛开2027年这个颇有噱头的结论,作者的论证过程至少可以给我们一个启示——很多情况下,AI的发展速度会超出所有人的想象。

GAN网络从2014年到2018年的进展

作者简介

Leopold Aschenbrenner本科毕业于哥伦比亚大学,大三时入选Phi Beta Kappa学会,并被授予John Jay学者称号。

19岁时,以最优等成绩(Summa cum laude)毕业,作为毕业生代表在典礼上致辞。

本科期间,他不仅获得了对学术成就授以最高认可的Albert Asher Green奖,并且凭借着「Aversion to Change and the End of (Exponential) Growth」一文荣获了经济学最佳毕业论文Romine奖。

Leopold Aschenbrenner来自德国,现居风景优美的加利福尼亚州旧金山,志向是为后代保障自由的福祉。

他的兴趣相当广泛,从第一修正案法律到德国历史,再到拓扑学,以及人工智能。目前的研究专注于实现从弱到强的AI泛化。

他最近离开OpenAI后计划创办一家AGI领域的投资公司,已经获得了Stripe创始人Collison兄弟以及GitHub前CEO Nat Friedman的投资。

参考资料:

https://situational-awareness.ai/from-gpt-4-to-agi/


北京哪里的一对一辅导比较好?学大教育高中辅导班咨询怎么样?

这个的话我觉得学大教育还不错的,学习任何知识,必须注重基本训练,要一步一个脚印,由易到难,扎扎实实地练好基本功,切忌好高鹜远,前面的内容没有学懂,就急着去学习后面的知识;这样是不好的。 特别是高中的同学,参加辅导班可以一对一的教你方法。

北京学大教育重点高中辅导提分快吗?新初三课程精辅衔接效果好不好?

北京学大很不错!去了就知道

学习不好呀,北京高中一对一辅导每小时多少钱?哪个补习班比较好

听说过学大一对一吧我孩子在哪补习,挺好的呀。 高中学习不好对症才好下药,你已找到了自己的缺点,这也是进步的表现。 要改变“懒”和“爱说话”的习性,关键在于意志,你已明确它们的不利之处,这是改正的前提,以后,要时时提醒自己,如果不改正情况只会越来越糟,同时,确立一个自己学习的榜样,另外,需要把学习计划安排的紧凑一点,让自己时刻有正事可做,减少犯错误的机会,并且,努力提高自己的自制力,只要这样,经过一段时间,必然会有较大的改观。 我给你电话你问问吧北京学大教育【海淀区】北京北师大学习中心一一一40 08 171 003转2009北京北大学习中心一一一一40 08 171 003转2010北京公主坟学习中心一一一40 08 171 003转2011北京航天桥学习中心一一一40 08 171 003转2012北京玉泉路学习中心一一一40 08 171 003转2013北京人大学习中心一一一一40 08 171 003转2014北京学院路学习中心一一一40 08 171 003转2015北京远大路学习中心一一一40 08 171 003转2016北京上地学习中心一一一一40 08 171 003转2017【朝阳区】北京劲松学习中心一一一一40 08 171 003转2018北京三元桥学习中心一一一40 08 171 003转2019北京亚运村学习中心一一一40 08 171 003转2020北京朝阳路学习中心一一一40 08 171 003转2021北京和平里学习中心一一一40 08 171 003转2022北京望京学习中心一一一一40 08 171 003转2023【东城区】北京东直门学习中心一一一40 08 171 003转2024北京崇文门学习中心一一一40 08 171 003转2025北京交道口菁英学堂一一一40 08 171 003转2026【西城区】北京阜成门学习中心一一一40 08 171 003转2027北京宣武门学习中心一一一40 08 171 003转2028北京德胜门菁英学堂一一一40 08 171 003转2029北京四中学习中心一一一一40 08 171 003转2030北京西直门菁英学堂一一一40 08 171 003转2031【丰台区】北京方庄学习中心一一一一40 08 171 003转2032【通州区】北京通州学习中心一一一一40 08 171 003转2033【石景山区】北京昌平校区一一一一一一40 08 171 003转2008北京石景山学习中心一一一40 08 171 003转2034

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://srwj168.com.cn/keji312/22734.html
罗马诺 巴黎有意阿尔瓦雷斯并已咨询曼城 球员盼更多出场时间
突然来临 公司同事集体变蠢!只因四大聊天机器人同时宕机 末日