进步是不可预测的 也很难监管 奥特曼谈人工智能

鞭牛士报道,5月3日消息,据外电报道,OpenAI联合创始人兼首席执行官萨姆·奥尔特曼 (SAM ALTMAN) 在剑桥参加了 Xfund 主办的一系列活动。

他对挤满纪念教堂听他讲话的一群学生说:我真的很喜欢那些如果有效的话,就非常重要的事情,即使它们成功的机会并不高。

他解释了 20 年前,当他还是斯坦福大学的一名本科生时,是什么吸引他从事人工智能研究,当时这个话题还没有像今天这样成为一股巨大的力量:看起来,如果人工智能能够发挥作用,它就将是最酷、最重要、最令人兴奋的事情。因此,这是值得追求的。

Altman 在剑桥参加了 Xfund 主办的一系列活动,Xfund 是一家隶属于哈佛大学和麻省理工学院的早期风险投资公司。

在纪念教堂活动上,哈佛大学保尔森工程与应用科学学院院长戴维·帕克斯向奥特曼颁发了 2024 年Xfund 实验杯,该奖项旨在奖励来自世界最好大学的杰出创始人。

活动主持人——Xfund 的管理普通合伙人 Patrick Chung '96、JD-MBA '04,投资了 Altman 的第一家公司——向一千多名兴奋的学生示意,他们开始在封闭的环境中排队参加活动开赛前一小时哈佛庭院。

「他们看着你,他们渴望,他们梦想能像你一样对世界产生影响,」钟说。他会给自己这个年纪的自己什么建议?

「我认为你可以在这个世界上做一些事情。」奥特曼回答说,他的话语之间有特有的、深思熟虑的停顿。 「你不需要等待,也不需要获得许可。你可以——即使你在这个世界上完全不为人所知,几乎没有资源——你仍然可以取得惊人的成就。」

一些人批评奥特曼面对先进人工智能的潜在危险而不懈地推动进步。

去年,奥特曼本人签署了一封信,将人工智能描述为人类面临灭绝的风险;他在国会作证时表示,如果这项技术出了问题,它可能会出大问题。

但他对放慢进展能否减轻这些威胁的方法表示怀疑。 20 年前,他从事人工智能研究,并不知道它会成为今天的技术,而且即使是现在,我们正在做出的最关键的决定,我们也没有意识到它们的重要性。

他继续说,进步是不可预测的,也很难监管。

「现在,在 OpenAI 的某个地方,有人做出了一些非常重要的发现——我不知道它是什么,我只知道它会在统计上发生——这可能会极大地影响未来。」他说。 「从表面上看,我完全同意,我们应该感到巨大的责任并做出正确的重大决策,但你并不总是知道那什么时候会发生。进展的结果才是应该控制的:决定是否部署 GPT-5,决定门槛应该在哪里——我们对此非常谨慎。」

关于开发和部署新人工智能的速度的大部分决策权掌握在像 OpenAI 这样的私营营利性公司手中,而一些人担心这种权力集中在极少数人手中。这些担忧在 11 月份蔓延到了 OpenAI 董事会,当时 Altman 被解除了首席执行官职务——部分原因是出于安全考虑——几天后又恢复了职位。

埃利奥特大学教授、哈佛大学名誉校长拉里·萨默斯在危机后被任命为新董事会成员,大概是为了加深其领导经验。

在演讲前接受《哈佛杂志》和其他出版物采访时,奥尔特曼谈到了私营部门发展人工智能的挑战。

「我认为人工智能开发在私营企业中发生是令人兴奋的。」他说,「但在不同的时间或不同的世界格局中,它会发生在政府中。既然事实并非如此,政府和行业之间的共同理解就很重要。他说,现在,对于未来几年人工智能的进展,这两个群体之间存在太大差异。」

4 月下旬,Altman 加入了国土安全部的人工智能安全与安保委员会,以帮助促进这些对话。

尽管如此,Altman 在演讲中表示,如果他能回到 2015 年,当时他与他人共同创立了 OpenAI,他将把它作为一家营利性公司开始,而不是像该组织在 2019 年之前那样作为非营利组织。

OpenAI网站称,人工智能需要太多资源,无法通过非营利模式来维持。

随着向利润驱动结构的转变,OpenAI 变得闭源:其底层代码和实现细节不向公众公开。这使得学术界的许多人无法研究该模型,研究人员已转向采取变通措施,例如分析 ChatGPT 输出中的模式。

在回答《哈佛杂志》关于这些挑战的问题时, Altman 表示 OpenAI 已经开展了学术合作:举个例子,我们为学术研究人员提供了访问 GPT-4 基本模型权重的权限,尽管目前还没有公开的信息。但寻找与学术界合作和解锁学术界的方法似乎非常重要,因为没有更好的词来形容。

学院中一些人寻求解决的一个问题是人工智能模型如何产生输出。 ChatGPT 的内部机制目前尚不清楚,尽管学术研究人员正在研究这个问题,但特别是对于闭源的 ChatGPT 来说,这样做很困难。一些人认为,在开发自主模型或在医疗保健等高风险环境中应用人工智能之前,了解这些机制非常重要。

「我们正在追求它。我没有任何具体信息,比如,我们已经破解了它。」Altman 向《哈佛杂志》谈到 OpenAI 是否也在研究这个问题时说道。但完全理解”ChatGPT 如何产生输出可能不是一个可行的目标。

他说:我认为我们可以以重要的方式理解这些系统吗?是的,我可以说我们能够准确理解每个人工神经元在做什么吗?我不知道。但我什至不确定这是否是值得关注的正确问题。

与此同时,利润动机继续推动进步。奥特曼在纪念教堂的谈话结束后,他听取了八个由哈佛和麻省理工学院学生组成的团队的演讲——从近千份提交的材料中预先选出——作为赢得 Xfund 10 万美元投资的竞赛的一部分。


是否应该限制人工智能的发展?

人工智能这个概念,应该是通过“阿尔法狗”在围棋界所向披靡的战绩,才大范围的走进了人们视野,让人们看到了人工智能的强大学习能力、惊人的算力以及一颗不知疲惫的“芯”。 可以很大程度上帮助人们解决各种实际问题。 智慧城市大脑,依靠AI超强算力和优质的算法“大脑”,监控城市服务中各项数据当然不能限制,谁掌握了人工智能,谁就掌握了未来,中国百年近代史告诉我们落后就要挨打呀。 而且目前的人工智能远远达不到威胁人类的存在,至少30年内完全不用担心,基础数学还没有完善,我们总不能因为害怕未知而止步不前吧。 首先我认为人工智能并不应该被限制发展 现在大多数人工智能还仅仅处于弱人工智能,现代对于强人工智能的并没有太多的发展。 如果是出于对ai的出现对人类产生的影响的话,我认为就现阶段而言,人工智能都无法让大部分人认为它是人类,对人类产生威胁这种事还是言之过早的。 虽然报道称去年人工智能软件尤金古斯特曼通过了图灵测试,但测试中的评判标准:骗过30%的裁判这一项并没有出现在图灵测试原本的定义里,并且这项60年前提出的指向性目标在现在并不完全适用,因此就产生威胁这点而言ai离那时还很远,这种问题放到有ai能真正能骗过所有裁判再说吧。 另外,限制ai的发展在实际上的操作可行度也是很低的。 毕竟许多国家都投入了大量的人力物力开发人工智能,先恐后想要成为第一个掌握它的国家;另外这项技术在商人眼里无疑也是颇为有利的投资对象,倘若命令禁止引起自行地下开发的话,不受到监管更容易使技术失控。 并且,ai就好比是俄罗斯转盘,那一发致人死地的只有6分之1的概率,而剩下的则是ai给人类所带来的便利。 既然这样,涉足ai的发展也并没什么坏处,我们难道能说互联网的产生在给我们带来便利的同时没有给我们的生活带来负面影响吗?凡事都有利弊两面,ai的发展是 科技 达到一定高度必然的结果,因此还是不宜制止来的好。 是否应该限制人工智能的发展? 我觉得不应该限制人工智能的发展,以后 社会 的发展一定会和人工智能的发展直接关联。 其实从大数据发展到现在各种人工智能进入普通人的日常生活就已经可以看出来了。 所有 科技 的发展都是具有两面性,任何一个事情都不可能只有益处而不带来危害。 所以,与其限制人工智能的发展导致发展的进度和深度受限,还不如根据已有的案例和推断制定相关的管控措施。 只要有管理的办法,将人工智能带来的负面影响控制在一定的范围之内,那么发展人工智能就是没有什么顾虑的了。 应该限制。 任何一种技术,都是一种工具。 工具可以用来为善,也可以用于作恶。 人工智能是 科技 发展的趋势,正在快速发展。 中国应该去拥抱它,因为差距不大,可以帮助中国实现弯道超车。 另外中国人数理理论基础扎实,在数据挖掘,算法设计,编程上有优势,只要合理引导,政策扶持,一定能大放光彩。 但是,边界要有,不能任其疯长,所以明确的限制不了少。 比如人工智能不能用于损害人类的生命 健康 ,不能伤害人类,不能往违反人性和人伦的方向发展,不能用于战争,不能成为毁灭人类的帮凶。 因为人工智能会深入人类活动的方方面面,穷举每个个案是不可能的,只能说原则,要有类似于机器人三原则那样的限制。 不应该限制人工智能的发展,反而应该大力推动。 人工智能技术是引领未来的创新性技术,且在国家经济以及互联网、大数据及超级计算机的发展之下,AI技术的发展也进入了具有深度学习,跨界融合,人机协同,群智开发自主操控等特性的新阶段。 这些具有新特性的AI技术将对人类的生产、生活乃至思维模式都产生重大的影响。 国内现有的以BAT为首,外加科大讯飞四所公司所构筑的的人工智能平台,基本成为了我国人工智能领域的四大支撑,此外,国家还鼓励企业作为人工智能发展的主体,并坚持以市场作为发展的主导。 由此足可以想见,人工智能领域的发展在国家策略的支持下,拥有着相当光明的前景。 具有很好的就业机会。 人工智能就是自动化的一个发展部分,无论它如何发达,它还是人类的工具。 所以最终的结果还是取决于人怎么用它,什么样的人在用它。 因此,在未来,比起机器在一个阵营人类在另一个阵营,更可能会出现的状况是,一部分人带着他们的机器去对抗另一部分带着机器的人。 也就是说,终极问题还是人的问题,而不是机器的问题。 首先我认为人工智能并不应该被限制发展 现在大多数人工智能还仅仅处于弱人工智能,现代对于强人工智能的并没有太多的发展。 如果是出于对ai的出现对人类产生的影响的话,我认为就现阶段而言,人工智能都无法让大部分人认为它是人类,对人类产生威胁这种事还是言之过早的。 虽然报道称去年人工智能软件尤金古斯特曼通过了图灵测试,但测试中的评判标准:骗过30%的裁判这一项并没有出现在图灵测试原本的定义里,并且这项60年前提出的指向性目标在现在并不完全适用,因此就产生威胁这点而言ai离那时还很远,这种问题放到有ai能真正能骗过所有裁判再说吧。 另外,限制ai的发展在实际上的操作可行度也是很低的。 毕竟许多国家都投入了大量的人力物力开发人工智能,先恐后想要成为第一个掌握它的国家;另外这项技术在商人眼里无疑也是颇为有利的投资对象,倘若命令禁止引起自行地下开发的话,不受到监管更容易使技术失控。 并且,ai就好比是俄罗斯转盘,那一发致人死地的只有6分之1的概率,而剩下的则是ai给人类所带来的便利。 既然这样,涉足ai的发展也并没什么坏处,我们难道能说互联网的产生在给我们带来便利的同时没有给我们的生活带来负面影响吗?凡事都有利弊两面,ai的发展是 科技 达到一定高度必然的结果,因此还是不宜制止来的好。 行业鼓吹太明显了,讲道理,机器没有大家想象中的那么智能。 。 。 我个人认为,在某些行业取代人力是可能的,比如机械性的工作,只要设定好规则,基本上没有太大的问题。 但是如果是做决策,高级的脑力劳动,那确实还差得远,好的决策需要超强运算力的支持。 这么说吧,人工智能火起来不是因为理论比较新,实际上理论很早就有了,因为随着硬件GPU,TPU的发展,运算力可以支撑这些理论,大家才能看到各种进步,理论也随之发展的更加完善。 我朋友老本行是做自然语言,简单来讲,机器翻译,写文档摘要,都需要机器去”理解“句子的内容。 大家在新闻报道中看到的数字都是实验室数据,也就是说,在特定的数据集下表现很好,在实际的产业中,机器比人脑差的还是太远了,它们根本很难去理解到句子背后的含义,只是仗着自己记性好,学到的规则多罢了,很难去随机应变。 这种观点就十分可笑。 反过来问你几句: 1.是否应该限制 汽车 的发展? 2.是否应该限制你职业的发展? …… 人工智能会产生巨大的价值,对人类 科技 和文明有不可估量的贡献。 不但不应该限制,而且应该大力力支持。 如果谈到限制,应该是限制不法份子用人工智能作恶。 [呲牙] 人工智能是一个时代发展的必然产物,我个人认为不应该被限制,这表明时代在发展,人类在进步。 不应该限制人工智能的发展。 人工智能是时代进步的表现,可以服务和改善人类生活,是大势所趋。

几小时之内陷入生死存亡?openai灵魂人物奥特曼为何被罢免

OpenAI的灵魂人物奥特曼(Altman)并未在几小时内陷入生死存亡,也并没有被罢免。

首先,我们需要澄清一个事实。在提问中提到的“奥特曼”可能是对OpenAI的CEO山姆·奥特曼(Sam Altman)的误解或误译。山姆·奥特曼是OpenAI的创始人和首席执行官,而非所谓的“灵魂人物奥特曼”。同时,根据我们的知识库,到目前为止,并没有关于山姆·奥特曼陷入生死存亡或被罢免的报道。

其次,OpenAI是一家非盈利的人工智能研究机构,其目标是确保人工智能的安全性,并确保其利益广泛地服务于所有人。山姆·奥特曼作为OpenAI的CEO,一直致力于推动人工智能的发展和应用,同时警惕其潜在的风险。他对人工智能的独特见解和领导才能,使得OpenAI在人工智能领域取得了显著的成就。

最后,对于“几小时之内陷入生死存亡”的这种夸大其词的表述,我们需要保持谨慎。在报道和传播信息时,我们应该确保信息的准确性,避免引起不必要的误解和恐慌。同时,我们也要尊重每一位致力于人工智能研究和发展的专业人士,他们的努力和贡献是推动我们社会进步的重要力量。

超级人工智能派对开始了:黄仁勋奥特曼马斯克现GOAT之争

2024年春季,人类是否正在吹起一个前所未有的超级人工智能泡沫,还是开启一个远超工业革命的大繁荣周期,无论是黄仁勋、还是奥特曼和马斯克都是乐观的一方。 马斯克略带伤感的回忆8年前黄仁勋向OpenAI赠送Ai系统的一幕,是他无奈的接受超级人工智能的路线之争刚刚开始。 黄仁勋一口答应了马斯克,并亲自将DGX-1送上门。 同时他在机器上写了一段话:“To Elon & OpenAI Team!To the Future of Computing and Humanity. Present You The Worlds First DGX-1!”(献给马斯克和OpenAI团队,为了算力的未简隐来和人类,我们将全球首款DGX-1做为礼物送给你们!)随后马斯克回敬写道:谢谢!黄仁勋被认为比马斯克更有远见,已是史上最佳AGI生成式人工智能,特别是SORA的出现不仅引发了资本的狂热,也引发了恐慌。 人工智能被认为正来到超级人工智能时代,甚至人类社会生活也被认为已经走到了一个奇点时刻,旧有秩序面临崩溃。 狂热如三大洲的主要股指在同一时间悉数创下历史新高,而华尔街日报将原因归于英伟达2024财年四季报的发布。 英伟达的大涨,固然与其超预期的2024财年四季报有关,但更多的是SORA的横空出世带给世界的恐慌:被甩下车的恐慌,被拥超级人工智能的组织和政治实体在技术上降维碾压的恐慌。 中美两国的主流技术人员和媒体都在估算两国的技术差距在三至四年之间。 黄仁勋在回应奥特曼的天文数字融资规模时说:“如果你认为计算机无法发展得更快,可能会得出这样的结论:我们需要14颗行星、3个星系和4个太阳来为这一切提供燃料。 但是,计算机架构其实在不断地进步。 ”对于咨询公司预测2029年全【本文来自易车号作者智驾网,版权归作者所有,任何形式转载请联系作者。 内容仅代表作者观点,与易车无关】

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/kuaibao/1773.html
全球最佳机场百强 首都两机场再度缺席Skytrax
体验丝滑 快上语音功能 Claude iOS版本推出!11M