OpenAI前首席科学家Ilya创立新公司 瞄准超越AGI的 和绝对的AI安全 超级人工智能

整理|王奕昕 李锦辉

编辑|李然

前OpenAI首席科学家Ilya终于官宣了自己的新动向——成立一家致力于追求人工智能安全的新公司:Safe Superintelligence Inc.(SSI)。

彭博社报道截图

今天Ilya在X上转发了三位SSI联合创始人的公开信,正式开启招聘。

最终,OpenAI的元老创始团队“一气化三清”,为世界贡献了3股力量——OpenAI,Anthropic,SSI,分头追求AGI和超越AGI的超级人工智能。

而且值得注意的是,Ilya在接受彭博社的专访中专门提到:

SSI到底能够实现什么级别的AI,非常令人期待。

OpenAI宫斗大结局

而我们把时间线慢慢往回拨,捋一捋Ilya的出走过程。

5月15日,因为OpenAI宫斗被雪藏快半年的Ilya,终于正式官宣,离开它一手参与打造的OpenAI。当时他没有明确提出去向,只是说“会进行下一个对于他个人来说非常有意义的项目”。

现在看来,对于Ilya来说,唯一有意义的事就是AI安全。

而从Ilya在公开信中的措辞,以及他对AI安全事业的坚持,我们也能看出,去年11月份,OpenAI突发的“宫斗”事件,不仅仅是普通的权力和政治斗争,而是OpenAI内部对于前进线路产生重大分歧后的矛盾爆发。

是否将产品发布和性能提升置于AI安全之上,Ilya和Sam Altman一定是有不同意见的。但是看着自己亲手创建的OpenAI正在分崩离析,他最后也选择在联名信上签名,挽回Sam Altman,即使他知道这样做的代价是自己将离开OpenAI。

现在回过头来看Ilya在宫斗事件后发的道歉推文:要在世人面前公开承认自己因为追求毕生理想而做的选择(放逐Altman)是“错误”的,还要因为维护OpenAI的完整性和声誉不得不离开自己曾经战斗过而现在也还深爱着的地方,是需要多么宽广的胸怀啊。

而最终,请回Sam Altman之后,OpenAI董事会改组。“AI安全派”董事被新的外部董事代替,最高权力机构中的制衡不复存在,OpenAI成了Sam Altman的OpenAI。

另外两位创始人介绍

再让我们看看,到底什么样背景的人,能够成为Ilya新公司的联合创始人。

Daniel Gross

Daniel Gross,出生于以色列,是一名企业家和投资者,以其对创新技术和早期创业项目的深刻洞察而闻名。他在美国接受教育,开展职业生涯,曾在耶鲁大学专攻计算机科学,并在此期间开始了他的技术创业之旅。Gross 的职业生涯跨越了技术创新、风险投资和人工智能等多个领域。

职业经历:

△Cue 会智能地将人们最常使用的帐户(包括电子邮件、联系人和日历)中的有用信息整合在一起并在合适的时间显示出来。人们可以一目了然地查看一整天的信息,也可以使用 Cue 同时搜索所有帐户。图源:Y Combinator

Daniel Gross 在大学期间作为联合创始人创立了 Cue(一款可以整合电子邮件、联系信息和社交网络数据的搜索引擎)。2013年,Cue 被苹果公司以高达4000万美元的价格收购。这次收购不仅为 Gross 提供了资金,也为他后续的事业打下了坚实的基础。

我们是一个小团队,致力于寻找和资助世界上富有创造力和雄心勃勃的局外人——这些人可以创建伟大的公司,但可能没有资源或机会。图源:Pioneer官网

Cue 会智能地将人们最常使用的帐户(包括电子邮件、联系人和日历)中的有用信息整合在一起并在合适的时间显示出来。人们可以一目了然地查看一整天的信息,也可以使用 Cue 同时搜索所有帐户。图源:Y Combinator

2013-2017年,Gross 加入苹果公司,负责了多个与人工智能和搜索技术相关的项目,增强了他在 AI 领域的专业知识和经验。

离开苹果后,Gross 于2017年初加入 Y Combinator(著名的创业孵化器和风险投资公司)担任合伙人。在 Y Combinator,他在 AI 领域对众多初创企业进行了筛选和指导,提供了大量帮助。

2018年,Daniel Gross 创立了 Pioneer,这是一个通过在线竞赛来发现和支持全球创新、创业人才的平台。参与者需要提交他们的项目想法,并通过一系列的挑战和任务来展示他们的创新能力和执行力。这些任务大多模拟创业过程中的各种挑战,从而测试参与者的问题解决能力和持久性。

Daniel Levy

Daniel Levy在2022年加入OpenAI,担任优化团队(Optimization team)负责人。

他于2015年,在巴黎综合理工学院(Ecole Polytechnique)获得理学学士,专业为应用数学(Applied Mathmetics)。2018年,获得计算机科学(Computer Science)硕士学位,导师为斯蒂法诺·埃尔蒙(Stefano Ermon),硕士阶段主要研究概率模型和强化学习(probabilistic models and reinforcement learning)。2021年,继续在斯坦福大学攻读并获得计算机科学(Computer Science)博士学位,导师为约翰·杜奇(John Duchi),斯坦福大学统计和电子工程副教授。攻读博士期间经过导师指导,研究领域是机器学习、优化和隐私保护(machine learning, optimization, and privacy)的前沿技术。

职业经历: 2016年,曾在Facebook应用机器学习部门实习。

2017年,曾在Google Brain实习,期间与Jascha Sohl-Dickstein和Matt Hoffman共事。

2020年,曾在Google Research实习,期间与Ananda Theertha Suresh、Satyen Kale和Mehryar Mohri共事。


马斯克追问openai首席科学家:你到底看到了什么要炒掉奥特曼

2023年11月29日,马斯克呼吁OpenAI公开解雇萨姆·奥特曼的原因:在他被解雇前,公司有数名研究员联合向董事会发布了一封信,警告称一项强大的人工智能(AI)发现可能会威胁到人类。 奥特曼是OpenAI内力推AGI(生成式人工智能)的典型代表,而正是由于这封信,导致了他被解雇。

OpenAI在Q(音同Q-Star)取得了重大进展,这被认为是通用人工智能(AGI)领域的突破,而OpenAI更是将AGI定义为比人类更聪明的AI系统。

虽然目前Q能力有限,数学成绩仅为小学生水平,但鉴于大模型的加持,不少人对它非常看好,认为其未来必将成功。

奥特曼本身是个技术狂人,一直在积极寻求资金来扩大AI技术的发展,但公司其他几位董事会成员则呼吁采取更多措施来减轻潜在的威胁,于是双方就产生了分歧和隔阂。 所以这封信的出现,成为了董事会辞退奥特曼的催化剂和导火索,不过随着奥特曼的回归,这番“夺权”大剧也落下了帷幕。

值得一提的是,2023年11月29日,在DealBook峰会上,马斯克对于OpenAI最近的“政变”风波发表了自己的猜测。 马斯克表示,虽然自己不清楚这场闹剧的内情,但他担忧这一切对于AI将意味着什么,并希望能够知晓旧董事会罢免奥特曼的真实原因。

马斯克补充道,他很想知道OpenAI的旧董事会罢免奥特曼的原因到底是什么,还曾联系过OpenAI的联合创办人之一、前董事会成员兼首席科学家伊尔亚·苏茨克维(Ilya Sutskever),但没有得到回应。

马斯克称苏茨克维有“坚定的道德指南”,好奇是什么让苏茨克维“产生如此强烈的反应并与萨姆对抗”:“这听起来很严重,我认为不是什么小事。 而且我非常担心,他们可能发现了AI的一些危险元素。 ”

萨姆·奥尔特曼早年经历:

萨姆·奥尔特曼是现任人工智能实验室OpenAI首席执行官。 被媒体称为ChatGPT之父。 1985年4月22日,萨姆·奥尔特曼出生于美国伊利诺伊州的芝加哥。 他在密苏里州的圣路易斯长大,上幼儿园的时候就能自己总结出电话区号的编码规律,8岁的时候,奥尔特曼学会了编程。

9岁生日时,奥尔特曼收到一台电脑作为生日礼物,这使他在很小的时候就对信息技术和互联网产生了兴趣。 萨姆·奥尔特曼在约翰·巴勒斯学校接受高中教育,后来斯坦福大学录取,开始专心研究人工智能和计算机科学。

以上内容参考:网络百科-萨姆·奥尔特曼

openai是强人工智能吗

OpenAI,是强人工智能。 公司核心宗旨在于“实现安全的通用人工智能(AGI)”,使其有益于人类。 [2]外文名OpenAI创立时间2015年相关视频1.4万播放|02:26AI自己写代码让智能体进化!OpenAI的大模型有“人类思想”张小艺爱生活1万播放|04:08OpenAI制造了首个单手解魔方的机器人,使用了神经网络技术火力全开8700播放|02:15【高数有多难! AI考高数仅得81分 】数学难,高等数学更难!多年来,科学家一直尝试让AI机器人挑战数学考试,但连年不及格,甚至低到20多分。 因此,人们普遍认为人工智能无法挑战高数。 然而近日,麻省理工的科学家基于OpenAI Codex预训练模型在高数上通过few-shot learning的正确率达到了81%!相关研究已经被ArXiv收录。 飞碟说2.5万播放|01:11微软向OpenAI投资10亿美元,在Azure平台上开发AI技术科技今日看5928播放|01:04细思极恐[吃惊]【#专家称人工智能已有轻微意识#[吃惊]】2月15日消息,据媒体报道,建立在大型人工神经网络的人工智能,正在帮助人类解决金融、研究和医学领域的问题,科学家认为这些AI或许已经具有了人类的“轻微意识”。 近日,OpenAI 公司创始人推特发文称,现今最大的人工神经网络可能存在某些意识。 例如OpenAI 公司建造的一个 1750 亿参数语言处理系统,能够翻译、回答问题和填补缺失的单词。 人WEMONEY研究室公司背景公司发展TA说公司背景2015年,OpenAI由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨创立。 [2]公司发展2016年6月21日,OpenAI宣布了其主要目标,包括制造“通用”机器人和使用自然语言的聊天机器人。 OpenAI研发主管伊利娅·苏特斯科娃(Ilya Sutskever)、OpenAI CTO格雷格·布劳克曼(Greg Brockman)硅谷知名创业加速器Y Combinator总裁萨姆·阿尔特曼(Sam Altman)以及连续创业家伊隆·马斯克(Elon Musk)等人联合发表博文称:“我们正致力于利用物理机器人(现有而非OpenAI开发)完成基本家务。 ”[1]2019年7月22日,微软投资OpenAI 10亿美元,双方将携手合作替Azure云端平台服务开发人工智能技术。 2020年6月11日,OpenAI宣布了GPT-3语言模型,微软于2020年9月22日取得独家授权。 2022年6月,量子计算专家、ACM计算奖得主Scott Aaronson宣布,将加盟公司。

OpenAI 风波的背后:分岔的超级智能之路

在科技与商业的交叉路口,OpenAI的剧变犹如一场跌宕起伏的剧情,将超级智能的伦理边界推至显微镜下。 这一切始于Sam Altman的离职与回归,背后隐藏的是对超级智能道路的深刻分歧与考量。 以下是这场风暴的核心事件,揭示了公司内部的深度交锋与影响:

1. 破晓筹款

Sam Altman在展示OpenAI的重大突破之际,积极筹备新一轮的融资,目标高达900亿美元,这一举动触动了对自主性与人类情感的敏感神经。 然而,Ilya的担忧不绝于耳,他强调团队需要更多时间研究模型的可控性和伦理边界。

2. 融资与伦理碰撞

Greg与Macron的会面引起了主权基金的兴趣,但这种资金涌入也引发了关于AI责任与关爱的讨论。 当GPT-5的研发推进,资金需求飙升时,这些分歧愈发尖锐。

3. 板块重组与分歧加剧

Sam的出局与Greg的降职,标志着董事会的动荡。 微软的缺席与员工的反抗,使得AI安全议题成为焦点。 最终,Sam回归CEO,董事会重组,Bret Taylor、Larry Summers和Adam DAngelo加入,展示了对科研与工程优先级的不同理解。

伦理与工程的抉择

AI业界的智者们,如Ilya的超级对齐理念与Sam和Greg的工程化产品化路线,形成了鲜明对比。 Stuart的《Human Compatible》提醒我们,应对AI的挑战需要提前布局。 然而,OpenAI在模型能力的转折点上,如何平衡安全与应用,成为亟待解决的难题。

理论与实践的挑战

试图像《万神殿 2》那样建立“监督者”模型,防止恶意AI,实则困难重重。 评估守护者模型的复杂性,需要跨领域的合作与社会适应。 Sam倡导渐进式开放,以避免安全危机,而e/acc则认为AI灭绝风险相对较低,但短期影响不容忽视。

尽管AGI的未来充满不确定性,但通过竞争抑制恶意使用,AI的益处显而易见。 人类文明的延续可能涉及高级形态,而当前的技术限制导致了短期矛盾。 OpenAI的信任度下滑,GPT-5的未来命运与公司生态的演变,都将在这一场戏剧中写下新的篇章。

超级智能的冲突无疑将引发全球对AI安全的深度关注,OpenAI内部的动态将如何影响其前行之路,以及GPT-5将如何定义这个时代的边界,我们拭目以待。 在未知的未来,我们期待OpenAI在探索与责任之间找到平衡,引领智能的光明之路。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/keji312/33622.html
远射轰入国家队生涯处子球 尤尔曼德第9次为丹麦队出战
在沙特朝觐期间死亡人数已超1000人