OpenAI研究如何 破解GPT-4思维 ,公开超级对齐团队工作, Ilya Sutskever 也在作者名单之列。
该研究提出了改进大规模训练 稀疏自编码器 的方法,并成功 将GPT-4的内部表征解构为1600万个可理解的特征 。
由此,复杂语言模型的内部工作变得更加可理解。
其实,早在6个月前,研究就已经开始进行了:
OpenAI将其公开后, 前 超级对齐团队成员、论文一作前来转发分享:
同样在坐着名单里的、此前在OpenAI超级对齐团队的Ilya同盟(就是从OpenAI愤而离职刚刚加入Anthropic的RLHF发明者之一)也表示:
更有意思的是,不久前Anthropic发了一项类似的工作。
成功从Claude 3.0 Sonnet的中间层提取了数百万个特征,为其计算过程中的内部状态提供了一个大致的概念性图。
于是有网友就开麦了,工作牛是牛,但OpenAI是不是有点太着急了,论文链接没有指向Arxiv,分析似乎也没有那么深入。
回归正题,OpenAI超级对齐团队是如何想法子破解GPT-4思维的?
在OpenAI新公布研究中再见Ilya的名字
目前,语言模型神经网络的内部工作原理仍是个“黑盒”,无法被完全理解。
为了理解和解释神经网络,首先需要找到对神经计算有用的基本构件。
然鹅,神经网络中的激活通常表现出不可预测和复杂的模式,且每次输入几乎总会引发很密集的激活。而现实世界中其实很稀疏,在任何给定的情境中,人脑只有一小部分相关神经元会被激活。
由此,研究人员开始研究稀疏自编码器,这是一种能在神经网络中识别出对生成特定输出至关重要的少数“特征”的技术, 类似于人在分析问题时脑海中的那些关键概念 。
它们的特征展示出稀疏的激活模式,这些模式自然地与人类易于理解的概念对齐,即使没有直接的可解释性激励。
不过,现有的稀疏自编码器训练方法在大规模扩展时会面临重建与稀疏性权衡、latent失活等问题。
在OpenAI超级对齐团队的这项研究中,他们推出了一种 基于TopK激活函数的新稀 疏 自编码器 (SAE)训练技术栈,消除了特征缩小问题,能够直接设定L0(直接控制网络中非零激活的数量)。
该方法在均方误差(MSE)与L0评估指标上表现优异,即使在1600万规模的训练中,几乎不产生失活的潜在单元(latent)。
具体来看,他们使用 GPT-2 small 和系列模型的残差流作为自编码器的输入,选取网络深层(接近输出层)的残差流,如GPT-4的5/6层、GPT-2 small的第8层。
并使用之前工作中提出的基线 ReLU自编码器架构 ,编码器通过ReLU激活获得稀疏latent z,解码器从z中重建残差流。损失函数包括重建MSE损失和L1正则项,用于促进latent稀疏性。
然后,团队提出使用TopK激活函数代替传统L1正则项。TopK在编码器预激活上只保留最大的k个值,其余清零,从而直接控制latent稀疏度k。
不需要L1正则项,避免了L1导致的激活收缩问题。实验证明,TopK相比ReLU等激活函数,在重建质量和稀疏性之间有更优的权衡。
此外,自编码器训练时容易出现大量latent永远不被激活(失活)的情况,导致计算资源浪费。
团队的解决方案包括两个关键技术:
如此一来, 即使是1600万latent的大规模自编码器,失活率也只有7% 。
团队还提出了多重TopK损失函数的改进方案,提高了高稀疏情况下的泛化能力,并且探讨了两种不同的训练策略对latent数量的影响,这里就不过多展开了。
为了证明该方法的可扩展性,团队训练了上述提到的一个具有1600万个latent的稀疏自编码器,并在GPT-4模型的激活上处理了40亿个token。
在GPT-4激活上处理40亿token
接下来,评估自编码器质量的关键在于提取出的特征是否对下游应用任务有用,而不仅仅是优化重建损失和稀疏性。
因此,团队提出了几种评估自编码器质量的新方法,包括:
实验发现,TopK自编码器在下游损失上的改进幅度超过了重建MSE的改进。
探测损失随latent数量增加而改善,但在某些区间会先升后降。
此外,研究人员发现精确度和召回率在latent数量较大、稀疏度适中时最优。
TopK模型相比ReLU模型有更高的召回率,能更好地压制虚假激活。
剔除稀疏性方面(见上图6 b),团队发现自编码器latent的影响较为稀疏,远小于直接ablating残差流通道。但当稀疏度k过高时,影响的稀疏性会下降。
最后,论文一作表示稀疏自编码器的问题仍然远未解决,这项研究中的SAE只捕获了GPT-4行为的一小部分,即使看起来单义的latent也可能难以精确解释。而且,从表现优异的SAE到更好地理解模型的行为,还需要大量的工作。
关于这项研究的更多细节,感兴趣的家人可以查看原论文。
OpenAI还公开发布了完整源代码和针对GPT-2的多个小规模自编码器模型权重。还发布了一个在线可视化工具,用于查看包括这个1600万latent GPT-4自编码器在内的多个模型的激活特征。
OpenAI的:https://cdn.openai.com/papers/sparse-autoencoders.pdfAnthropic的:https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
参考链接:[1]https://x.com/OpenAI/status/1798762092528586945[2]https://openai.com/index/extracting-concepts-from-gpt-4/[3]https://news.ycombinator.com/item?id=40599749[4]https://x.com/janleike/status/1798792652042744158[5]https://openaipublic.blob.core.windows.net/sparse-autoencoder/sae-viewer/index.html
怎么在anaconda上安装openai gym 在windows里
根据提示进行安装注意使用默认配置就可以了。 默认配置比较方便。 4安装完成后,打开控制台,确认是否安装成功。
办法在GPT分区格式下永久激活win10吗
完全可以就是有些费事,先安装个原版win7或8,8.1都可以,用kms激活工具激活,原来的系统是正版激活的话就直接升级即可,把下载好的原版win10解压到硬盘,点击windows安装器进行升级安装,记住选升级安装,要对应版本,安装过程不需要输入任何密匙,点击跳过或下一步或没有密匙,安装完成后联网,win10就是激活状态,(uefi+gpt)建议用软碟通做启动盘,做盘时注意是用zip还是hdd可以试着来),激活工具是180天,附件的激活工具不能用于win10,想用工具激活可以重发
CAD2016安装失败重装系统还是安装失败。
根据日志文件,应该是 Framework导致的,安装CAD2016之前,确保系统已近安装 Framework 4.5及更高版本!即使重装系统,系统也必须带 Framework 4.5或更高版本.推荐集成 Framework组件的Win7_Win10系统资源/hsds/blog