98%合成数据训出最强开源通用模型!性能对标GPT 英伟达开源3400亿巨兽

Scan me!

用微信扫码二维码

分享至好友和朋友圈

新智元报道

编辑:Aeneas 好困

【新智元导读】 刚刚,英伟达全新发布的开源模型Nemotron-4 340B,有可能彻底改变训练LLM的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕!

就在刚刚,英伟达再一次证明了自己的AI创新领域的领导地位。

它全新发布的Nemotron-4 340B,是一系列具有开创意义的开源模型,有可能彻底改变训练LLM的合成数据生成方式!

论文地址:https://d1qx31qr3h6wln.cloudfront.net/publications/Nemotron_4_340B_8T_0.pdf

这一突破性进展,标志着AI行业的一个重要里程碑——

从此,各行各业都无需依赖大量昂贵的真实世界数据集了,用合成数据,就可以创建性能强大的特定领域大语言模型!

现在,Nemotron-4 340B已经取得了辉煌战绩,直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4一较高下!

其实,以前这个模型就曾登上大模型竞技场LMSys Chatbot Arena,当时它的别名是「june-chatbot」

具体来说,Nemotron-4 340B包括基础模型Base、指令模型Instruct和奖励模型Reward,并构建了一个高质量合成数据生成的完整流程。

模型支持4K上下文窗口、50多种自然语言和40多种编程语言,训练数据截止到2023年6月。

训练数据方面,英伟达采用了高达9万亿个token。其中,8万亿用于预训练,1万亿用于继续训练以提高质量。

值得一提的是,指令模型的训练是在98%的合成数据上完成的。

结果显示,Nemotron-4-340B-Base在常识推理任务,如ARC-Challenge、MMLU和BigBench Hard基准测试中,可以和Llama-3 70B、Mixtral 8x22B和Qwen-2 72B模型媲美。

而Nemotron-4-340B-Instruct,在指令跟随和聊天能力方面也超越了相应的指令模型。

Nemotron-4-340B-Reward在发表时,在RewardBench上实现了最高准确性,甚至超过了GPT-4o-0513和Gemini 1.5 Pro-0514这样的专有模型。

在BF16精度下,模型的推理需要8块H200,或16块H100/A100 80GB。如果是在FP8精度下,则只需8块H100。

除此之外,Nemotron-4 340B还有一个非常显著的特点——对商用十分友好的许可。

高级深度学习研究工程师Somshubra Majumdar对此表示大赞:「是的,你可以用它生成你想要的所有数据」

无与伦比的合成数据生成

LLM无法获得大规模、多样化标注数据集,怎么破?

Nemotron-4 340B指令模型,可以帮助开发者生成合成训练数据。

这些多样化的合成数据,模仿了真实世界的数据特征,因而数据质量明显提升,从而提升了各领域定制LLM的性能和稳定性。

而且,为了进一步提高AI生成数据的质量,开发者还可以用Nemotron-4 340B 奖励模型,来筛选高质量的响应。

它会根据有用性、正确性、一致性、复杂性和冗长性这5个属性,对响应评分。

另外,研究者可以使用自己的专用数据,再结合HelpSteer2数据集,定制Nemotron-4 340B 基础模型,以创建自己的指令或奖励模型。

用NeMo微调,用TensorRT-LLM优化推理

利用开源的NVIDIA NeMo和NVIDIA TensorRT-LLM,开发者可以优化指令模型和奖励模型的效率,从而生成合成数据,并对响应进行评分。

所有Nemotron-4 340B模型都利用张量并行性经过TensorRT-LLM优化,这种模型并行性可以将单个权重矩阵分割到多个GPU和服务器上,从而实现大规模高效推理。

其中,基础模型可以使用NeMo框架进行定制,以适应特定的用例或领域。广泛的预训练数据使得我们可以对它进行微调,并且为特定的下游任务提供更准确的输出。

通过NeMo框架,英伟达提供了多种定制方法,包括监督微调和参数高效微调方法,如低秩适应(LoRA)。

为了提高模型质量,开发者可以使用NeMo Aligner和由Nemotron-4 340B奖励模型标注的数据集来对齐模型。

在各行业的潜在影响:从医疗到金融及其他领域

显然,Nemotron-4 340B对各行业的潜在影响是巨大的。

在医疗领域,如果能生成高质量合成数据,可能会带来药物发现、个性化医疗和医学影像方面的突破。

在金融领域,基于合成数据训练的定制大语言模型,则可能会彻底改变欺诈检测、风险评估和客户服务。

在制造业和零售业方面,特定领域的LLM可以实现预测性维护、供应链优化和个性化客户体验。

不过,Nemotron-4 340B的发布,也提出了一些隐忧,比如数据隐私和安全怎样保证?

随着以后合成数据的普及,企业是否有防护措施来保护敏感信息,并防止滥用?

如果用合成数据训练AI模型,是否会引发伦理问题,比如数据中的偏见和不准确可能引发意料外的后果?

但至少在目前,越来越多迹象表明,只有合成数据才是未来。

预训练

下面,我们就来看看,英伟达都提出了哪些创新的方法: 数据

预训练数据是基于三种不同类型的混合,共有9T token。其中,前8T用于正式预训练阶段,最后1T用于继续预训练阶段。

架构

与Nemotron-4-15B-Base类似,Nemotron-4-340B-Base基于的也是仅解码器Transformer架构。

具体来说,模型使用因果注意力掩码来确保序列的一致性,并采用旋转位置嵌入(RoPE)、SentencePiece分词器、分组查询注意力(GQA),以及在MLP层中使用平方ReLU激活。

此外,模型没有偏置项,丢弃率为零,输入输出嵌入不绑定。

模型超参数如表1所示,有94亿个嵌入参数和3316亿个非嵌入参数。

训练

Nemotron-4-340B-Base使用768个DGX H100节点进行训练,每个节点包含8个基于NVIDIA Hopper架构的H100 80GB SXM5 GPU。

每个H100 GPU在进行16位浮点(BF16)运算时,峰值吞吐量为989 teraFLOP/s(不含稀疏运算)。

英伟达采用了8路张量并行、12路交错流水线并行和数据并行相结合的方法,并使用了分布式优化器,将优化器状态分片到数据并行副本上,以减少训练的内存占用。

表2总结了批大小增加的3个阶段,包括每次迭代时间,以及GPU利用率(MFU)等,其中100%是理论峰值。

评估

在这一部分,我们报告了 Nemotron-4-340B-Base 的评估结果。我们将该模型

表3是Nemotron-4-340B-Base与Llama-3 70B、Mistral 8x22和Qwen-2 72B三款开源模型的比较结果。

可以看到,Nemotron-4-340B-Base在常识推理任务以及像BBH这样的流行基准测试中拿下了SOTA,并在MMLU和HumanEval等代码基准测试中位列第二。

对齐

奖励模型构建

奖励模型在模型对齐中起着至关重要的作用,是训练强指令跟随模型时用于偏好排序和质量过滤的重要评判者。

为了开发一个强大的奖励模型,英伟达收集了一个包含10k人类偏好数据的数据集——HelpSteer2。

与成对排名模型不同,多属性回归奖励模型在区分真实有用性和无关伪影(如仅因长度而偏好较长但无用的回复)方面更有效。此外,回归模型在预测细粒度奖励、捕捉相似回复之间的有用性细微差别方面表现更好。

回归奖励模型建立在Nemotron-4-340B-Base模型之上,通过用一个新的奖励「头」替换模型的最终softmax层。

这个「头」是一个线性投影,将最后一层的隐藏状态映射到一个包含HelpSteer属性(有用性、正确性、一致性、复杂性、冗长性)的五维向量。

在推理过程中,这些属性值可以通过加权求和聚合为一个总体奖励。

数据对齐

值得注意的是,在整个对齐过程中,英伟达仅使用了大约20K的人工标注数据,而数据生成管线则生成了用于监督微调和偏好微调的98%以上的数据。

提示生成准备

生成合成提示,是合成数据生成(SDG)的第一步。

这些提示在不同维度上的多样性至关重要,包括任务多样性(如写作、开放问答、封闭问答)、主题多样性(如STEM、人文、日常生活)和指令多样性(如JSON输出、段落数量、是或否回答)。

对此,英伟达使用Mixtral-8x7B-Instruct-v0.1作为生成器,分别对这些任务的合成提示进行了生成。

为了收集多样化的主题,英伟达先引导生成器输出一组多样化的宏观主题,然后再为每个合成的宏观主题生成相关的子主题。

加上人工收集的,最终得到的主题达到了3K个。

用于合成提示生成的提示如下:

为了提升对于对齐模型至关重要的指令跟随能力,就需要生成合成的指令跟随提示(例如,「写一篇关于机器学习的文章,你的回答应包含三个段落」)。

具体来说,先随机选择一些合成提示。对于每个合成提示,从「可验证」指令模板中随机生成一个合成指令(例如,「你的回答应包含三个段落」)。然后,使用手动定义的模板将提示和指令连接在一起。

除了单轮指令跟随提示外,英伟达还构建了多轮指令跟随提示,这些指令适用于所有未来的对话(例如「根据以下指令回答问题和所有后续问题:[指令开始]用三个段落回答。[指令结束]」)。

此外,英伟达还构建了第二轮指令跟随提示,可以根据给定的指令修改之前的回答。

为了在偏好微调中提高模型的多轮对话能力,英伟达构建了两轮提示来建立偏好数据集。

具体来说,提示包含一个用户问题,一个助手回答,和另一个用户问题,形式为「用户:XXX;助手:XXX;用户:XXX;」。

英伟达从ShareGPT中获取第一个用户提示,并使用中间指令模型生成助手回答和下一轮问题。

为了更好地模拟真实世界的用户请求,英伟达将LMSYS-Chat-1M中的提示按平衡比例进行组合,并将其分为两个不同的集合,一个用于监督学习,另一个用于偏好学习。

在监督学习部分,英伟达移除了LMSYS中被标记为潜在不安全的提示,以避免引发不良对话。但在偏好学习部分则进行了保留,以便模型能够学习如何区分安全和不安全的响应。

从图3中可以看到,合成提示的平均有用性高于LMSYS提示。由于简单提示更容易「有用」,这意味着LMSYS提示比合成单轮提示平均来说更难且更复杂。

合成对话生成

通过监督微调,模型就可以学习到,如何以对话形式与用户互动。

英伟达通过提示指令模型生成基于输入提示的响应,来启动合成对话。

为了培养多轮对话能力,他们把每个对话设计成包含三轮,好让对话流程更加动态、更有互动性。

通过迭代角色扮演,模型会交替模拟助手和用户的角色。

英伟达发现,为了在用户回合中引导所需的行为,就需要提供明确的提示来定义不同的用户个性。

并且,附上对话历史是至关重要的。

他们对用户回合进行了后处理,排除了礼貌陈述(如「谢谢你...」,「当然,我很高兴...」)来模拟真实世界的用户问题。

生成展示数据,是采用的贪婪采样方法。

此外,英伟达会使用Nemotron4-340B-Reward评估对话质量,为每个样本分配一个分数,并过滤掉那些低于预定阈值的样本。

这就提供了额外的质量控制层,保证保留下来的都是高质量数据。

合成偏好数据生成

英伟达使用了10K人工标注的HelpSteer2偏好数据,来训练Nemotron-4-340B-Reward。

不过,他们还需要具有更广泛提示领域、更高质量响应的偏好数据,这些响应来自顶级的中间模型,并在可能的情况下包含额外的真实信号。

因此,英伟达生成了三元组形式的合成偏好数据(提示,选择的响应,被拒绝的响应)。

偏好数据包含合成的单轮提示、指令跟随提示、双轮提示,以及来自真实世界的提示,包括ShareGPT提示、LMSYS提示、GSM8K和MATH训练数据集中的提示。

对于每个提示,英伟达都使用了随机的中间模型生成响应。

通过多个模型生成响应,就能确保偏好数据集具有多样化的响应,以供模型学习。

此外,他们还生成了更具挑战性的合成偏好示例,这些示例是根据MT-Bench从表现最好的模型中多次随机生成的响应,这样就可以进一步提升模型的性能。

对于每个提示给出的多个响应,英伟达都需要对其偏好排序进行判断,并选择出被选中的响应和被拒绝的响应。

一些任务可以使用基准真相(例如GSM8K和MATH训练数据集中的答案)或验证器(例如指令跟随响应可以用 Python程序验证)来评估。

大多数提示,是没有客观答案的。因此,英伟达尝试了以大语言模型为裁判和以奖励模型为裁判。

在第一种情况中,英伟达向裁判的大语言模型提供提示和两个响应,并要求其比较这两个响应。

为了避免位置偏差,他们会交换响应顺序后,再次询问大语言模型。当大语言模型两次判断一致时,就会选出有效的三元组(提示、被选中的、被拒绝的)。

另外,为了进一步探索了以奖励模型为裁判的情况,英伟达要求Nemotron-4-340B-Reward 预测每个(提示、响应)对的奖励,并根据奖励决定偏好排序。

奖励基准得分显示以,奖励模型为裁判的准确性,要高于以大语言模型为裁判。

特别是在Chat-Hard类别中,选择的响应和被拒绝的响应难以区分,以奖励模型为裁判的表现,要远优于以大语言模型为裁判,平均准确率为0.87对0.54。

在这个过程中,英伟达注意到:Chat-Hard类别的评分对于合成数据生成中的偏好排序特别重要。

因此,在后来的数据集迭代中,他们转而使用以奖励模型为裁判。

从弱到强的迭代对齐

如前所述,高质量的数据对于模型的对齐至关重要。

在数据合成过程中,需要一个对齐的大语言模型来准确遵循指令。

这就引发了一系列重要的问题:哪个模型最适合作为生成器?生成器的强度与数据质量之间有何关系?如何改进数据生成器?

受到弱到强泛化的启发,英伟达开发了一种新颖的迭代方法,逐步优化数据。这种方法结合了对齐训练与数据合成的优势,使它们能够相互增强,并且持续改进。

图4展示了从弱到强的迭代对齐的工作流程。

首先,使用一个初始对齐模型来生成对话和偏好数据。然后,通过监督微调和偏好调优,利用它们对更好的基础模型进行对齐。

有趣的是,英伟达发现,教师模型并不会限制学生模型的上限——

随着基础模型和对齐数据的改进,新对齐的模型能够显著超过初始对齐模型。注意,对齐过程与基础模型的预训练是并行进行的。

在第一次迭代中,英伟达选择了Mixtral-8x7B-Instruct-v0.1作为初始对齐模型,因为它是一个具有许可的强大模型。

生成的数据用于训练Nemotron-4-340B-Base的一个中间检查点,称为340B-Interm-1-Base。

值得注意的是,340B-Interm-1-Base的表现优于Mixtral 8x7B基础模型,这反过来使得最终的340B-Interm-1-Instruct模型,能够超过Mixtral-8x7B-Instruct-v0.1模型。

这就证明,可以通过弱监督引出模型强大的能力。

在第二次迭代中,英伟达使用生成的340B-Interm-1-Instruct模型,作为新的数据生成器。

由于它比Mixtral-8x7B-Instruct-v0.1更强,第二次迭代生成的合成数据质量就更高。

生成的数据用于训练340B-Interm-2-Base模型,使其升级为340B-Interm-2-Chat模型。

这个迭代过程形成了一个自我强化的飞轮效应,改进主要来自两个方面——

(1)当使用相同的数据集时,基础模型的强度直接影响指令模型的强度,基础模型越强,指令模型也越强;

(2)当使用相同的基础模型时,数据集的质量决定了指令模型的效果,数据质量越高,指令模型也越强。

在整个对齐过程中,英伟达进行了多轮数据生成和改进,不断提升模型的质量。

附加数据源

此外,英伟达还结合了多个补充数据集,以赋予模型特定的能力。

主题连贯性和细粒度指令跟随是,指令模型的重要能力。

因此,英伟达结合了CantTalkAboutThis训练集,其中包括了覆盖广泛主题的合成对话,并故意插入干扰回合以分散聊天机器人对主要主题的注意力。

这就能帮助模型,在任务导向的交互中更好地专注于预定的主题。

某些任务可能由于需要特定的能力(如互联网访问或实时知识)而无法由模型独立完成。

为减少这种情况下的幻觉,英伟达采用少样本方法,使用人类编写的示例来提示大语言模型生成各种问题。

然后,他们会明确要求大语言模型以拒绝的方式回应,收集这些回应,并将其与相应的问题配对。

这些配对数据就可以用于训练模型,让它们能够更好地处理无法完成的任务。

Open-Platypus已被证明可以提高STEM和逻辑知识。因此,英伟达将具有许可的子集(如PRM800K、SciBench、ARB 、openbookQA)纳入训练数据中。

基于文档的问答是大语言模型的重要用例。

英伟达利用FinQA数据集提高了数值的推理能力,使用人工标注数据提高了上下文问答的准确性,并使用 wikitablequestions数据集,增强了模型对半结构化数据的理解。

此外,英伟达还使用了一部分来自Glaive AI的样本,以增强模型在函数调用方面的能力。

对齐算法 分阶段的监督微调

监督微调(Supervised Fine-tuning,SFT)是模型对齐的第一步。

为了改善传统SFT方法存在的缺陷,英伟达设计了一种两阶段的SFT策略,使模型能够依次、有计划地学习不同的行为。

结果显示,这种方法在所有下游任务中都产生了更好的效果。

为了在不影响其他任务的情况下提高编码和推理能力,英伟达选择先在编码数据上进行SFT。

为了获得大量的数据,英伟达开发了一种名为Genetic Instruct的全新方法——通过对进化过程的模拟,利用自我指令和向导编码器突变,从少量高质量种子生成大量合成样本。

过程中,英伟达还引入了一种适应度函数,利用LLM评估生成指令及其解决方案的正确性和质量。

然后,通过这些评估和检查的样本会被添加到种群池中,进化过程会持续进行,直到达到目标种群规模。

最终,经过广泛的去重和过滤后,英伟达保留了大约80万条样本用于代码SFT训练。

第二阶段,就是通用SFT了。

这里,英伟达采用的是一个包含20万样本的混合数据集。

为了减轻遗忘的风险,数据混合中还包括了前一个代码SFT阶段的2%的代码生成样本。

偏好微调

在完成监督微调后,英伟达继续通过偏好微调来改进模型。

在这个阶段,模型将学习偏好示例,其形式是:提示,选择的响应,被拒绝的响应。

DPO算法通过优化策略网络,来最大化选择和被拒绝响应之间的隐含奖励差距。

在策略学习区分选择和被拒绝的响应时,可以观察到,随着差距的增加,选择和被拒绝响应的概率都在一致地下降,即使选择的响应是高质量的。

根据经验,当训练时间足够长时,策略网络容易过拟合,一个指标(例如,MT-Bench)的改进通常伴随着其他指标(例如,零样本MMLU)的退化。

为了解决这些问题,英伟达在选择的响应上添加了加权的SFT损失,以补充原始的DPO损失。

额外的SFT损失有助于防止策略网络大幅偏离偏好数据,特别是因为偏好数据不是从参考策略生成的。

为了避免模型学习低质量的选择响应,当没有可用的真实值时,英伟达使用了Nemotron-4-340B-Reward来挑选高质量的选择响应示例。最终,这产生了一个包含16万示例的偏好数据集。

为了解决DPO存在的过拟合问题,英伟达提出了一种新算法——奖励感知偏好优化(RPO)。它尝试使用由策略网络定义的隐含奖励近似奖励差距。

基于此,便得到了一个新的损失函数:

结果显示,随着RPO迭代次数的增加,模型还可以持续地在所有任务上获得提升。

经过三次RPO训练迭代后的检查点,就是最终的Nemotron-4-340B-Instruct。

指令模型评估 自动基准测试

英伟达对Nemotron-4-340B-Instruct进行了全面的自动基准测试评估:

正如表5所示,Nemotron-4-340B-Instruct在当前可用的开源模型中表现出色,具备很强的竞争力。

对齐训练包括:代码SFT、通用SFT、DPO和三轮RPO。

表6展示了模型最终的成绩,并量化了每个对齐阶段的中间模型的性能:

人类评估

除了自动评估外,英伟达模型进行了人类评估。其中,标注员被提供了136个提示,分为10个不同的任务类别。

基于「有用性」和「真实性」这两个维度,英伟达详细定义了5个质量等级的具体内容,从而在减少了主观性的同时,提升了可靠性。

在标注设计中,每个提示都与固定模型集合中的三个不同响应配对。每个提示的响应顺序是随机的,所有提示和响应都由同一组标注员进行评估。

标注完成后,将评分转换为相对于GPT-4-1106-preview的相对胜/平/负率。

从图5中可以看到,除了提取和重写任务外,Nemotron-4-340B-Instruct的胜率与GPT-4-1106-preview相当或更好,特别是在多轮对话中表现出色。

整体来说,Nemotron-4-340B-Instruct的胜:平:负比率为28.19%:46.57%:25.24%。

从表7中则可以看到,与GPT-4-1106-preview相比,标注员认为Nemotron-4-340B-Instruct的响应长度更为合适(79.41%对74.02%)。

值得注意的是,这一优势主要来自较低的长/冗长响应率(20.10%对25.74%)。

作者

参考资料:

https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/

https://venturebeat.com/ai/nvidias-nemotron-4-340b-model-redefines-synthetic-data-generation-rivals-gpt-4/

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

网易跟贴

注册 手机发跟贴 登录并发贴

网友评论仅供其表达个人看法,并不表明网易立场。

人工智能的用处生产制造灵敏杀人,样样优武器:导弹,导弹防御系统,大无人机扔导弹,小无人机扔手榴弹(3000元替你上前线,也就一个月工资),战斗机,机器人,等武器终究自动化,像反导手动根本忙不过来。流水线:更智能。更高效。人工智能应用之灵魂永生,可以进行长达1亿年时间跨度的星系群之间的飞行超级大脑的建立,解决各种生活问题全智能化时代的到来,

对灵魂的一点见解意识的本质就是时时好坏感知,然后趋利避害人判断好坏的依据就是感受。如:好的感受,就像打了鸡血,人很爽。坏的感受,就像累,苦,饿,的感受。感受好,那趋利避害。感受就是系统释放的好坏信号加告知好坏的因果。有时不理智分析,系统告知好坏因果,你会认为自己判断的没毛病。如很难,绝望。然后就放弃,堕落,消极,变流浪汉。意识的自主性小的时候靠本能行事,成长初期本能(系统)是你的军师,遇事系统告诉你好坏及缘由,加激素赏罚,如:多巴胺。没认知时,你被系统牵着鼻子走,系统说的好坏,就是你认为的好坏。好坏判断是天性,是预设好坏逻辑,只要认定是好,是害,就会产生动机,然后趋利避害。当逆趋利避害,系统就会出来说不好。但有认知后,靠想法行事,靠认知行事,靠真的好(真理)行事,系统说的好坏只是警报,只是好坏信号新认知之信息对错辨别动机判断,诚恳的,那对。眼见为实的,那对。符合经验,符合逻辑的那对。大家多怎么说,那对。说的有理有据的有详细,那对。如果新的真的那记住,记住因果属性就完成了认知预设好坏逻辑,带来了什么可以让社会向好的发展,向文明发展,向美发展,向智慧发展,是对好坏评判的标准(好的维度分很多种,如时间空间数量大小美丑智笨爱善恶情感利己利国和对比)美就是一种智慧的体现(如花瓶,跑车)本能就是先天会的。人刚出生,没有对好的概念。但脑子里有预设好坏逻辑(自己看不到)。但遇到事件后,本能会产生好坏感受。回顾感知自己因果反应,就会知道背后逻辑对大脑的一点理解左脑因果逻辑,右脑3D感知因万事万物多有他的因果逻辑。因果可分为:以自己想法为目的的因果判断,本能上的因果反应,事件因果的判断,属性的因果判断,时间上的因果关系。思考:因果关系经历多,就能进行因果思考。物体远动见多了,就能回忆进行想象判断过程:有新的认知,那建立新的因果逻辑,遇事主动搜索关联因果因为一个因果逻辑,一个3D感知,就能对这宇宙产生认知一个逻辑想象,一个三维想象就能产生创造设置以上逻辑,机器人不光有了人的心,也有了人的智影响人工智能,让一切设备拥有了智能。应用无处不在。人类将拥有一个强大的助手。彻底解放双手AI对人的本能和情感投其所好,市场将一片大好服务人类是暂时的,人类终将永生

目前没有跟贴,欢迎你发表观点

陶哲轩最新采访:AI将颠覆数学界!用Lean规模化,成百上千条定理一次秒杀

返回网易首页 下载网易新闻客户端

CF进去黑屏然后过一会无响应

等一会就OK,我的也是如此。

世界上最大的动物是什么,而且是现在世界上有的

地球上最大的动物是蓝鲸,一头成年蓝鲸能长到曾生活在地球上的最大恐龙——长臂龙体重的2倍多,非洲公象体重的30倍左右。 蓝鲸平均长度约26米,最高记录为33.5米,平均体重150吨。 这样的巨兽需要大量的食物,一头成年蓝鲸一天消耗100万卡左右的热量,相当于1吨磷虾,磷虾是它 的大宗食物。 蓝鲸游入浅滩,吞进满口的水和磷虾。 磷虾被充当活塞的舌头过滤出来,舌头迫使水通过悬挂于上颚两侧的似大筛子结构的鲸须流出去。 一头蓝鲸的舌头厚3米多,其重 量比一头大象还重。 蓝鲸曾漫游于世界各大洋,据统计,单在南大洋中就曾有25万头这样巨兽。 但最近几年,无情的捕鲸业使得蓝鲸的数量越来越少,不足该总数的1%。 确定蓝鲸的数量是很困难的,目前 估计南极地区有几百到1.1万头之间。 这个数字无论正确与否,与曾经有过的数量相比,已经到了危险的下限。 尽管最近50年来,一直限制捕鲸,并于1967年强制禁止捕鲸,但在科学 研究的伪装下,仍然有人继续对蓝鲸进行商业性捕猎。 蓝鲸迁移的距离很大,夏天,它们生活在极地水域,以邻近浮冰边缘的大量磷虾为食。 当冬天来临时,它们迁移到温暖的赤道水域,行程数千公里。 据悉,一头蓝鲸只用47天时间,游 程就达3000公里以上。 如此超长的旅程使得它们远离进食基地,长达4个月之久的时间内概不进食。 以积蓄的储能为生。 蓝鲸的孕期为11个月,而一头新生幼鲸的身长就达7米左右,体重达2吨或更重些,每天吃奶半吨多,一个星期后,体重就增加一倍。 到6个月左右断奶的时候,幼鲸的身长会加倍,但 需再隔4或5年,它才性成熟和充分发育。 长到能单个或结对地邀游世界大洋的蓝鲸,可活到120岁。 尽管采用独居的生活方式,但它们有着进行超远距离通迅的先进方法,能产生一种低频率高强度的声音。 已记录到的声频达 180分贝,这是已知由动产生的最大噪音,超过一架喷气式飞机飞行时产生的噪音。 声音可延续30秒钟,能被1610公里以外的其他蓝鲸听到。

为什么现在的xbox one,ps4主机都是用AMD八核cpu?

这个跟历史有关,当初微软和索尼都用过NV的显卡,结果2个公司都被NV坑过XBOX年代,按照合同约定,NV在第一批若干万芯片过后,因为工艺进步良品率上升,应该降价供应GEFOCE3跟微软,但是老黄看准微软卖了第一批XBOX后续正需要扩大生产骑虎难下的时机,借口良品率上涨不多仍然要求按照第一批的价格供货,最后还跟微软打起了官司,微软吃了这个大亏后果断报复改捧ATI,和ATI联手发布DX9,R9700年代把NV打得找不着北就是微软发力的后果。 PS3年代,微软因为跟ATI搞X360,索尼只好搞上NV,结果被老黄忽悠,E3时就放出消息PS3用8800,结果PS3快要上市了,老黄又一次趁火打劫,不但8800没法装在PS3上,就连替代的7800也因为良品率问题,被老黄以功耗为借口缩减规格,实际上是为了逼索尼买残次品,结果索尼被坑了之后,PS4也果断改AMD了。 除了以上历史,还有一点原因是NV是设计之后授权使用,所以不允许修改方案,这对于后期低功率整合化程度更高的机器不利,当年XBOX就因为这个一直没能退出改良版,而同期的PS2则有改良版体积更小功耗更低。 相比之下,ATI/AMD是卖方案,整个方案设计好了卖给微软,微软是可以改动的,这个是主机厂商选择AMD的重要原因。 最后说到收费,实际NV和AMD都按照固定部分和销量提成部分收费,当然费用有区别,但是这个其实不是最重要的原因

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/keji312/31432.html
将献唱歌曲缅怀好友Coco李玟 王力宏担任金曲奖表演嘉宾
情报官 OpenAI 新董事会 经济学家和一堆企业家