全球开源新王Qwen2

新智元报道

编辑:编辑部

【新智元导读】 一夜之间,全球最强开源模型再次易主。万众瞩目的Qwen2-72B一出世,火速杀进开源LLM排行榜第一,美国最强开源模型Llama3-70B直接被碾压!全球开发者粉丝狂欢:果然没白等。

一觉醒来,中国的开源模型再次震撼了全世界。

坐等许久,Qwen2-72B终于发布了!这个模型一出世,直接杀进开源LLM排行榜第一,完全碾压美国最强的Llama3-70B。

有趣的是,第二名也是来自阿里的Qwen1.5-110B

在各大基准测试中,Qwen2-72B一举斩获了十几项世界冠军,尤其在代码和数学能力上提升最为明显。

同时,相较于上一代Qwen1.5,Qwen2也实现了大幅的性能提升。

另外,开源Qwen2-72B还击败了国内一众闭源大模型,包括文心4.0、豆包Pro、混元Pro等等。

72B指令微调版模型,还增大了上下文长度支持,最高可达128k token。在16个基准测试中,Qwen2-72B-Instruct的性能可与Llama-3-70B-Instruct相匹敌。

得益于高质量的数据,Qwen2-72B-Instruct在数学、代码能力上实现飞升。

值得一提的是,模型训练过程中,除了采用中英文数据,还增加了27种语言相关的高质量数据。

现在,所有人均可在魔搭社区和Hugging Face免费下载Qwen2最新开源模型。

凭借取得的卓越性能,Qwen2-72B深受AI大佬们关注,在整个AI圈掀起了轩然大波。

模型刚发布2小时,HugingFace联创Clément Delangue立即宣布,「HF大模型榜上诞生了一个全新的、排名第一的开源模型——Qwen2-72B」。

AI初创CEO称,「一切都结束了!OSS迎来了一位新王者——Qwen-2的MMLU为84.32,完全堪称GPT-4o/Turbo级别模型」!

4个月不到的时间,Qwen-2-72B的生成质量已经和GPT-4不分伯仲。

网友震惊发现,在编码上Qwen2绝对超越了Llama 3!

加冕为王的Qwen2-72B究竟有多强,接下来让我们一起来看看。

开源新王Qwen2-72B发布!

差不多4个月时间,阿里团队就完成从Qwen1.5到Qwen2跨越式的迭代升级。

除了Qwen2-72B,Qwen2系列包含了5种不同参数规模的预训练和指令微调模型。

其中还有,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B,都可支持32K上下文。

相比2月推出的通义千问Qwen1.5,Qwen2实现了整体性能的代际飞跃。

在权威模型测评榜单OpenCompass中,此前开源的Qwen1.5-110B已领先于文心4.0等一众国产闭源模型。

刚刚开源的Qwen2-72B,整体性能相比Qwen1.5-110B又取得了大幅提升。

开篇一张表,很明显地可以看出Qwen2-72B在数学(GSM8K、MATH),以及代码(C-Eval)、逻辑推理(CMMLU)、多语言能力上(MMLU),取得了明显的提升。

其性能大幅超越了著名的开源模型Llama3-70B、Mixtral-8x22B。尤其是在代码、逻辑推理上,领先对手20+分。

指令微调版的Qwen2-72B-Instruct,汲取了CodeQwen1.5强大的代码经验,并将其融入研发。

结果如下,在8种编程语言上,尤其是JS、C++,Qwen2-72B-Instruct性能超越Llama-3-70B-Instruct。

在数学上,Qwen2-72B-Instruct同时实现了数学能力显著提升,在如下四个基准测试中,性能分别超越了Llama-3-70B-Instruct。

另外,小模型方面,Qwen2系列基本能够超越同等规模的最优开源模型,甚至更大参数规模的模型。

比起Llama3-8B-Instruct,Qwen2-7B-Instruct能在多个评测上取得显著的优势,尤其是代码及中文理解上。

最高128k,大海捞针全绿

Qwen2系列中,所有的Instruct模型均在32k上下文中,进行了训练。

在大海捞针实验中,Qwen2-72B-Instruct能够完美处理128k上下文长度内的信息抽取任务,实现了全绿的成绩。

如果有足够的算力,72B指令微调版凭借其强大的性能,一定可以成为处理长文本任务的首选。

更值得一提的是,为了提升模型多语言能力,研究人员还针对性地对除中英文以外的27种语言进行了增强:

比如阿拉伯语、法语、荷兰语等等。

在阿拉伯语榜单上,Qwen2-72B性能直接刷榜。

安全性堪比GPT-4

当然,模型安全也是训俩过程中,至关重要的一部分。

如下,展示了大模型在四种多语言不安全查询类别(非法活动、欺诈、色情、隐私暴力)中生成有害响应的比例。

通过显著性检验(P值),看得出Qwen2-72B-Instruct模型在安全性方面,与GPT-4的表现相当,并且显著优于Mistral-8x22B模型。

坚持开源,唯一引起Altman注意的国产大模型

依靠着强大研发能力、领先的基础设施能力,以及开源社区的充分支持,通义千问大模型一直在持续优化和进步。

2023年8月,这个消息振奋了国内AI圈:阿里云成为国内首个宣布开源自研模型的科技企业,推出第一代开源模型Qwen。

而在随后不到一年时间,通义先后开源了数十款不同尺寸模型,包括大语言模型、多模态模型、混合专家模型、代码大模型等等。

这种开源频率和速度,可以说是全球无二,模型性能也在随着版本迭代肉眼可见地进化。

而自Qwen-72B诞生后,Qwen系列更是逐渐步入全球大模型竞争的核心腹地,在权威榜单上,多次创造中国大模型的「首次」!

不久前,奥特曼在X上转发了一条OpenAI研究员公布的消息,GPT-4o在测试阶段登上了Chatbot Arena(LMSys Arena)榜首位置。

这个榜单,是OpenAI唯一认可证明其地位的榜单,而Qwen,正是其中唯一上榜的国内模型。

多次冲进LMSys榜单的国产大模型,只此一家

另外,早些时候有人做了个LMSys榜单一年动态变化的视频。

结果显示,过去一年内,国产大模型只有Qwen多次冲进这份榜单。

最早出现的,是通义千问14B开源视频Qwen-14B,然后就是Qwen系列的72B、110B以及通义千问闭源模型Qwen-Max。

而且,它们的得分一个比一次高,LMSys也曾官方发推,认证通义千问开源模型的实力。

可以看出,在顶尖模型公司的竞争中,目前为止,中国模型只有通义千问真正入局,能与头部厂商一较高下。

爆火全球AI社区,歪果仁:真香

如今,Qwen系列模型已经在全球范围内爆火,成为最受外国开发者瞩目的中国开源模型之一。

在不到一年时间,通义千问密集推出了Qwen、Qwen1.5、Qwen2三代模型,直接实现了全尺寸、全模态的开源。

就在最近一个月内,Qwen系列的总下载量已经翻了倍,直接突破1600万次。

与此同时,在海内外开源社区,基于Qwen二次开发的模型和应用,已经出现超过1500款!

其实,早在今年2月Qwen1.5发布前后,就有大量开发者在线催更Qwen2。

开发者用脚投票的结果,直接显示了Qwen系列有多受欢迎。

在网上冲浪的时候,会明显发现Qwen的很多忠实拥趸都是海外开发者,他们时常在社交平台发表「我们为什么没有这种模型」的溢美之词。

19岁获得博士的Stability AI研究主任Tanishq表示,以Qwen为代表的最有竞争力、为开源生态做出重大贡献的开源基础模型,就是来自中国。

6月7日晚24点左右,众望所归的Qwen2上线后,也迅速获得多个重要的开源生态伙伴的支持。

其中包括,TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama等。

可以说,通义大模型用行动证明了开源开放的力量。

商业模型更具前景

阿里云是全球唯一一家积极研发先进AI 模型,并且全方位开源的云计算厂商。

坚持自研与开源,也让阿里云的商业模型更具前景。

在未来的大模型市场,不可能是一个模型能适应所有需求,也不可能只有一种模型服务方式(API)。

开源模型把选择权交给了企业和开发者,让能用户在场景、性能、成本之间,找到理想的配比。

其实,从自身主观来说,这也正是云厂商的本质使然。

云计算算力集中、灵活部署、按需付费、成本较低的特点,天然就适配大规模的推理需求。

在5月,阿里云发起「击穿全球底价」的大模型API降价,目的正是加速AI应用爆发。

如今,坚持做「国货」的阿里云,也在坚持着开放路线。

卷价格,抑或是卷模型本身,都是在为激活AI行业生态贡献力量,加速应用爆发,从而形成有国际竞争力的技术体系和话语体系。

生态建设

如今,AI大模型已成全球数字技术体系的竞争,这个体系包括芯片、云计算、闭源模型、开源模型、开源生态等等。

中国信息化百人会执委、阿里云副总裁安筱鹏指出,全球AI大模型竞争的制高点,就是AI基础大模型,因为它决定了产业智能化的天花板,商业闭环的可能性,应用生态的繁荣以及产业竞争的格局。

与此同时,开源生态在整个技术体系的竞争中也有着至关重要的作用。

优质的开源模型,让海量的中小企业和开发者免于从头开始训练大模型,直接站在前沿技术成果的肩膀上做创新。就好比从海拔0米的地方把人运送到5000米的珠峰大本营,再去爬剩下的3000米。

阿里云持续开源自研模型,牵头建设中国最大的AI开源社区魔搭,正是为了推动AI应用门槛的降低。

如今,大模型应用创新的奇点还没有到来。

当大模型的大部分潜力被真正挖掘出来,当越来越多开发者和企业结合自己需求,促进大模型的发展和应用,届时必将发生天翻地覆的变化。

参考资料:

https://qwenlm.github.io/blog/qwen2/


怎么换新王?

出于各种原因,我们需要给蜂群更换蜂王。 那么如何给蜜蜂快速换王呢?具体有以下四种方法:一、合群换王。 一箱蜂如果蜂王老化,蜂王质量不行,就需要更换新王。 如果没有多余的王来换。 不妨直接处理掉现有蜂王,然后把这箱蜂和其它蜂群合并,间接的就是给这箱蜂更换了新王。 合群速度快,操作难度低,是一种很不错的方法。 意蜂可以直接提脾加进新群,中蜂合群的方法听蜂之语在前面的文中有具体介绍,其中就有一种巧用继箱和覆盖网的方法,只需将合群的两窝蜂放在继箱和底箱用覆盖网隔开一个晚上便可。 如果都是强群不适合合群怎么办?那可以采用第二种方法。 二、介王台。 更换新王,不妨直接介个新王台。 王台出来后,就是新蜂王。 操作简单,把其他箱好的优质王台在第十日移入本群合理位置便可。 不管是弱群还是强群这样做都不会耽误蜂群的发展。 如果实在着急想要引入新王快速产卵或者是想购买优质蜂王进行换种怎么办?那就用第三种方法。 三、王笼保护介新王。 把购买来的新王用王笼保护,王笼内保障蜂王的食物供给。 然后把王笼放置在蜂群的两块巢脾之间,此时一定要清理蜂群内的其他蜂王,三天后如无围王现象便可放出来了。 当然,为了防备于未然,放王后要观察工蜂是否还会围王,如果还有这种现象要及时解救蜂王。 具体解救办法就是将围王蜂团放到温水中等蜂团自行散开。 为了避免围王造成蜂王死亡的损失,还可以用第四种方法。 四、喷雾水介王。 喷雾水介王的方法主要是利用的去味原理。 在介入新王前先提出一脾蜂并将巢脾上的工蜂全部喷上雾水,然后把要介入的蜂王喷上雾水,再把蜂王放到巢脾上和工蜂共处,如无异常,就将蜂箱里面的其他工蜂全部也喷上雾水,然后把有王的那脾蜂插入。 这种方法操作简单,但有的时候成功率并不高,而且要掌握时间节点,不宜在上午和晚上操作,一般选择在下午两三点的时候进行。 操作的时候一定要保障在工蜂群情绪稳定安静的前提下进行。

动漫新网球王子第二季什么时候更新

新网王漫画版 已经出了83话,还未完结~~~正统续作《新网球王子》09年3月开始连载,大概是每月4号左右更新1~4话,已经出了83话~~~ 新网王动画版 目前为止出了13集,第一季已完结,还没有第二季的消息~~~动画版只是暂时完结,因为动画版追上了漫画版的进度~~~不过,漫画还在更新,相信动画也会出第二季的~~~———————————————————————— 新网王OVA1《招聘前夜》、OVA2《神之子VS皇帝》已发售,OVA3 将于8月24日 在日本发售~~~发售时间如下: 第3卷 2012年8月24日第4卷 2012年10月26日第5卷 2012年12月21日第6卷 2013年2月22日第7卷 2013年4月25日

新网球王子已经完结了吗??

已经完结

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/keji312/25407.html
我花700块买到了当年的国产旗舰 表现居然不如红米低端机
友商有压力了 续航三大突破 真我GT7 Pro参数敲定 摄影