火速微调上线Llama GenAICon2024 生活服务垂类大模型怎么搭 开源两手抓 58同城孙启明 3 自研

智东西 作者 GenAICon 2024

2024中国生成式AI大会于4月18-19日在北京举行,在大会第二天的主会场AIGC应用专场上,58同城TEG-AI Lab大语言模型算法负责人孙启明以《生活服务领域垂类大语言模型建设和应用》为主题发表演讲。

孙启明详细介绍了58同城搭建生活服务垂类大模型体系的思路和心得。据他分享,58同城正在进行整体改造与产业化升级,力图实现整个服务链条中的信息流程在线化和数字化。为了支持这一转型,58同城AI Lab构建了 模型领先、敏捷易用的AI平台 ,以助力AI应用在其内部四大业务线的快速落地。

在孙启明看来, 通用大模型+提示不会代替一切 ,应用方需要结合自身业务场景, 微调出自己的大模型 。目前58同城每天都有大量的大模型训练任务在进行,四大业务线都用大模型提升服务体验,迄今其线上模型数量已经 超过200个

58同城搭建了一套支持大语言模型训练、推理的平台,基于该平台推出 垂类大语言模型灵犀大模型(ChatLing) ,相比官方开源大模型实现了更好效果。除了自研模型外,58同城还积极 集成开源通用大模型 ,并能快速响应最新开源模型的发布。

例如,4月18日晚间最新的模型刚开源,第二天下午58同城就火速在自家AI平台上线这款新开源模型。

以下为孙启明的演讲实录:

我将主要介绍我们是如何构建相关垂直领域的大模型平台,并以此赋能58同城的线上业务产品,从而带来了较为可观的线上收益。

首先,让我做一个简短的自我介绍。自从毕业后加入58同城,我的工作重点一直集中在推荐系统、NLP(自然语言处理)以及大模型技术等领域。目前,我负责58同城大语言模型的技术方向,并主导了公司内部大模型平台从0到1的建设工作。

58同城作为一个服务平台,其主营业务涵盖 四个主要方向 :生活服务、房产、招聘和汽车。

我们目前对业务增长的策略进行了“第一曲线”和“第二曲线”的划分。“ 第一曲线 ”指的是我们 传统的流量模式 ,即潜在客户通过购买58同城的会员服务,成为我们的B端商家,这些商家在58同城平台上发布信息。而C端则浏览这些帖子,并与商家直接进行交互和后续沟通,这就是我们的 流量生意模式 。我们的每条业务线,包括维修、房产等,都有相应的案例展示。

通过这种方式,58同城不仅提供了一个信息发布的平台,还促进了B端商家和C端消费者之间的直接联系,从而实现了双方的需求匹配。

一、服务平台借力AI转型,智能助手实现初步筛选和留资

大语言模型的建设和应用,将进一步优化流量生意模式的过程,提高用户体验,增强平台的服务质量和效率。

58同城正在进行整体的改造和产业化升级,力图通过第二曲线战略实现业务模式的转型。

我们的目标是将 整个服务链条中的信息流程在线化和数字化 ,以此无缝连接上下游环节,提供一站式服务,让客户能够在我们平台上完成更多事务,而不仅仅是简单的流量生意。比如用户可以在58同城平台上直接寻找保姆、月嫂,或者完成房产领域的相关工作。

为了支持这一转型,58同城AI Lab致力于 建立一个领先、敏捷且易用的 AI平台 ,旨在促进AI应用在各个业务线中的快速实施和落地。

我们设计的流程图从底层的AI算力开始,包括GPU、CPU、NPU等通用技术平台资源。

在技术平台层 ,我们进行整体的算法引擎设计,包括算力管理、大规模集群调度,以及离线和在线性能加速。

在算法模型层面 ,我们的平台涵盖了图像、语音、传统NLP算法、3D建模,以及新兴的大语言模型和多模态大模型。

在技术平台层之上 ,我们构建了应用平台层,提供了包括智能对话、客服服务、VR看房、AIGC图片生成、数字人克隆互动等服务。此外,我们的Agent(智能体)包含工作流和知识库插件,以适应不同领域的应用需求。

最终,基于整个AI应用平台,我们进一步赋能公司内部的 AI应用 ,包括销售、客服以及线上产品、运营和办公等各个方面。

目前这套流程在公司内部运行得相当顺畅,每天有大量的大模型训练任务在进行,我们四大业务线基本上都能够利用大模型来提升服务。以今天为例,我们线上训练的模型数量大约有 200多个

在应用方面 ,我们上线了一个B端商家智能聊天助手。这个助手主要应用于招聘场景,尤其是在58同城平台上,我们发现有很多蓝领岗位的招聘用到了这一助手。

招聘方可能没有足够的客服团队来及时响应每一个投递简历的商家,这时,我们的 智能助手 就会接管对话。它基于大模型和职位相关信息,能够主动询问投递者是否具备一些基本的工作经验,是否能够满足职位的基本要求。同时,如果用户对公司的位置、职位的待遇等信息有疑问,智能助手也能够基于大模型提供相关内容,进行简单的沟通。

智能聊天助手的核心功能在于 AI留资和初步筛选 。对于求职者而言,AI需要与其进行有效沟通,获取简历,并判断其是否符合招聘方的基本需求。

在理想情况下,我们希望AI能够做到更进一步,即为招聘方直接提供已经通过面试的人选。甚至可能由AI完成整个面试过程,直接判断求职者是否适合入职。

如果能够实现这一点,相比传统的仅提供流量的业务模式,使用大模型作为聊天助手将是一个巨大的提升。后者的优势在于它们能够更好地理解和处理复杂的对话场景,提供更为精准和个性化的交互体验。

我们尝试了 两种 大模型应用方案。

首先,我们尝试了一种 端到端的方法 ,让大模型全面接管并处理整个聊天过程,包括适时的回复和沟通交流。然而,我们发现这种方法并不理想。随后,我们转向了传统NLP方法的参考,这些方法包括自动回复、文本分类、文本匹配和问答知识库。

此外,还有 主动引导策略 ,它基于状态机进行回复,例如,在解答了一个问题之后,系统会根据配置好的话术适时提出下一个问题。最后是槽位识别,它根据用户提供的内容进行设计和回复。但这些传统NLP方法过于依赖知识库,且维护成本较高,尤其是在信息快速变化的情况下,比如经济趋势变化或新兴职位的出现,传统知识库的更新维护尤为困难。

我们的团队负责58同城线上众多场景的 知识库服务 ,面对知识库信息的不断变化,我们尝试采用自动化挖掘技术以减少手动更新的需求,但目前这些技术仍未能达到手动更新的效果,尤其是在多样性方面存在不足。

我们对 AI对话系统的评估 非常严格,尤其是在对话的流畅度方面,我们通过设定正确标准来评估机器人在对话中的每一句话是否恰当,任何不符合标准的回复都会导致对话流畅度的下降。我们的目标是使对话流畅度达到80%,这是衡量机器人能否替代人类工作的指标之一。

二、汇集自研和第三方模型,Llama 3已上线平台

我们紧跟去年ChatGPT等通用大模型的发展趋势,开始探索各类模型。

我们与业界的共识是, 通用大模型结合提示工程并不能解决所有问题 ,尤其在实际应用中,我们不能仅依赖聊天能力来应对所有问题。尽管一些开源或闭源的商业模型在日常对话中表现良好,但在业务场景中,它们难以达到99.9%以上的准确率。

因此,我们开始着手构建一个平台,旨在支持大语言模型的整个训练和推理流程,并与各个行业中效果显著的API进行集成。我们希望公司内部所有业务部门都能利用上当前最好的模型。

我们的平台架构分为几个层次,首先是 设施层 ,它提供了必要的硬件资源和计算平台。在 模型层 ,我们集成了多种开源序列模型,包括Llama、Qwen、Baichuan、Yi等。我们自建的“灵犀”平台也训练并集成了我们的模型ChatLing。

工具层面 ,我们提供了当前性能优秀的推理加速框架,如vLLM、TGI、TensorRT-LLM、EnergonAI,以及训练方面的微调工具,包括对齐方式和封装了MoE建模方式的工具。

这样的封装设计使得我们的业务线研发人员,甚至是非技术背景的同事,可以不必深入了解复杂的技术细节。他们只需要准备好数据,通过平台的简单点击操作和数据集配置,利用我们提供的优秀默认参数,或者使用我们的工具对这些参数进行微调,就能训练出适合自己行业的大语言模型。

我们构建了名为ChatLing的 灵犀大语言模型 ,这一过程得益于我们之前提到的大语言平台,使得预训练、SST、领域微调和强化学习对齐这三个阶段的流程能够顺利执行。

我们并没有完全采用从零开始训练的策略,因为这需要大量的高质量语料,而且当前的模型训练通常需要处理至少1.5T到2T的Tokens。

为了高效利用资源并快速迭代,我们选择了基于已有的、国内外表现良好的开源模型作为基础,即所谓的“基座”。在这些基座之上,我们结合58同城的业务数据,使用经过清洗的、规模达几百亿的高质量语料进行增量预训练,随后执行微调和强化学习,以进一步提升模型的性能。

通过在开源通用基座上完成这三个阶段的训练,我们得到了灵犀大模型,该模型随后被用于赋能58同城的业务应用。

这个流程的灵活性体现在,一旦有新的开源模型发布,我们的团队能够迅速响应。4月18日晚上刚开源,4月19日下午我们已经完成了基于该模型的微调训练和强化学习,并且已经上线了新模型。这意味着4月19日晚上我们的业务部门就可以开始使用基于Llama 3微调的模型。

我们致力于开发和采用多种技术来优化大语言模型的推理资源使用,这些技术目前正被积极地应用于我们的业务中。

其中一项技术是,我们创建了一套自动化流程来构建MoE模型。这一流程允许不同模型根据自身需求,选择多种实现方式,包括类似Databricks的方法、传统的Mistral方式,或TM2等,来生成其基座MoE模型。此外,我们完成了基于MoE模型的微调和训练工作,使得模型能够更加精准地服务于特定的业务场景。

我们还采用了S-LoRA技术,这是一种广泛使用的微调方法,尽管有人质疑其与BERT直接微调的差异性,但我们通过集成LoRA的方式,允许一个基座模型兼容多达上千个LoRA模型,实现每个场景的个性化定制。这种方法可以根据线上流量的多样性进行批次拼接,与基座模型结合进行推理,极大程度地节约了资源。

在大模型的训练和推理加速方面,我们采用了包括Unsloth在内的传统方案,以及在Flamer上实现的微调技术和增量预训练中的Flash Attention技术。此外,我们利用基于HQQ的推理加速技术。尽管存在一定的硬件资源上限,例如使用两张4090显卡来支持千问72B模型的推理和微调,但这已是我们目前的极限。

三、大语言模型支持多种合作模式,灵活应对不同业务方

我们的平台建设支持多种合作模式。

对于内部没有算法团队的应用方,我们提供了 Agent平台 ,类似于智谱和千问提供的能力。这个内部Agent平台允许用户通过低代码甚至零代码的方式快速创建机器人,并通过拖拽的方式构建大模型的工作流。

例如,创建一个查询天气的机器人或调用内部接口的服务,用户只需拖拽相应的流程模块,比如大模型处理流程、知识库流程、接口调用流程,以及让大模型自检工作流正确性的流程。完成后,用户一点发布即可生成API,供业务方直接接入。

这种简便的使用方式,提高了大家的使用满意度,并在公司内部得到了广泛应用。

对于应用四,我们直接提供API接口,但不包括Agent平台。这种方法适合于那些认为无需微调模型即可直接使用的场景。我们接入了多种商用模型,如文心一言、智谱AI(的GLM)、通义千问等,并结合我们自己的ChatLing模型,以便快速部署。

针对需要微调的场景,我们提供了 三种不同的支持方案

应用三是我们较为常见的做法,包含一个专门的微调团队,他们基于灵犀大模型为业务提供定制化的微调服务,从而实现平台对业务的赋能。

对于应用二,业务方拥有自己的算法团队,因此不需要ChatLing大模型团队的直接参与。在这种情况下,算法团队可以直接在我们的大模型平台上进行深入的定制化微调和相关操作。

对于那些算法能力特别强的业务方(应用一),他们可能不需要基于灵犀大模型或经过Instruct调整的模型进行微调。对于这样的情况,我们同样提供支持,包括必要的参数配置以及后续的Prompt优化服务,帮助业务方对微调数据进行思维链式的优化和重现。

四、灵犀模型更能理解生活服务,在线推理速度超闭源2.6倍

在灵犀大模型的效果评测方面,我们基于不同尺寸的开源大模型训练并落地了多版本的灵犀大模型,包括MoE架构的实现。

我们在OpenCompass、MT-bench等公开评估平台上对模型能力进行了测试,并提供了Turbo、Plus等四个版本的模型。相比其他开源模型,我们的模型在MMU、C-Eval等指标上展现出了一定的性能优势。

除了在开源数据集上的评测,我们还使用内部数据对模型进行了评估。 在NLP和NLU任务上,我们经过微调的开源模型相比直接使用官方开源大模型的效果更为显著。

这一改进主要得益于我们在ChatLing的开发过程中融入了 大量行业数据 ,构建了具有行业特性的大模型,这使得我们的模型在理解生活服务和招聘领域方面更为精准和强大。

我们进行了一项实验,购买了市场上排名前一、二大厂的服务,并与我们的ChatLing进行了对比测试。

我们使用的是拥有约百亿级别参数量的ChatLing Turbo,与商用大厂基于千亿参数的大模型进行了同期微调对比。在这次对比中,我们确保了除了模型本身,其他使用的数据和条件尽可能保持一致。

结果显示,在百亿参数规模下,我们的ChatLing模型在微调后的表现 超过了商用大厂的千亿参数模型 。这一发现极大地增强了我们对小尺度模型在特定行业数据上应用可行性的信心。

我们将大模型的能力进行了分解,并设计了一套包含四个独立模块的方案。这四个模块都是独立的大模型,通过S-LoRA技术部署到一个基座模型上。

第一个模块是意图识别 ,它负责判断用户的当前意图; 第二个模块是回答问题 ,它需要判断用户的问题是否可以回答,并生成相应的答案,这涉及到NLG和NLU的双重任务; 第三个模块是反问生成 ,它根据用户已提供的信息,识别出缺失的部分,并生成问题以向用户询问; 最后一个模块是信息抽取 ,它负责从用户提供的信息中抽取关键数据。

在这四个能力中,意图识别、信息抽取以及回答问题模块的一部分可以被视为较为直接的NLG任务,大模型在这些任务上表现出了很高的准确性。而回答问题和反问生成模块则涉及到更复杂的NLU任务,我们通过结合NLG和NLU的技术,优化了模型,减少了模型产生幻觉的概率。

我们通过实施基于AI中控或Agent的案例,对不同的大模型应用策略进行了深入的比较和分析。我们特别关注了将大模型拆分为四个独立能力的方法,并与闭源千亿参数大模型的微调效果以及GPT-4 Turbo直接管理对话的效果进行了对比。

通过这些对比,我们得出了一些有价值的结论。

相比于商用的闭源大模型,当我们将大模型拆分为意图识别、回答问题、反问生成和信息抽取这四个独立能力时,每个独立能力的表现都优于闭源模型。 这表明,针对特定行业领域的大模型在该场景下的训练是非常成功的。

其次,在会话流畅度方面,如果要求对话的每一轮都必须流畅准确,传统NLP的水平虽然较高,但GPT-4端到端的方案并未达到这一水平。 无论是使用闭源大模型还是我们的灵犀大模型,按照四个能力拆分后的方案都比传统NLP有显著提升。

在推理速度上,我们的百亿级模型在尺寸上比商用模型小很多,但通过推理加速技术,我们的 在线推理速度是商用闭源大模型最高档位速度的2.6倍

综上所述, 垂直领域的大模型相比于开源的通用大模型具有明显的性能优势。 无论是在开源数据还是闭源数据上,垂直领域大模型都能达到或超过开源模型的传统评估标准,同时在内部的特定场景下展现出更优的性能指标。 即使与经过微调的商用千亿参数通用大模型相比,垂直领域的百亿参数大模型在性能上也不逊色。

大模型的民主化趋势愈发明显,即使使用较小规模的大模型,如Llama 3这样的开源8B模型,只要结合了特定垂直领域的语料进行训练,其在特定场景下的表现甚至可能超越直接使用商用千亿通用大模型或基于其微调的结果。这是我们通过实践积累的宝贵经验。

以上是孙启明演讲内容的完整整理。


卷发该怎么去打理啊

.................这个阿....一般烫卷的头发,多数人会选择搽啫喱水。 用啫喱水会使头发较沉,适合发量较多的发质。 使用搽啫喱水时,要由发梢向上轻轻揉搓,不要由发根向下,会使头发拉直,破坏卷度,一般在头发七八成干时使用效果比较好。 而比较软的头发适合使用摩丝、发蜡或营养水、泡沫发蜡之类。 因为摩丝质感比较轻,而啫喱水搽上去较重会改变头发的卷度。 挑选啫喱水时,请大家尽量选择手搽的产品,使用起来比较均匀而且增加力度和弹性。 尽量用手去梳头发,因为梳子太密,容易将头发梳直、梳断,而用手打理就相对有弹性得多。 使用酸性的烫后洗护产品,定期进行焗油或倒膜护理,补充烫发后头发流失的蛋白质。 1.增加油性卷发的清洗次数如果你是属于油性发质,在卷发过后很容易软塌塌地贴在头皮上,让本来很蓬松的发型看起来很别扭。 若想让卷发变得蓬松动感,最简单的方法就是增加洗发的次数,如此能有效地缓解油性发质出油,让秀发时刻保持清爽蓬松的造型。 2.随时弹性卷发DIY之空心卷这是一种不会伤害头发,比较适合干性发质使用的卷发方法。 在头发七八成干时,将头发分成1至3厘米宽的发绺,然后将其均匀地卷成发卷,用发夹固定,然后喷上定型产品,待到干时取下发卷即可。 3.含有杏仁油成分的护理液对于被烫得干枯分叉的卷发,最好的方法是使用高倍营养品进行护理。 美发专家建议使用含有杏仁成分的精华液来护理头发,就能够增加秀发的强度,让头发更加健康丰盈。 这是因为杏仁精华更容易渗透到受损的发丝中,从发丝的内部进行修补,令卷发迅速恢复健康!4.不伤发的卷发吹风在使用吹风机吹卷发时,应注意由发根朝发尾方向吹,否则便会将头发表皮层的鳞层组织吹翻,使得秀发遭受本来可以避免的损害。 另外,电吹风还要顺着梳子方向而移动,头发才能产生光泽,显得亮丽,且不易走形。 5.事半功倍的造型产品在卷发造型时,多数人会选择者喱水。 用者喱水会使头发较沉且具有垂附感,适合发量较多的发质。 搽者喱水时,要由发梢向上轻轻揉搓,不要由发根向下,会使头发拉直,破坏卷度,一般在头发七八成干时使用效果比较好。 但是,如果你的头发比较细软,则更适合使用摩丝、发蜡或营养水、泡沫发蜡之类。 因为摩丝质感比较轻,不会像者喱水那样改变头发的卷度。 挑选者喱水时,请大家尽量选择手搽的产品,使用起来比较均匀,而且增加力度和弹性

怎么长出更多的头发

一 . 多吃高蛋白易吸收食物,如黄豆,花生等坚果二. 多吃蔬菜,各种颜色的都要吃到不止是绿叶蔬菜三.洗头时不要用指甲抓头皮,用指肚挤按头皮

谁知道QQ飞车怎么连喷?

第一项,加速抓地难度 2你应该看见过很多视频里面的高手,在起跑时都会左右摇摆,为什么呢,因为这是加速抓地的奥秘,本来抓地时是车子慢慢加速的,当摇摆时车子可以避过一些空气阻力,从而使加速度高些,加速更快,这是模拟了现实生活中的空气阻力的结果。 这项技能很好掌握,稍加练习就可以了。 第二项,瞬间转角难度 1这个词对大家来说可能比较陌生,本来车开得好好的,即使漂移也要一段时间才能转过一定角度,何来瞬间呢,我想先问大家一个问题,在每次喷火时是不是都习惯性的只按上啊,可能大多数新手是这样的,每次漂移结束后都习惯性按一下上,然后就喷火了,但这是如果你在按上的同时,按下别的方向键,效果就不同了,你会发现车身立刻偏了一个角度,我觉得大约是15到30度,这项技能在实战中很常用,因为被别人撞,或者有失误时可以很坏调整车身方向。 但要注意按完后调整好方向。 第三z项,普通漂移 难度 5对于玩竞速的人来说,漂移是再简单不过了,可是现在你回想一下,你最开始练习漂移时是不是一次就成功了呢,我当时可是连了一天啊,可能我太笨了,也许真有高人,一个小时就很熟练了。 这里不多介绍了。 只要你能喷出来,就算掌握了。 第四项,最佳化漂移 难度6.5很多教学视频上都介绍过了,这是个很专业的技能,如果不会连喷之类的,最佳化很熟练,也能跟的上高手。 其实与普通漂移相比,就是按漂移键的时间短了一些,(我讲清楚些,其实就是轻轻的点一下漂移键,但方向键要一直按着,如果方向键不按住,就变成了小飘了。 你会发现你的车子转角不是很大,但是得到的气与普通飘移差不多。 而且90度弯用最佳化最好不过了,飘完就能直开了。 U型弯不能用最佳化,否则很吃亏,而且,最佳化是快速连喷的基础哦。 很多简单跑法的视频都是用最佳化漂移完成的。 第五项,双喷(双飘)难度 7这个技能不知道被人们叫了多少次了,名字也改来改去的,其实就是两次喷火,本质上就是先两次漂移再两次喷火,第一次是正常的漂移,第二次是小飘(就是漂移键轻点下),然后喷火(带方向键,调整方向),再喷火(也可以带方向键,一般直接喷就可以了),这个技能再初学者来说简直是恶梦,因为很多人按不出第二个火,原因是第二个漂移没按完就喷第一下了,这点要注意啊,初学时,可以按慢点,不要太急躁了。 第六项,LINK喷 难度 9我说得土一些,就是连接喷。 在双喷的基础上把,中间的步骤连贯些,就可以了,如果一定要按程序走的话,看起来按键顺序和双喷不一样,其实如果你的双喷熟练到一定境界了,看起来就和LINK喷差不多了。 LINK喷可以理解为把第一次喷火和第二次漂移一起按,不知道我这么说大家明白吗?而这其中的关键就在于两手的配合,在第二次漂移时,同时按漂移键,然后马上按反方向键,但漂移键不能松,(这时最关键的一步),这项技能比较华丽,如果练成了,看起来就是一次长的喷火,而且听到一次喷火的声音,但练不成的话,也没关系,实战中,这项技能不好用。 第七项,滑喷(SLIP喷)难度 5 (滑喷连喷为8)这个是新技能,只能在特定场地使用.忘了说明了,何为滑喷?就是在地面上滑行后喷火。 (不是漂移后喷火)在冰地上,因为车子会打滑,所以可以完成这种动作,具体操作是,按住方向键,当车身和行使方向大于30度角时,按上,就可以喷了,由于不是漂移,所以不能集气,除了作秀和调整方向外,没其它的功效了。 再说一点,滑喷也可以连喷的,我不多说了。 第八项,切飘(CUTTING飘) 难度6.5相信很多人都看过教学视频了,切飘就是在漂移时,强行按反向键和漂移键,断开漂移,车身回到原位。 这项技能很突出,相信大家有目共睹了。 这里有个关键问题就是很多人反映,切飘很慢。 我来说下我的想法,第一,切飘时不要按漂移键时间太长,否则减速太快,第二,切时可以注意主角头部,当头摆到正中央时切飘比较好,转向快,而且不大影响速度 第九项,点飘 (急速抽气) 难度 7这个名字比较陌生,但它的动作相信大家都见过,城镇高速最后那个大下坡,滑雪场一开始第一个弯,大家还记得视频上是怎么过的吗?对,就是那个动作,其实就是一个小飘,加一个大飘,通过这个技能,加速下坡状态一次就可以集一个气,加速状态就可以一个气。 小飘大家都会吧,大飘也就是普通的漂移,但上手起来还是有一些困难的,很多人开始练习时结果经常是一个大飘,这里的关键问题是小飘和大飘中间的连接,小飘松开漂移键后,一定要拉会车头,然后再大飘,一开始可以慢点,以后熟练了就没问题了,必要时大飘后可以切飘(以免撞墙),,这是个非常实用的技能,大家还是早点练吧。 第十项,切位加速 难度 9这个名字也很陌生,说实话,是我胡编乱造的名字,但技能是真实存在,听完我的叙述如果有更好听的名字请留言。 连用了2个加速,但在中间飘了一下,马上用第二个加速,这中间的动作是第一个加速结束,漂移,第二个加速使用,切飘。 使用的非常连贯,但仔细观察下,发现,加速是和切飘同时进行的 第十一项,扫飘 难度 7.5其实就是扫地啦,有教学视频的,在漂移时不断用小飘,在不完全改变方向的基础上,一点一点加气。 这个技能的要点是小票的漂移键要点的很恰当,每次都很均匀,而且每点一次都要注意拉回车头,(小窍门,注意主角的头部,摆到中间,就下个小飘)。 这项技能在加速状态下很好用,顺便说一下,切飘和小飘都是非常常用的技能,所以大家还是早练习为好img]border=0>第十二项,镜式漂移 难度9.5 再加个 作秀 10我个人认为,这是个百分之百的作秀技能,实质上就是在漂移前,先向反方向漂移180,掉过车头后,按后加速,再按反方向键漂移(因为倒车时,左是右,右是左,向左飘就按右),回归车位。 第一次看视频时,我也看的眼花缭乱。 以上是我的浅见,希望各路高手多多指点这个技能的用法. 第十三项,连喷 难度 8.5这个技能是现在最实用的技能其它我就不赘述了,这可是很多都梦寐以求的技能,想学会也不是一朝一夕的事,几乎每个大家看见的视频都有这个技能出现。 连喷有两个要点,第一喷的速度要快,第二,漂移时越贴内墙越好。 先说第二个要点,要想贴内墙,先要把最佳化漂移学好,连喷的第一个漂很关键,它决定以后的走位,(当然如果你的水平很高,可以在之后通过小飘调整)。 言归正传,要想速度快,第一记住小飘要短些(但不是点漂移键),第二要让喷火发挥极致,喷完后再小飘,有时候这些东西很难说清楚,而网上连喷的教学视频又喷的太慢,所以建议你跑到高手旁看他按键好一些,只要肯努力,都没问题的。 连喷一般三四喷就够了,如果别人喷三,你喷四下(其它情况忽略),说明你的速度不够快。 第十四项,断位双喷 难度??断位双喷的本质是在漂移后切飘再双喷,是三个技能的结合产物,他的实用之处,在于集气上比切飘更快,类似于双喷和LINK喷的关系。 它的按键我目前也没整理好,我先把我的按键方法给大家吧,以后练成了在说。 我的成功率很低,但的确练出来过,首先是正常的切飘(角度不要太大),飘完后立刻接一个小飘然后双喷,成功率很低,我觉得应该还有更好的方法。 这个技能的实用性也不是很高,有作秀成分,建议大家也不要学习了。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/keji312/9007.html
和傅程鹏幸福同框无惧争议 周丽淇罕晒全家福 为4岁儿子庆生
农夫山泉回应与娃哈哈有关传闻 创办系临时起意不针对任何人