当前位置: 首页 > news >正文

百度 医疗网站建设wordpress 更改用户名密码

百度 医疗网站建设,wordpress 更改用户名密码,广州建设网站公司哪个济南兴田德润有活动吗,郑州住房和城乡建设局网站以chatgpt为起始节点的大模型技术经过了两年左右的发展#xff0c;大致沉淀了一些较为确定的研究领域。首先是基座大模型的研究#xff0c;主要是国内外大厂集中大量财力、人力、算力进行大模型军备竞赛#xff0c;企图将大模型的基础能力#xff08;包括推理能力#xff…以chatgpt为起始节点的大模型技术经过了两年左右的发展大致沉淀了一些较为确定的研究领域。首先是基座大模型的研究主要是国内外大厂集中大量财力、人力、算力进行大模型军备竞赛企图将大模型的基础能力包括推理能力上限逐步提升到更高的层次。当然也有一些研究机构致力于改进transformer的架构或者提出其他更先进的基础模型结构在性能或者效率上做文章例如MOEMamba等多模态模型让大模型同时能够理解并生成图像、音频、视频、文字等多种模态的信息例如大火的Sora。其次是大模型的微调对齐研究主要是基座大模型通过指令微调、强化学习等技术将其变成一个应用友好、用户友好的能力模型也可以将模型长文本、长上下文能力的提升也包含在该方向内另外还有大模型的高效部署和推理计算在降低大模型服务成本的同时提升大模型服务的实时性提升用户体验最后则是大模型在各种细分场景领域的应用落地能够将大模型封装成一个成熟的应用产品真正的将大模型用起来当然也可以将agent相关的技术研究归纳在这个方向上因为agent的目标就是将大模型的能力充分利用起来帮助人类更好地使用大模型。详见下图所示 本人目前主要精力集中在大模型的应用落地对大模型在传统NLP应用任务上的效果非常感兴趣。正好前段时间有潜在客户希望我们研究是否能够通过大模型提升新闻事件分类的效果。借着这个机会我对大模型在文本分类任务上的应用方式和对应效果进行了研究有了一些初步的结论。本文希望通过描述上述研究过程与结果总结出大模型在文本分类任务上的最佳实践并推广到更多类似的应用上为业界做大模型应用时提供一些落地的参考。 应用场景分类 在谈具体的研究内容前需要先明确一下研究的问题类型。目前对于可能会应用到大模型的传统NLP应用我自己将其分为两种不同的情况 1开荒式业务场景。这种场景主要出现在那些刚刚完成数字化还未进行智能化的机构、或者业务场景本身比较复杂、传统技术无法在该场景中匹配最低的用户使用体验要求的情况。特点数据积累不成熟也就是没有足够的训练语料用于场景专用模型的训练、硬件资源不足没有足够的GPU用于训练模型等。 2优化提升式业务场景。这种场景主要出现在那些已经有一定智能化基础的机构、或者业务场景中已经使用了一些传统NLP技术解决了部分问题的情况。特点需要提升已有方法的应用效果和用户体验如准确率、召回率等当前方法继续优化的难度较大。 本文主要讨论的是第二种场景这也是很多有一定数字化、智能化基础的公司比较关注的类型。他们在大模型提出之前已经通过一些规则、统计机器学习、深度神经网络等算法模型技术构建了一些分类服务有些行业头部团队在此基础上通过一些技巧数据增强对抗训练等进行了优化将算法指标提升到了某个瓶颈线。然而业务用户对于算法的精度提升要求是持续性的因此在大模型出现之前的一段时间算法人员疲于应付业务用户对于场景效果的高要求。 只用prompt工程足够吗 截止2024年我浏览过很多应用大模型研究传统NLP任务的工作大多集中在如何利用prompt技术、few-shot技术等直接将大模型应用在这些传统任务中。例如这一篇Can ChatGPT Understand Too? A Comparative Study on ChatGPT and Fine-tuned BERT通过prompt工程对比ChatGPT与Fine-tuned Roberta在GLUE数据集上的效果最终的结论是Fine-tuned Roberta在文本理解任务上仍然无法被超越。然而我也看到有一些观点认为这些传统任务直接用大模型一把梭就能搞定只要prompt写的足够好就能得到一个足够好的语言理解分析服务。本人并不反对这种观点而且还支持对过去的一些应用模式进行革新从而让大模型能够充分发挥其特性。不过在目前的阶段很多企业或者业务场景基于安全、成本、时延等因素无法使用综合能力强的模型GPT4国内模型的付费版公有云服务、超过14B的开源模型等而通过纯prompt工程使用类似7B的模型还无法完全替代已经在足量数据上训练过的BERT类模型。由于上述提到的研究是使用ChatGPT以及英文的数据集为了验证国内开源的大模型是否在中文数据集上是否也有类似的结论下面我将根据相关的目标应用场景以一个具体的数据集的实验来说明。 应用场景与数据集 目标应用场景新闻事件分类任务。任务特点 1多标签分类任务即一个新闻可能会对应多个事件类别 2事件标签体系庞大且有比较严重的类别不均衡问题。出现频次高的类别容易累积训练数据而低频长尾类别属于典型的小样本问题。 由于一些原因不能拿到相关真实场景数据因此搜寻了网上的公开数据集最终找到了一个比较贴近上述任务特点的数据集ccks 2022 任务八数据集。 数据链接见https://tianchi.aliyun.com/dataset/136800 数据集简介数据主要来自金融领域的公开新闻、报道数量在5万左右。原始数据集的任务是“给定100事件类型及其事件主体公司训练数据中对其中16个事件类型只保留10条左右的训练样本测试集中包含这16个类型的大量待抽取样本。” 本次的验证为了简化问题不会采用上述的任务形式而是采用最基本的全类别分类数据集的处理方式从而验证模型在这种类型的数据集上的整体效果以及在一些小样本类别上的效果。 由于目前只有训练集有标注标签因此只能针对标注数据集进行分析。具体做法是根据标注数据分布划分了训练集测试集5000其中测试集只用于评测模型的最终结果。 备注该数据集存在一定的标注质量问题前期通过一些人力检测与校正提升了部分的标注质量。 数据示例如下 {textId: 2333e4ef53762e498cc79c7613d6ac6f, text: 科锐国际2018年年度权益分派实施公告, eventTags: [{eventType: 公司权益分派, eventCompany: 科锐国际}]} { textId: 35a726ecec33a755abea4ff6fd5464ec, text: 讷河软式透水管有限责任—讷河公司湘潭招聘/万达集团招聘信息多次延期后ST康美终于披露回覆函, eventTags: [ { eventType: 延期信息披露, eventCompany: ST康美 }, { eventType: 当地招募员工, eventCompany: 万达集团 } ] } 事件标签数量为174个均为金融相关的事件标签。以下为部分事件标签样例。 对数据集进行分析后发现其具备典型的长尾分布特征与实际的业务数据分布比较类似。由于类别比较多以每个类别为粒度进行画图不够直观因此将所有标签类别按照从大到小顺序排序后以10为一组进行分组按照组的粒度画出的柱状图如下图由GPT-4生成 以下是出于长尾位置的部分事件标签样例 产品虚假宣传: 9 产品亏损: 3 行业排名下降: 41 责令转让所持证券公司股权: 21 新增分支机构: 38 分支机构被警方调查: 11 非法集资: 8 发放贷款出现坏账: 27 挤兑: 41 诉讼仲裁-败诉: 29 澄清辟谣: 9 停产停业: 10 上市前融资: 33 销量下降: 48 行政处分: 33 薪酬福利下降: 16 被盗: 44 实际控制人违规: 10 发布新产品延期: 24 其他经营不善: 39 贷款用途变更: 17 第一大股东变化: 8 客户管理不善: 29 市场份额减少: 28 产品质量问题: 10 股东借款: 4 财务报表更正: 8 经营资质瑕疵: 8 引入新股东: 9 停止批准增设分支机构: 24 授信额度上升: 10 资金紧张: 7 在当地撤资: 22 股权融资失败: 19 基于BERT的baseline 为了验证大模型的相关方案与传统的NLP方案相比是否有提升因此选定了BERT簇的分类方案作为baseline来进行对比。 BERT也是一个以Transformer为模型架构的预训练语言模型。 参数量相比LLM大模型更小基本在亿级参数以下 训练方式与LLM大模型不同更注重语义理解类任务而不是文本生成式任务 一般需要适量的下游任务训练数据进行微调并在基座模型的基础上设计针对下游任务的额外组件从而得到一个任务专用的模型。微调难度较小。 LLM大模型出世之前业界主流的方法 BERT与GPT在语言模型训练任务上的区别如下图所示 具体来说本次实验的BERT模型选择了哈工大的macbert-base和macbert-large两种体量的模型。 模型链接如下https://github.com/ymcui/MacBERT 具体训练方式 输入新闻文本 输出事件标签列表 loss函数BCEWithLogitsLoss 将所有训练数据5万灌入模型进行训练 最终base和large模型的指标如下 基于Prompt工程的LLM方法 将LLM大模型直接应用于文本多标签分类任务实际上就是编写提示词指令让大模型去生成最终的事件标签结果。整体还是一个文本生成的过程。 提示词模版样例如下 f作为一个多标签新闻分类专家你的任务是识别出新闻中的所有相关事件标签。 事件标签列表{event_tags}。新闻内容{text}。该新闻对应的所有事件标签是什么 其中event_tags需要把体系中的事件标签填入。这里涉及到两个问题 如果事件标签体系很庞大把所有事件标签装进去不太现实超过了大模型能够处理的文本长度上限。 把所有标签装进去会增加大模型分析处理文本的难度 基于当前最新的技术发展有的开源大模型已经能够处理超过128K的上下文对于170的标签文本是能够覆盖的。当然能处理和处理好是两种概念对于大模型来说肯定是标签范围越小越容易解决问题因此也可以通过先将事件标签进行分级分组然后逐级进行大模型的分析两种方式均可。 引入Few-shot sample 为了能够充分利用已有的标注数据集和大模型的能力在上述prompt中还可以引入示例样本一般论文里面都叫demonstrations从而激发大模型的In-context learning能力。为此对整体训练数据集设计了如下的工作流程 该工作流程的主要核心思想是将示例样本的选择问题转化成RAGRetrieve-Augmented-Generation将训练样本集合向量化存储后对于每个测试样本的分析通过召回排序的方式做知识库的检索根据预设的示例样本数量实验中设置为10选择语义最相似的标注样本填充到prompt中。 示例样本填充顺序重要吗 在选择示例样本后还有个容易被忽略的问题示例样本填充入prompt的顺序需要关注吗 之前有一些文章提到过RAG得到的召回样本在prompt中如果较为相似的召回内容离用户问题越近大模型的回答质量会更高。我也尝试了这样的处理方式将相似度高的样本放置在了与待预测的新闻文本接近的位置。提示词模版样例如下 你是一个先进的大语言模型专门用于理解和分类金融新闻资讯现在需要你根据提供的新闻内容 将其分类到预定义的事件标签中。任务要求 1、仔细阅读新闻内容理解新闻主题和核心内容。 2、只使用给定的事件标签列表进行分类若新闻属于多个事件标签则使用竖线|来分隔不同的事件标签 若没有合适的事件标签则分类为others。 3、只需要输出事件标签名字其他内容不需要输出。 事件标签列表如下使用英文逗号分隔\n{event_tags} 下面是给你提供的人工标注过的参考样例 {demonstrations}待分类的新闻内容如下{text} 该新闻事件标签为 其中demonstrations存放的顺序为按照示例与待预测样本相似度的正序排列即相似度越高的排得越后离待预测样本text越近。 通过上述处理方式确实能够在这个任务上有比较微小的提升虽然提升幅度不大但操作成本上也几乎可以忽略因此推荐使用。 结果 基于纯Prompt工程的方式采用了开源的qwen-7b-chatYi-34b-chat-int4闭源的qwen-72b-chat接口百炼平台三种大模型来验证。(实验的时候qwen1.5还未出但根据其他任务的分析可以推测不会相差太多) 具体指标如下 根据指标结果可以看到纯Prompt工程的方式即使是使用百亿级别参数量的模型还是离传统BERT方式的效果差不少。因为LLM大模型的训练方式与BERT不同以文本生成为目标是单向构建上下文从左到右而BERT训练是以完形填空式任务为目标。相比于LLM能够在双向向左向右构建上下文理解本身就适配自然语言理解任务文本分类信息抽取等均为理解任务。 通过分析大模型的错误case可以发现很多样本都是因为指令遵循能力不够比如格式未按要求生成了无关的分析解释内容等导致格式处理后的结果是错的。因此推测如果对大模型进行训练样本的sft应该还能够在指标上有不少的提升。 Prompt工程指令微调 方法描述 既然要指令微调了那么基于硬件成本限制就只能选择一些性价比高的开源模型来做验证了。因此最终选择了qwen-7b-chat和qwen-14b-chat来做实验。针对当前的数据集结合Prompt工程和指令微调技术设计了如下的大模型文本分类流程 与Prompt工程的方案相比本方案加入了指令微调的步骤。具体来说就是对训练集进行数据筛选和处理后筛选出高质量的训练数据集然后通过lora的方式进行低成本的指令微调模型最后在微调后的模型上使用Prompt工程来完成样本的分类。整个流程中有几个重要节点的详细说明如下 构建指令形式的训练数据集时需要生成指令提示词模版并将每个样本填充到提示词模版中。一般的做法是一种任务都用同一个提示词模版。不过这样处理可能会让微调后的大模型对指令的理解能力不够鲁棒。因此我通过ChatGPT让其为我生成了适合该分类任务色50个提示词模版并为每个样本随机分配一个。通过这种方式能够让大模型对指令的遵循能力更好。 关于高质量数据筛选的问题其实我做了两个不同的方法实验。一个是全量数据的微调5w)另一个是采用一些数据选择的方法得到适量的样本子集用于训练。 这些方法除去一些不太方便实现的例如要训练一个reward模型标注成本太高基本都实现了一下在当前的数据集上效果都不是很理想猜想应该是上面的方法对于目标是复杂生成的任务会更有效。 实际上探究数据集精选的本质不外乎以下两点1样本多样性高2对于任务的重要性或者增益程度尽量高。其实之前做文本摘要的时候对摘要句子的选取也是遵循这两个原则因此自然而然就想到可以借用文本摘要的思想来选择 1先将所有样本根据标签类别分成不同的簇当然也可以对样本进行聚类分析得到的簇可能更偏文本本身的语义相似性聚合 2对每个簇中的样本采用MMR算法进行样本的排序。MMR综合考虑了样本的多样性和相关性因此我们可以根据分数从高到低选择一定数量的样本放到训练集中。 MMR算法https://zhuanlan.zhihu.com/p/83596443 3对于包含多个标签的样本以及样本数量本身就很少的标签均采用白名单模式即全部加入样本集合中。这也是为了让大模型对多标签、小样本的情况能够尽可能多的学习。 通过上述方式选择了4000的样本用于训练。(每个标签数据都会覆盖到 结果 我们将上述筛选后的训练样本集与全量训练样本集进行了大模型微调的对比实验可以发现一些有趣但并不意外的结果。 结论1大模型的参数量越大整体的指标效果越好。但限于使用成本通常没办法无限制提升模型的参数量级。 结论2当标注数据比较少的时候大模型微调后的效果还是会优于BERT簇模型在小样本类别的效果上也要更好。 结论3全量数据集微调在整体指标上比子集微调要更好但是在小样本标签类别上的效果不一定会根据使用的模型而定。 根据上述的对比实验可以看到当标注数据量比较充裕的时候LLM即使经过微调、提示词精心设计等步骤后整体的效果还是不如BERT模型的微调效果。除了上一小节提到的“LLM大模型的训练方式与BERT不同”的原因外可能还有以下这个因素 BERT在数据量充足的条件下能够充分“过拟合”下游任务信息从而在任务上达到不错的效果。但是微调后的模型完全无法去做其他任务而LLM大模型的目标本就是通用人工智能不会为了某个具体任务而丧失通用性因此经过一定的指令微调后并不会充分“过拟合”某个任务。 当然在标注数据量不是非常充分的情况下使用大模型做指令微调配合Prompt工程确实能在小样本场景下有不错的效果。实际的应用场景中有些小样本的事件标签虽然出现次数不多但业务属性却非常重要提升这些数据的效果可能对整体的评测效果没有明显的影响但对业务使用来说是能够提升体验的。 大模型BERT式微调 大模型指令微调的组合终究与追求精度提升的文本理解类任务不太契合。在足量的标注数据场景下精度上难以匹敌传统的BERT式微调方法。但是大模型毕竟在参数量和学习的知识信息量级上要远超过往的BERT簇模型所以从理论上来看只要能够充分利用大模型庞大的知识量其在文本理解能力上必然是超越BERT簇模型的。指令微调Prompt工程的大模型生成式方法在文本理解类任务上并没有充分利用到大模型的丰富知识那么能否参考BERT式的微调方法将大模型的参数权重作为基座去针对性适配下游任务呢答案是可行的因为大模型本质也是一个transformer模型网络只不过预训练的方式不同而已只需要在网络的最后一层添加对应的任务层即可。不过在实际落地时这种方式可能面临这样的问题 目前主流的大模型参数通常在7B以上的量级使用这种参数量的模型即使是使用lora微调训练和在线推理预测的成本也是不小的为了某个单个任务的精度提升而去过拟合一个大模型看上去得不偿失。 不过上述问题在通义千问发布了0.5B、1.8B的模型后得到了极大的缓解。相对于7B的参数量1.8B左右的模型在训练成本与推理的时延等方面都能得到足够的控制。因此本次实验就以qwen1.5-1.8B为基准模型来探索它结合了BERT式微调方法后的效果。 方法描述 大模型使用BERT式的微调方法其实很简单甚至transformers的库都已经帮我们写好了直接使用Qwen2ForSequenceClassification即可其他的流程就跟传统的文本分类流程一样就行了。另外需要手动指定tokenizer的pad_token_id否则在构建Dataset数据进行tokenize的时候会报错。 整个训练流程其实与传统文本任务相似但是有一些训练中的细节内容我想在下面着重分享一下。 **base模型通常比chat模型的微调效果更好。**我在不同参数量的模型上均做了一些训练尝试发现base模型的效果通过会比chat模型要好。这是因为chat模型通常会对base模型进行一些对齐训练使其在安全性、幻觉程度、用户友好程度等方面得到提升但是会因为一些“对齐税”导致模型丧失部分基础能力或者知识。 NEFT方法在微调中的增益效果是稳定的。NEFT简单来说就是在embedding层引入一些噪声从而增强模型的鲁棒性。我感觉这个方法与之前竞赛中常用的对抗训练技巧FGM有类似的思想。简单来说就是在前向计算的时候给embedding层增加噪声扰动在梯度计算结束和参数更新之间要将embedding还原回去通过这种方式增强模型的鲁棒性。 NEFT方法: https://arxiv.org/pdf/2310.05914.pdf FGM方法: https://zhuanlan.zhihu.com/p/91269728 **建议使用lora微调。**通过实验对比发现lora微调和全参数微调的效果几乎没有明显差距。那么训练参数更少的lora方式显然更值得推荐使用lora后微调的参数(340M)恰好与bert-large参数量相当;在设置lora参数时建议将embedding参数也加入训练。我使用的参数配置见下 lora_config LoraConfig( r32, # low rank lora_alpha64, # alpha scaling, scale lora weights/outputs target_modules[q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj], #if you know lora_dropout0.1, biasnone, modules_to_save[score,embed_tokens], task_typeTaskType.SEQ_CLS # 文本分类使用该类型 ) 如果使用chatglm3进行BERT式微调时如果使用bf16精度可能会遇到一个bug。它的modeling_chatglm.py脚本中没有指定对任务dense层的参数进行正确的参数初始化在训练的时候任务dense层的参数都会精度溢出从而导致loss一直是nan。修改的方式也很简单增加指定的参数初始化方法就行。代码行15-18的部分就是新增的代码。 class ChatGLMPreTrainedModel(PreTrainedModel): An abstract class to handle weights initialization and a simple interface for downloading and loading pretrained models. is_parallelizable False supports_gradient_checkpointing True config_class ChatGLMConfig base_model_prefix transformer _no_split_modules [GLMBlock] def _init_weights(self, module: nn.Module): Initialize the weights. if isinstance(module, nn.Linear): module.weight.data.normal_(mean0.0, stdself.config.initializer_range) if module.bias is not None: module.bias.data.zero_() return 结果 下面列出使用qwen1.5-1.8B模型进行BERT式微调与前述的方法效果对比。 可以看到qwen1.5-1.8BBERT式微调lora的组合在整体F1精度和小样本标签类别的F1精度都是最好的。当整体数据集的量级比较少的时候qwen1.5-1.8BBERT式微调lora对于小样本标签类别的表现也是不错的证明其在小样本学习能力上也是有提升的。 结论是否适用其他分类任务 当然仅在一个任务上的实验结果肯定是不足以支持上述的结论的为了验证这种方式是否能够在文本分类通用任务上有不错的效果我又在两个开源的数据集上进行了验证分别是THUCnews数据集以及Iflytek文本分类数据集。下面列出BERT-baseline以及qwen1.5-1.8BBERT式微调lora的组合的分类F1指标对比。 THUCnews数据集: http://thuctc.thunlp.org/#%E4%B8%AD%E6%96%87%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB%E6%95%B0%E6%8D%AE%E9%9B%86THUCNews Iflytek数据集: https://aistudio.baidu.com/datasetdetail/243969 注意以下所列指标为本人自己训练后的结果比公开出来的数据指标会低一点因为我不太喜欢干调参的活就随机选了超参数不过bert与qwen两者训练的通用参数是保持一致目标是验证qwen是否能够对bert有效果的提升所以不建议与公开榜单指标做对比。 可以看到qwen1.5-1.8BBERT式微调lora在其他分类任务上的精度相较于bert-large来说还是能有不错的提升。 结论适用于其他参数量的模型吗 答案是肯定的。实际上我还尝试了qwen1.5-4B,qwen1.5-7B,chatglm3-6B,minicpm等模型结果下面列出部分数据集的效果。 随着大模型参数量的增加BERT式微调的效果似乎并没有随着参数显著得提升可以看到的是即使是BERT式微调方法也无法利用大模型更多的参数知识了。结合应用实际成本的考量选择qwen1.5-1.8B似乎是当前性价比最高的。 当然我对上述结果也不是完全没有疑问的。**最大的变数在于这些国内大模型是否在预训练的时候将这些开源的数据集包含进去了。**如果在训练的时候就见过这些数据那么对上述结果的真实性就需要进一步验证了。 应用落地的“新姿势” 采用BERT式的微调方式由于是让模型尽量过拟合某个下游任务微调后它就无法适配其他类型的任务了因此在实际应用时对于不同的任务会微调部署多个独立的模型。对于大模型来说如果每个任务都单独部署一个模型从应用成本上来看显然是不可控的。但通过上述的lora微调可以有效得降低应用部署的显存成本。 1、训练阶段针对不同的任务使用不同lora单独进行训练得到独立的lora权重。 其实我尝试过MTDNN的多任务同时训练的方式即增加lora的参数规模然后同时训练不同的分类任务目的是用一个模型cover多个任务。具体做法是在数据预处理batch的时候根据不同任务的数据量比例通过采样的方式采样某个任务的1batch数据参与当前step的训练。然后通过在模型定义时指定对应任务与任务dense层的映射关系来保证每个任务都能使用正确的。 MTDNN方法: https://github.com/microsoft/MT-DNN class MTDNNForSequenceClassification(Qwen2PreTrainedModel): def __init__(self, config,task_configs): super().__init__(config) # self.num_labels config.num_labels self.model Qwen2Model(config) # self.score nn.Linear(config.hidden_size, self.num_labels, biasFalse) self.task_heads nn.ModuleDict({ ftask_{task_name}: nn.Linear(config.hidden_size, config_task[num_labels]) for task_name, config_task in task_configs.items() }) self.task_configs task_configs self.dropout nn.Dropout(config.classifier_dropout) # Initialize weights and apply final processing self.post_init() 然而我尝试了各种不同的参数组合对上述提到的所有数据集进行了实验发现都无法保证所有的数据集都能得到理想的效果推测还是因为数据集之间会存在“拖后腿”的情况这种方法要成功最好是找一些特征类似的数据才能得到互相增强的效果。最后还是决定每个任务使用独立的lora单独训练。 2、在部署推理的时候我们只需要先将一个qwen1.5-1.8B的基础模型加载到显存中然后根据任务类型来动态决定使用哪个lora权重合并到基础模型中具体可参考这篇博文 https://zhuanlan.zhihu.com/p/691710751 简单来说就是对multi-lora进行切换的操作。不过这种方式可能会增加单次预测的推理时延额外增加了lora卸载和装载的操作时间可以综合当前硬件情况以及应用服务的使用频次对高频次、时延要求比较高的任务单独部署独立的模型服务对于低频次、时延要求低的任务采用上述multi-lora切换的模式。 小结 本文主要目的是探讨大模型应用在传统NLP任务上的有效性和增益通过一个细分的文本理解任务——文本分类研究了大模型应用的不同“姿势”。最终发现将大模型结合BERT式微调的方法在标注语料比较充分的时候相对于已有的BERT类方法还能有进一步的精度提升同时在部署推理成本上的投入也是可控的另外对于小样本标签类别的学习能力也能够帮助提升对于边界case的处理。当整体的标注数据语料比较匮乏的时候也不妨可以应用大模型sftprompt工程的模式辅助技术团队进行冷启动在积累一定的标注语料后可以切换成上述BERT式的微调方式以提升任务的精度。 大模型AI产品经理如何学习 求大家的点赞和收藏我花2万买的大模型学习资料免费共享给你们来看看有哪些东西。 1.学习路线图 第一阶段 从大模型系统设计入手讲解大模型的主要方法 第二阶段 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用 第三阶段 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统 第四阶段 大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统 第五阶段 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型 第六阶段 以SD多模态大模型为主搭建了文生图小程序案例 第七阶段 以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。 2.视频教程 网上虽然也有很多的学习资源但基本上都残缺不全的这是我自己整理的大模型视频教程上面路线图的每一个知识点我都有配套的视频讲解。 都打包成一块的了不能一一展开总共300多集 因篇幅有限仅展示部分资料需要点击下方图片前往获取 3.技术文档和电子书 这里主要整理了大模型相关PDF书籍、行业报告、文档有几百本都是目前行业最新的。 4.LLM面试题和面经合集 这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。 学会后的收获 • 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力 • 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求 • 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握 • 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。 1.AI大模型学习路线图 2.100套AI大模型商业化落地方案 3.100集大模型视频教程 4.200本大模型PDF书籍 5.LLM面试题合集 6.AI产品经理资源合集 获取方式 有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】
http://www.zqtcl.cn/news/936819/

相关文章:

  • 泉州网站优化lamp环境做网站
  • 设计常用网站网站常见程序问题
  • 做网站竟然不知道cms如何添加网站图标
  • 东莞阳光网站官网缘魁上海网站建设
  • 山西孝义网站开发平面设计类网站有哪些
  • 手机版怎么做微电影网站青岛网站设计定制
  • 部队织梦网站模板免费下载红河网站建设代理
  • 网站开发学院网页制作模板html图片
  • 企业门户网站模板html上线网站备案和实名认证
  • 抖音代运营内容seo职业规划
  • dedecms网站制作教程做网站买好域名怎么办
  • 网站建立于网页设计ai网站设计
  • 青海省建设工程造价网站电商设计网站培训
  • 软件开发过程的阶段划分优化手机访问网站速度
  • 知名网站建设公司做分销网站好吗
  • 服务器php网站打不开潍坊网站模板在哪
  • 网站管理员要干些什么开发公司专票
  • 陕西省建设银行网站6网站都有什么类型的
  • 哪里有做网站设计全国室内设计学校
  • 简单的网站php开发教程账户竞价托管哪里好
  • dede网站搬家教程浙江省住房和城乡建设部网站
  • 网站分页符怎么做做网站是什么意思
  • 影视网站开发工程师店铺装修
  • ip138查询网站网址域名ip网站外包制作
  • 网站建设需求怎么写网站seo快速排名优化
  • 网站后台文章添加成功 不显示注册安全工程师是干什么的
  • 网页制作网站建设百度网站推广费用多少钱
  • 长沙网站建设软件wordpress加菜单
  • 网站建设教育板块wordpress $pagenow
  • 岳阳手机网站建设自己可以给公司做网站吗