当前位置: 首页 > news >正文

国外网站建设素材办公空间设计主题名称

国外网站建设素材,办公空间设计主题名称,网页设计代码图片大全高清,手机有些网址打不开怎么解决在人工智能的浪潮中#xff0c;以GPT4、Claude3、Llama 3等大型语言模型#xff08;LLM#xff09;无疑是最引人注目的潮头。这些模型通过在海量数据上的预训练#xff0c;学习到了丰富的语言知识和模式#xff0c;展现了出惊人的能力。在支撑这些大型语言模型应用落地方面…在人工智能的浪潮中以GPT4、Claude3、Llama 3等大型语言模型LLM无疑是最引人注目的潮头。这些模型通过在海量数据上的预训练学习到了丰富的语言知识和模式展现了出惊人的能力。在支撑这些大型语言模型应用落地方面文本向量化模型Embedding Model的重要性也不言而喻。 近期我在浏览huggingface发现国产自研文本向量化模型acge_text_embedding以下简称“acge模型”已经在业界权威的中文语义向量评测基准C-MTEBChinese Massive Text Embedding Benchmark中获得了第一名。今天这篇文章将围绕以下问题为大家带来acge_text_embedding模型解读以及应用思考 • 文本向量化acge模型是什么原理是什么 • acge模型能达到什么样的效果取得了什么样的成绩 • 文本向量化模型的突破与检索增强生成RAG的联系 一、文本向量化模型新突破——acge模型 1.1、文本向量化模型 文本向量化模型是自然语言处理NLP中的一项核心技术它可以将单词、句子或图像特征等高维的离散数据转换为低维的连续向量从而将文本数据转换为计算机能够处理的数值型向量形式。如下图所示文本向量化模型通过将“家常菜烹饪指南”转换为数值向量可以将文本信息表示成能够表达文本语义的向量。 当文本信息被转换为向量形式后输出的结果能够进一步地为多种后续任务提供有力支持如 搜索向量化使得搜索引擎能够根据查询字符串和文档之间的向量相似性来排名搜索结果排名靠前的结果通常与查询字符串最相关。聚类在文本聚类任务中向量化可以被用来度量文本之间的相似性从而将文本分组成不同的类别或簇。推荐向量化可帮助构建用户和项目的表示特征使得推荐系统可以根据用户历史行为或偏好计算用户向量与项目向量之间的相似度从而向用户推荐具有相关性的项目。异常检测在异常检测任务中向量化可用于将文本数据映射到一个向量空间中并通过度量文本向量与正常数据之间的距离或相似性来识别与正常行为不同的异常值。多样性测量通过向量化可以分析文本数据在向量空间中的分布情况从而评估文本数据的多样性。分类向量化能够将文本数据转换为数值型向量表示从而使得分类算法可以根据文本向量与不同类别之间的相似性来将文本数据分类到最相似的标签或类别中。 而acge模型则是文本向量化模型的一种。 1.2、acge模型简述 在主体框架上acge_text_embedding模型主要运用了俄罗斯套娃表征学习Matryoshka Representation Learning以下简称MRL这一灵活的表示学习框架。 类似于俄罗斯套娃结构MRL 产生的嵌入向量也是一个嵌套结构其旨在创建一个嵌套的、多粒度的表示向量每个较小的向量都是较大向量的一部分并且可以独立用于不同的任务。在训练时MRL根据指定维度[64,128,...,2048,3072]的向量来计算多个loss。使得用户在推理时可以根据自己的实际需求输入维度参数来得到指定维度的向量。 MRL的优化问题可以表示为 min ⁡ { W ( m ) } m ∈ M , θ F 1 N ∑ i ∈ [ N ] ∑ m ∈ M c m ⋅ L ( W ( m ) ⋅ F ( x i ; θ F ) 1 : m ; y i ) \min_{\{W(m)\}_{m \in M}, \theta_F} \frac{1}{N} \sum_{i \in [N]} \sum_{m \in M} c_m \cdot L(W(m) \cdot F(x_i; \theta_F)_{1:m}; y_i) {W(m)}m∈M​,θF​min​N1​i∈[N]∑​m∈M∑​cm​⋅L(W(m)⋅F(xi​;θF​)1:m​;yi​) 其中 L : R L × [ L ] → R L: \mathbb{R}^{L \times [L]} \rightarrow \mathbb{R}^ L:RL×[L]→R是多类softmax交叉熵损失函数而 F ( ⋅ ; θ F ) : X → R d F(\cdot; \theta_F): X \rightarrow \mathbb{R}^d F(⋅;θF​):X→Rd是由参数 θ F \theta_F θF​参数化的深度神经网络N是数据点的数量L是类别的数量。 这种方法的核心思想是学习不同粒度的信息允许一个嵌入向量在保持准确性和丰富性的同时适应不同计算资源的需求并可以无缝地适应大多数表示学习框架并且可以扩展到多种标准计算机视觉和自然语言处理任务。 运用MRL技术实现一次训练获取不同维度的表征acge模型实现了从粗到细的层次化表示从而提供了一种在推理和部署时不需要额外成本的灵活表示。另外具体实践上为做好不同任务的针对性学习acge模型使用策略学习训练方式显著提升了检索、聚类、排序等任务上的性能引入持续学习训练方式克服了神经网络存在灾难性遗忘的问题使模型训练迭代能够达到相对优秀的收敛空间。 二、acge模型效果评估 2.1、acge模型结果复现 下面我们对acge模型进行结果复现acge模型提供了预训练好的模型供试用与性能复现首先安装sentence_transformers依赖 !pip install --upgrade sentence_transformers安装完成后我们可以将源文本source_text设置为“家常菜烹饪指南”将想要计算相似度的目标文本target_text设置为[“西红柿炒鸡蛋做法”, “农家小炒肉做法”, “上海本帮菜肴传统烹饪技艺”, “汽车维修指南——检测、维修、拆装与保养”]进行测试 from sentence_transformers import SentenceTransformer# 若无法访问huggingface可以在先离线下载模型到本地 model SentenceTransformer(acge_text_embedding) source_text [家常菜烹饪指南] target_text [西红柿炒鸡蛋做法, 农家小炒肉做法, 上海本帮菜肴传统烹饪技艺, 汽车维修指南——检测、维修、拆装与保养] embs1 model.encode(source_text, normalize_embeddingsTrue) embs2 model.encode(target_text, normalize_embeddingsTrue) similarity embs1 embs2.T print(similarity)也可以通过huggingface上给的API来进行试用 最终计算结果如下 西红柿炒鸡蛋做法0.495 农家小炒肉做法0.618 上海本帮菜肴传统烹饪技艺0.581 汽车维修指南——检测、维修、拆装与保养0.277 其中数值代表了表示源文本与目标文本之间的语义相关性相似度值越接近于1文本之间的语义相关性越强在这个例子中我们可以看到不同领域的文本与源文本 “家常菜烹饪指南” 之间的相似度评估结果。 对于与烹饪相关的文本如 “西红柿炒鸡蛋做法”、“农家小炒肉做法”、“上海本帮菜肴传统烹饪技艺”文本向量化模型表现出了较高的相似度值这说明了该模型在捕捉烹饪领域文本之间的语义关联性方面的有效性。这种模型对于具有相似主题或语义的文本能够提供准确的相似度评估这对于文本分类、推荐系统等任务具有重要意义。然而对于与汽车维修相关的文本相似度值较低这是因为该文本与源文本的语义相关性较低。这突显了该模型的另一个优势即其能够根据文本内容捕捉不同领域的语义特征从而对文本进行有效的区分。 这说明acge模型能够有效地从文本中提取语义特征并将其转化为向量表示并且能够对文本之间的语义相关性进行准确的度量。 2.2、C-MTEB评估复现 C-MTEB是一个全面评估中文向量化模型通用性的基准其收集35个公开可用的数据集涵盖了六大类任务收集了35个公开可用的中文数据集这些数据集涵盖了分类、聚类、检索、排序、文本相似度、STS等多种任务类型为中文向量化模型的研究提供了统一的评估标准和有力的支持。 下面复现acge模型在C-MTEB的效果首先使用pip安装C_MTEB依赖 pip install -U C_MTEB然后输入以下代码对acge_text_embedding进行评估 import torch import argparse import functools from C_MTEB.tasks import * from typing import List, Dict from sentence_transformers import SentenceTransformer from mteb import MTEB, DRESModelclass RetrievalModel(DRESModel):def __init__(self, encoder, **kwargs):self.encoder encoderdef encode_queries(self, queries: List[str], **kwargs) - np.ndarray:input_texts [{}.format(q) for q in queries]return self._do_encode(input_texts)def encode_corpus(self, corpus: List[Dict[str, str]], **kwargs) - np.ndarray:input_texts [{} {}.format(doc.get(title, ), doc[text]).strip() for doc in corpus]input_texts [{}.format(t) for t in input_texts]return self._do_encode(input_texts)torch.no_grad()def _do_encode(self, input_texts: List[str]) - np.ndarray:return self.encoder.encode(sentencesinput_texts,batch_size512,normalize_embeddingsTrue,convert_to_numpyTrue)def get_args():parser argparse.ArgumentParser()parser.add_argument(--model_name_or_path, defaultacge_text_embedding, typestr)parser.add_argument(--task_type, defaultNone, typestr)parser.add_argument(--pooling_method, defaultcls, typestr)parser.add_argument(--output_dir, defaultzh_results,typestr, helpoutput directory)parser.add_argument(--max_len, default1024, typeint, helpmax length)return parser.parse_args()if __name__ __main__:args get_args()encoder SentenceTransformer(args.model_name_or_path).half()encoder.encode functools.partial(encoder.encode, normalize_embeddingsTrue)encoder.max_seq_length int(args.max_len)task_names [t.description[name] for t in MTEB(task_typesargs.task_type,task_langs[zh, zh-CN]).tasks]TASKS_WITH_PROMPTS [T2Retrieval, MMarcoRetrieval, DuRetrieval, CovidRetrieval, CmedqaRetrieval,EcomRetrieval, MedicalRetrieval, VideoRetrieval]for task in task_names:evaluation MTEB(tasks[task], task_langs[zh, zh-CN])if task in TASKS_WITH_PROMPTS:evaluation.run(RetrievalModel(encoder), output_folderargs.output_dir, overwrite_resultsFalse)else:evaluation.run(encoder, output_folderargs.output_dir, overwrite_resultsFalse) 在https://huggingface.co/spaces/mteb/leaderboard上可以看到acge模型已经在目前业界最全面、最权威的中文语义向量评测基准C-MTEBChinese Massive Text Embedding Benchmark的榜单中获得了第一名的成绩。 由上表可以看到acge_text_embedding模型在“Classification Average (9 datasets)”这一列中acge_text_embedding取得了72.75的分数显示出在文本分类任务上的优秀性能在“Average (35 datasets)”这一列中取得了69.07的最高分数表明在多个数据集上的综合出色表现另外其相对适中的模型大小和内存大小在模型规模和计算效率方面达到了良好的平衡。 与Baichuan-text-embedding相比它在性能上更为出色同时在处理多样化任务时具有更高的灵活性。而与阿里云的OpenSearch-text-hybrid相比acge_text_embedding的通用性更强能够适用于多种文本处理任务。 除此之外据合合信息开发团队成员介绍相比于传统的预训练或微调垂直领域模型acge模型支持在不同场景下构建通用分类模型、提升长文档信息抽取精度且应用成本相对较低可帮助大模型在多个行业中快速创造价值为构建新质生产力提供强有力的技术支持。 三、文本向量化模型的突破与检索增强生成RAG 截至今天以GPT4、Claude3、Llama 3等大型语言模型在各种任务上已经表现得越来越为出色然而在应用当中仍然存在一定局限性 知识的局限性现有的主流大模型的训练集基本都是构建于网络公开的数据但是当询问某个最新事件的细节或者关于特定领域的深入知识时虽然模型会努力生成一个答案但由于它并没有直接接触过这个事件的相关信息其细节并不准确。幻觉问题所有的AI模型的底层原理都是基于数学概率其模型输出实质上是一系列数值运算大模型也不例外所以它有时候会一本正经地胡说八道这种幻觉问题非常容易导致信息的误判数据安全性对于企业来说数据安全至关重要没有企业愿意承担数据泄露的风险将自身的私域数据上传第三方平台进行训练。 为了应对这类应用场景检索增强生成模型RAG应运而生RAG模型的核心思想是在生成阶段引入检索机制从预定义的知识库中检索相关信息并将其合并到生成的文本中。这种方式能够弥补LLM在特定领域或最新知识方面的不足从而提高了生成文本的准确性和相关性。其主要流程如下 在RAG流程中向量化模型负责将文档集合中的信息编码成向量表示并且在用户查询时帮助检索出最相关的文档片段这些文档片段的内容被并入用户输入中并指导大语言模型基于这些文档片段生成回应。 用户可能会提出类似于“西红柿炒鸡蛋需要放糖吗放多少合适”这样的问题。在这种情况下向量化模型可以把各种食材、烹饪技巧、口味偏好等关键特征翻译成机器能够理解的“语言”然后捕捉并理解它们之间的关系比如它们常常一起出现在哪些菜谱中这些菜谱又有着怎样的口味特点。这样通过构建相关领域核心概念间的关联关系RAG就能轻松地在海量的烹饪数据中检索到相关的信息从而有更大的机会检索到与用户查询匹配的最相关文档片段。最终生成的答案就更准确、权威并且更能满足用户的需求。 acge模型正是这样一种向量化模型其具备良好的文本理解能力和表示学习能力能够将文档的语义信息转化为高质量的向量表示有效地捕捉文档的语义和内容信息从而帮助模型准确地检索到与查询相关的文档片段。 随着acge模型在文本向量化任务上的提升可以预见的是幻觉和时效性的问题将得到进一步解决大模型的可用性也将得到了有效提升从而更好为诸如金融、咨询、教育等行业的智能客服、知识问答、合规风控、营销顾问等场景提供加持。 可以说合合信息在深研智能文档处理领域之后再次突破了文本向量化领域达到了文本向量化模型的新高度。合合信息TextIn智能文字识别产品基于自研的文字识别技术、智能文档处理技术能够快速将纸质文档或图片中的文字信息转化为计算机可读的文本格式在纸质文档电子化、办公文档/报表识别、教育类文本识别、快递面单识别、切边增强、弯曲矫正、阴影处理、印章检测、手写擦除等诸多场景中提供更好的文档管理解决方案帮助企业实现数字化转型和自动化管理。 欢迎登录textin官网了解详情https://www.textin.com/?frommarket-csdn-cmteb 数十年前图灵抛出的时代之问“Can machines think?”将人工智能从科幻拉至现实奠定了后续人工智能发展的基础。之后无数计算机科学的先驱开始解构人类智能的形成希望找到机器智能的蛛丝马迹。时至今日我们又站在了一个新的起点上机器不仅能够“思考”更能够通过学习新知识和私有知识库与我们进行自然而流畅的对话。
http://www.zqtcl.cn/news/440607/

相关文章:

  • 做网站需要注册公司吗夫唯seo系统培训
  • 沈阳人流哪个医院好安全百度关键词优化怎么做
  • 1688网站怎么做分销高质量的网站内容建设
  • 网站建设公司济宁网站转跳怎么做
  • 镇江网站设计多少钱企业网络部署方案
  • 建网站的公司浩森宇特wordpress登录缓存
  • 便宜建站空间战队头像在线制作免费
  • 做招聘网站赚钱吗厦门网站建设哪里好
  • 新乡网站建设哪家公司好阿里巴巴做国际网站多少钱
  • 怎么在悉尼做网站dede做手机网站
  • 企业网站模板免费下载品牌建设专家库推荐表
  • 辽宁智能网站建设推荐网络营销推广方案创意
  • 安阳做一个网站多少钱东营做网站公司
  • 深圳市罗湖网站建设百度自助建站官网
  • 网站开发安装环境网站建设销售话术
  • 网站权重网站栏目划分的原则
  • 国际网站建设的目的我的百度账号登录
  • 温州网站设计定制博客和网站的区别
  • 益阳建设网站wordpress加载图片慢
  • 网站官网阜新网站开发公司
  • 适合做网站的图片印刷公司网站模板
  • 南昌哪家网站建设最好网站建设的方法有
  • 东莞做网站 动点官网百度开户流程
  • 中力建设网站怎么做自己的门户网站
  • 做的网站必须放做音乐网站的目地
  • 网站备案下来以后怎么做网页万网创始人张向东
  • 怎么做网站官方电话品牌营销策划十大要点
  • 上海自适应网站深圳网络推广外包
  • 网站的建设模式是指什么时候开始外网视频网站做泥声控
  • 免费在线观看电影电视剧网站网站建设公司哪家好 在线磐石网络