当前位置: 首页 > news >正文

网站建设优化方案photoshop下载安装

网站建设优化方案,photoshop下载安装,集团网站设计建设,怎么建立自己的网站什么是RAG LLM会产生误导性的 “幻觉”#xff0c;依赖的信息可能过时#xff0c;处理特定知识时效率不高#xff0c;缺乏专业领域的深度洞察#xff0c;同时在推理能力上也有所欠缺。 正是在这样的背景下#xff0c;检索增强生成技术#xff08;Retrieval-Augmented G…什么是RAG LLM会产生误导性的 “幻觉”依赖的信息可能过时处理特定知识时效率不高缺乏专业领域的深度洞察同时在推理能力上也有所欠缺。 正是在这样的背景下检索增强生成技术Retrieval-Augmented GenerationRAG应时而生成为 AI 时代的一大趋势。 RAG 通过在语言模型生成答案之前先从广泛的文档数据库中检索相关信息然后利用这些信息来引导生成过程极大地提升了内容的准确性和相关性。RAG 有效地缓解了幻觉问题提高了知识更新的速度并增强了内容生成的可追溯性使得大型语言模型在实际应用中变得更加实用和可信。 一个典型的RAG的例子 这里面主要包括包括三个基本步骤 索引 — 将文档库分割成较短的 Chunk并通过编码器构建向量索引。 2. 检索 — 根据问题和 chunks 的相似度检索相关文档片段。 3. 生成 — 以检索到的上下文为条件生成问题的回答。 通义千问1.5 Qwen1.5版本年前开源了包括0.5B、1.8B、4B、7B、14B和72B在内的六种大小的基础和聊天模型同时也开源了量化模型。不仅提供了Int4和Int8的GPTQ模型还有AWQ模型以及GGUF量化模型。为了提升开发者体验Qwen1.5的代码合并到Hugging Face Transformers中开发者现在可以直接使用transformers4.37.0 而无需 trust_remote_code。 与之前的版本相比Qwen1.5显著提升了聊天模型与人类偏好的一致性并且改善了它们的多语言能力。所有模型提供了统一的上下文长度支持支持32K上下文。还有基础语言模型的质量也有所小幅改进。 Qwen1.5全系列统一具备强大的链接外部系统能力agent/RAG/Tool-use/Code-interpreter。 正因为Qwen1.5作为中文LLM率先合入了Transformers我们也可以使用LLaMaIndex的原生HuggingFaceLLM来加载模型。 LLaMaIndex LlamaIndex 是一个基于 LLM 的应用程序的数据框架受益于上下文增强。 这种LLM系统被称为RAG系统代表“检索增强生成”。LlamaIndex 提供了必要的抽象可以更轻松地摄取、构建和访问私有或特定领域的数据以便将这些数据安全可靠地注入 LLM 中以实现更准确的文本生成。 GTE文本向量 文本表示是自然语言处理(NLP)领域的核心问题, 其在很多NLP、信息检索的下游任务中发挥着非常重要的作用。近几年, 随着深度学习的发展尤其是预训练语言模型的出现极大的推动了文本表示技术的效果, 基于预训练语言模型的文本表示模型在学术研究数据、工业实际应用中都明显优于传统的基于统计模型或者浅层神经网络的文本表示模型。这里, 我们主要关注基于预训练语言模型的文本表示。 GTE-zh模型使用retromae初始化训练模型之后利用两阶段训练方法训练模型第一阶段利用大规模弱弱监督文本对数据训练模型第二阶段利用高质量精标文本对数据以及挖掘的难负样本数据训练模型。 技术交流群 前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~ 我们建了大模型算法岗技术与面试交流群 想要进交流群、需要源码资料、提升技术的同学可以直接加微信号mlc2060。加的时候备注一下研究方向 学校/公司CSDN即可。然后就可以拉你进群了。 方式①、微信搜索公众号机器学习社区后台回复加群 方式②、添加微信号mlc2060备注技术交流 最佳实践 环境配置与安装 python 3.10及以上版本 pytorch 1.12及以上版本推荐2.0及以上版本 建议使用CUDA 11.4及以上 本文主要演示的模型推理代码可在魔搭社区免费实例PAI-DSW的配置下运行显存24G 第一步点击模型右侧Notebook快速开发按钮选择GPU环境 第二步新建Notebook 安装依赖库 !pip install llama-index llama-index-llms-huggingface ipywidgets !pip install transformers -U import logging import syslogging.basicConfig(streamsys.stdout, levellogging.INFO) logging.getLogger().addHandler(logging.StreamHandler(streamsys.stdout))from IPython.display import Markdown, display import torch from llama_index.llms.huggingface import HuggingFaceLLM from llama_index.core.prompts import PromptTemplate from modelscope import snapshot_download from llama_index.core.base.embeddings.base import BaseEmbedding, Embedding from abc import ABC from typing import Any, List, Optional, Dict, cast from llama_index.core import (VectorStoreIndex,ServiceContext,set_global_service_context,SimpleDirectoryReader, )加载大语言模型 因为Qwen本次支持了Transformers使用HuggingFaceLLM加载模型模型为Qwen1.5-4B-Chat # Model names qwen2_4B_CHAT qwen/Qwen1.5-4B-Chatselected_model snapshot_download(qwen2_4B_CHAT)SYSTEM_PROMPT You are a helpful AI assistant. query_wrapper_prompt PromptTemplate([INST]SYS\n SYSTEM_PROMPT /SYS\n\n{query_str}[/INST] )llm HuggingFaceLLM(context_window4096,max_new_tokens2048,generate_kwargs{temperature: 0.0, do_sample: False},query_wrapper_promptquery_wrapper_prompt,tokenizer_nameselected_model,model_nameselected_model,device_mapauto,# change these settings below depending on your GPUmodel_kwargs{torch_dtype: torch.float16}, )加载数据导入测试数据 !mkdir -p data/xianjiaoda/ !wget https://modelscope.oss-cn-beijing.aliyuncs.com/resource/rag/xianjiaoda.md -O data/xianjiaoda/xianjiaoda.md documents SimpleDirectoryReader(/mnt/workspace/data/xianjiaoda/).load_data() documents构建Embedding类 加载GTE模型使用GTE模型构造Embedding类 embedding_model iic/nlp_gte_sentence-embedding_chinese-base class ModelScopeEmbeddings4LlamaIndex(BaseEmbedding, ABC):embed: Any Nonemodel_id: str iic/nlp_gte_sentence-embedding_chinese-basedef __init__(self,model_id: str,**kwargs: Any,) - None:super().__init__(**kwargs)try:from modelscope.models import Modelfrom modelscope.pipelines import pipelinefrom modelscope.utils.constant import Tasks# 使用modelscope的embedding模型包含下载self.embed pipeline(Tasks.sentence_embedding, modelself.model_id)except ImportError as e:raise ValueError(Could not import some python packages. Please install it with pip install modelscope.) from edef _get_query_embedding(self, query: str) - List[float]:text query.replace(\n, )inputs {source_sentence: [text]}return self.embed(inputinputs)[text_embedding][0].tolist()def _get_text_embedding(self, text: str) - List[float]:text text.replace(\n, )inputs {source_sentence: [text]}return self.embed(inputinputs)[text_embedding][0].tolist()def _get_text_embeddings(self, texts: List[str]) - List[List[float]]:texts list(map(lambda x: x.replace(\n, ), texts))inputs {source_sentence: texts}return self.embed(inputinputs)[text_embedding].tolist()async def _aget_query_embedding(self, query: str) - List[float]:return self._get_query_embedding(query)建设索引 加载数据后基于文档对象列表或节点列表建设他们的index就可以方便的检索他们。 embeddings ModelScopeEmbeddings4LlamaIndex(model_idembedding_model) service_context ServiceContext.from_defaults(embed_modelembeddings, llmllm) set_global_service_context(service_context)index VectorStoreIndex.from_documents(documents) 查询和问答 搭建基于本地知识库的问答引擎 query_engine index.as_query_engine() response query_engine.query(西安交大是由哪几个学校合并的?) print(response)
http://www.zqtcl.cn/news/481152/

相关文章:

  • html免费网站模板下载有什么网站学做标书的
  • 哪里做网站seo深圳专业做网站专业
  • 网站建设名词解析自己制作免费网页
  • 网站开发深圳公司企业自助建站的网站
  • 珠海网站建设平台中国软文网官网
  • 绵阳学校网站建设wordpress 采集站
  • 免费设计软件下载网站大全贵州seo技术培训
  • wordpress网站+搬家自做购物网站多少钱
  • 用自己网站做淘宝客深圳上市公司一览表
  • 如何用图片文字做网站建设部网站安全事故
  • 订制网站网易企业邮箱怎么修改密码
  • 一小时做网站网上免费设计效果图
  • 网站如何注册域名公司主页填什么
  • 南宁国贸网站建设网站跟网页有什么区别
  • 兰州企业 网站建设短链接在线转换
  • 长沙网上商城网站建设方案导航网站系统
  • 网站更换目录名如何做301跳转网站活泼
  • 化妆品网站网页设计怎样在淘宝网做网站
  • 邢台建站湛江海田网站建设招聘
  • 免费个人网站建站能上传视频吗中国舆情在线网
  • 网站开发项目的心得体会惠州建设厅网站
  • 网站小程序怎么做北京单位网站建设培训
  • 北京市专业网站建设广州安全教育平台登录账号登录入口
  • 广州做网站的价格三个关键词介绍自己
  • 基于工作过程的商务网站建设:网页制作扬州网站建设公元国际
  • wordpress著名网站微信公众号怎么做网站链接
  • 长沙网站建设大概多少钱深圳做网站网络营销公司
  • 融资平台排行榜企业网站seo运营
  • 英文手表网站南昌装修网站建设
  • 网站建设要懂哪些技术甘肃园区网络搭建