当前位置: 首页 > news >正文

电商网站建设 平台wordpress页面重定向循环

电商网站建设 平台,wordpress页面重定向循环,全网推广外包公司,网线插座接法stuff 策略 加载 arXiv 论文#xff0c;让模型总结前 2000 字 这里采用的是 stuff 策略#xff0c;也就是将一大段文本。按字数分割成 N 个文本块#xff0c;又合并成一个大的文本块。 对超大规模不友好#xff0c;没有区分文档重要性#xff0c;适合文档量较少场景 i… stuff 策略 加载 arXiv 论文让模型总结前 2000 字 这里采用的是 stuff 策略也就是将一大段文本。按字数分割成 N 个文本块又合并成一个大的文本块。 对超大规模不友好没有区分文档重要性适合文档量较少场景 import os from dotenv import load_dotenv from langchain_community.llms import Tongyi load_dotenv(key.env) # 指定加载 env 文件 key os.getenv(DASHSCOPE_API_KEY) # 获得指定环境变量 DASHSCOPE_API_KEY os.environ[DASHSCOPE_API_KEY] # 获得指定环境变量 model Tongyi(temperature1)from langchain_core.prompts import PromptTemplate, format_document from langchain_core.output_parsers import StrOutputParser from langchain_community.document_loaders import ArxivLoader from langchain.text_splitter import RecursiveCharacterTextSplitter# 加载 arXiv 上的论文《ReAct: Synergizing Reasoning and Acting in Language Models》 loader ArxivLoader(query2210.03629,load_max_docs1 # 加载第一个匹配的文档 ) docs loader.load() print(docs[0].metadata)# 把文本分割成 500 字一组的切片 text_splitter RecursiveCharacterTextSplitter(chunk_size500,chunk_overlap0 # 要求文本没有重叠 ) chunks text_splitter.split_documents(docs)# 构建 Stuff 形态即文本直接拼合的总结链 doc_prompt PromptTemplate.from_template({page_content}) chain ({content: lambda docs: \n\n.join(format_document(doc, doc_prompt) for doc in docs)}| PromptTemplate.from_template(用中文总结以下内容不需要人物介绍字数控制在 50 字以内\n\n{content})| model| StrOutputParser() ) # 由于论文很长我们只选取前 2000 字作为输入并调用总结链 res chain.invoke(chunks[:4]) print(res)MapReduce 策略 对每个文本块最一个回答最后汇总到一起 但适合超大成千上万的文档量因为是并行mapreduce 需要不同提示词模版多次调用问答模型效率低 import os from dotenv import load_dotenv from langchain_community.llms import Tongyi load_dotenv(key.env) # 指定加载 env 文件 key os.getenv(DASHSCOPE_API_KEY) # 获得指定环境变量 DASHSCOPE_API_KEY os.environ[DASHSCOPE_API_KEY] # 获得指定环境变量 model Tongyi(temperature1)from functools import partial from langchain_core.prompts import PromptTemplate, format_document from langchain_core.output_parsers import StrOutputParser from langchain_community.document_loaders import ArxivLoader from langchain.text_splitter import RecursiveCharacterTextSplitter# 加载 arXiv 上的论文《ReAct: Synergizing Reasoning and Acting in Language Models》 loader ArxivLoader(query2210.03629, load_max_docs1) docs loader.load()# 把文本分割成 500 字一组的切片 text_splitter RecursiveCharacterTextSplitter(chunk_size 500,chunk_overlap 50 # 允许文档重叠字数 ) chunks text_splitter.split_documents(docs)# 构建工具函数将 Document 转换成字符串 document_prompt PromptTemplate.from_template({page_content}) partial_format_document partial(format_document, promptdocument_prompt)# 构建 Map 链对每个文档都先进行一轮总结 map_chain ({context: partial_format_document}| PromptTemplate.from_template(Summarize this content:\n\n{context})| model| StrOutputParser() )# 构建 Reduce 链合并之前的所有总结内容 reduce_chain ({context: lambda strs: \n\n.join(strs)}| PromptTemplate.from_template(Combine these summaries:\n\n{context})| model| StrOutputParser() )# 把两个链合并成 MapReduce 链 map_reduce map_chain.map() | reduce_chain res map_reduce.invoke(chunks[:4], config{max_concurrency: 5}) print(res)Refine 策略 也是多轮但每一轮输入都只包含一个文档以及之前轮次的中间回答 优势 每次只需要针对一个文档生成回答避免过长 context回答是逐步推理和完善的而不是一次性塞入所有信息可以自定义每轮的提示词模版实现更精细的控制 劣势 文档顺序对结果又很大影响需要智能排序计算时间高 import os from dotenv import load_dotenv from langchain_community.llms import Tongyi load_dotenv(key.env) # 指定加载 env 文件 key os.getenv(DASHSCOPE_API_KEY) # 获得指定环境变量 DASHSCOPE_API_KEY os.environ[DASHSCOPE_API_KEY] # 获得指定环境变量 llm Tongyi(temperature1)from functools import partial from operator import itemgetter from langchain_core.prompts import PromptTemplate, format_document from langchain_core.output_parsers import StrOutputParser from langchain_community.document_loaders import ArxivLoader from langchain.text_splitter import RecursiveCharacterTextSplitter# 加载 arXiv 上的论文《ReAct: Synergizing Reasoning and Acting in Language Models》 loader ArxivLoader(query2210.03629, load_max_docs1) docs loader.load()# 把文本分割成 500 字一组的切片 text_splitter RecursiveCharacterTextSplitter(chunk_size500,chunk_overlap50 ) chunks text_splitter.split_documents(docs)# 构建工具函数将 Document 转换成字符串 document_prompt PromptTemplate.from_template({page_content}) partial_format_document partial(format_document, promptdocument_prompt)# 构建 Context 链总结第一个文档并作为后续总结的上下文 first_prompt PromptTemplate.from_template(Summarize this content:\n\n{context}) context_chain {context: partial_format_document} | first_prompt | llm | StrOutputParser()# 构建 Refine 链基于上下文上一次的总结和当前内容进一步总结 refine_prompt PromptTemplate.from_template(Heres your first summary: {prev_response}. Now add to it based on the following context: {context} ) refine_chain ({prev_response: itemgetter(prev_response),context: lambda x: partial_format_document(x[doc]),}| refine_prompt| llm| StrOutputParser() )# 构建一个负责执行 Refine 循环的函数 def refine_loop(docs):summary context_chain.invoke(docs[0])for i, doc in enumerate(docs[1:]):summary refine_chain.invoke({prev_response: summary, doc: doc})return summaryres refine_loop(chunks[:4]) print(res)
http://www.zqtcl.cn/news/440582/

相关文章:

  • 做网站需要注册公司吗夫唯seo系统培训
  • 沈阳人流哪个医院好安全百度关键词优化怎么做
  • 1688网站怎么做分销高质量的网站内容建设
  • 网站建设公司济宁网站转跳怎么做
  • 镇江网站设计多少钱企业网络部署方案
  • 建网站的公司浩森宇特wordpress登录缓存
  • 便宜建站空间战队头像在线制作免费
  • 做招聘网站赚钱吗厦门网站建设哪里好
  • 新乡网站建设哪家公司好阿里巴巴做国际网站多少钱
  • 怎么在悉尼做网站dede做手机网站
  • 企业网站模板免费下载品牌建设专家库推荐表
  • 辽宁智能网站建设推荐网络营销推广方案创意
  • 安阳做一个网站多少钱东营做网站公司
  • 深圳市罗湖网站建设百度自助建站官网
  • 网站开发安装环境网站建设销售话术
  • 网站权重网站栏目划分的原则
  • 国际网站建设的目的我的百度账号登录
  • 温州网站设计定制博客和网站的区别
  • 益阳建设网站wordpress加载图片慢
  • 网站官网阜新网站开发公司
  • 适合做网站的图片印刷公司网站模板
  • 南昌哪家网站建设最好网站建设的方法有
  • 东莞做网站 动点官网百度开户流程
  • 中力建设网站怎么做自己的门户网站
  • 做的网站必须放做音乐网站的目地
  • 网站备案下来以后怎么做网页万网创始人张向东
  • 怎么做网站官方电话品牌营销策划十大要点
  • 上海自适应网站深圳网络推广外包
  • 网站的建设模式是指什么时候开始外网视频网站做泥声控
  • 免费在线观看电影电视剧网站网站建设公司哪家好 在线磐石网络