当前位置: 首页 > news >正文

自己做网站要买域名吗wordpress忘记密码修改数据库

自己做网站要买域名吗,wordpress忘记密码修改数据库,福建公司网站建设,jq 网站头部广告代码LangChain实战#xff1a;老喻干货店社交网络Agent一 如果您也在准备AIGC前端全栈#xff0c;LangChain是最成熟的AI应用开发框架。欢迎点赞收藏#xff0c;一起学习AI。 LangChain 一 hello LLM LangChain 二 模型 LangChain 三 Data Connections LangChain 四 Prompts Lan…LangChain实战老喻干货店社交网络Agent一 如果您也在准备AIGC前端全栈LangChain是最成熟的AI应用开发框架。欢迎点赞收藏一起学习AI。 LangChain 一 hello LLM LangChain 二 模型 LangChain 三 Data Connections LangChain 四 Prompts LangChain 五 输出解析器 LangChain 六 链 LangChain 七 Memory 前言 在了解LangChain各个模块后我打算用它来实战一下。最好的方式就是在自己熟悉的业务场景中使用LangChain和LLM先开发一款效率工具。老喻干货店开门(微博、抖音营业 需要一款社交网络工具。开干 社交网络工具 项目需求 老喻干货店一直以来通过微信、抖音、小红书等自媒体宣传推广流量还可以。网销团队计划在微博结合一些节日、食补效用来提升品牌公众形象想联系一些大V。 AIGC开发部门着手开发一个社交网络工具帮助网销团队在微博上找到适合做干货推广的大V, 再由网销同学联系跟进。 技术分析 利用LangChain的搜索Chain, 找到微博中对干货、食补有兴趣的大V,返回UID。写爬虫爬取大V公开信息以JSON格式输出。 结合爬虫内容让LLM写一篇热烈的干货店介绍邀请大V合作。这里会用到LangChain的PromptTemplate。 给大V的合作邀请结构是一样的内容由LLM生成并替换模板占位符。 基于Flask 将以上功能交付给网销部门使用。 查找大V 我们来编写代码找到大V的微博UID python复制代码# 环境变量设置 import os os.environ[OPENAI_API_KEY] os.environ[SERPAPI_API_KEY] # 正则模块 import re # 核心开发一个weibo_agent find_v方法 from agents.weibo_agent import find_Vif __name __main__:response_UID find_v(food_type助眠)print(response_UID)# 从返回结果中正则所有的UID数字UID re.findall(r\d, response_UID)[0]print(这位大V的微博ID是, UID)weibo_agent 我们如何在微博中找到合适的UID呢一起来编写find_V方法吧。 ini复制代码# tools_search_tool后面会编写 from tools_search_tool import get_UID # 模板 from langchain.prompts import PromptTemplate from langchain.chat_models import ChatOpenAI # 准备定制Agent from langchain.agents import initialize_agent, Tool from langchain.agents import AgentTypedef find_V(food_type: str):llm ChatOpenAI(temperature0,model_namegpt-3.5-turbo)template given the {food} I want you to get a related 微博 UID.Your answer should contain only a UID.The URL always starts with https://weibo.com/u/for example, if https://weibo.com/u/3659536733 is her 微博, then 3659536733 is him UID This is only the example dont give me this, but the actual UID prompt_template PromptTemplate(input_variables[food],templatetemplate ) tools [Tool(nameCrawl Google for 微博 page,funcget_UID,descriptionuseful for when you need get the 微博UID) ]agent initialize_agent(tools,llm,agentAgentType.ZERO_SHOT_REACT_DESCRIPTION,verboseTrue )ID agent.run(prompt_template.format_prompt(foodfood_type)) return ID我们在上面的代码里定义了一个agent, 只需要提供食补的类型就可以拿到agent返回的UID。  怎么才能创建自定义的agent呢langchain.agents提供了initialize_agent和Tool, 第一个参数tools,里面会使用SERPAPI 搜索Google 里面关于某食补类型的内容第二个参数是llm,这里用的是gpt-3.5-turbo getUID 基于SerpAPI 我们来编写getUID方法Serapi还是很好用的。 python复制代码# langchain 集成了 SerpAIWrapper from langchain.utilities import SerpAIWrapper def get_UID(food: str):Searches for Weibo Page.search SerpAPIWrapper()res search.run(f{food})return res 我们拿到UID是3659536733。 爬虫爬取大V信息 我们想通过爬虫爬取该博主的更多消息然后交给LLM,写出来更贴合该博主的信。 scss复制代码import tools.scraping_tool import get_dataperson_infoget_data(UID) print(person_info)我们去scraping_tool文件编写get_data方法。 python复制代码import json # json解析 import requests #发送请求 import time #时间def scrape_weibo(url: str):爬取相关博主的资料# 请求头 User-Agent 是浏览器 referer 模拟从weibo来的请求headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36, Referer: https://weibo.com }cookies { cookie: XSRF-TOKENjCAr102IQXscTQRd7oiWJHNd; _s_tentryweibo.com; Apache6810542648902.247.1705544482842; SINAGLOBAL6810542648902.247.1705544482842; ULV1705544482874:1:1:1:6810542648902.247.1705544482842:; login_sid_t4db8114a45221d16e8b2e6615dfe87b6; cross_origin_protoSSL; WBStorage267ec170|undefined; wb_view_log1536*8641.5625; appkey; ALF1708172494; SUB_2A25IrWeeDeRhGeFG4loX9ibNzT2IHXVrw-VWrDV8PUJbkNANLVf4kW1NeEJzgg-RTtGReh4uqIEtPdRGyaHrY8kr; SUBP0033WrSXqPxfM725Ws9jqgMF55529P9D9WFvfQyx9vEP24qqLWHkWI.e5JpX5KzhUgL.FoMR1KncSonpSo22dJLoIp7LxKML1KBLBKnLxKqL1hnLBoMN1h.RSoqReKqp; WB_register_version2024011820; PC_TOKEN1e81ac50e2; geetest_tokenc721c191b12c41ef9109dbf095409a17; WBPSESSmsnmVvfK_YdwWssvCXfqySIcW3p-MeD70Q_UYKlHyE5MFdGotEm-s9R7CJhhLso-3Byf6VVu-zl7eoyYKpYLyiw_Yb8Gq9FPyrEe8NCIFDAPC3ycBpeLw_o7C5zaC4VUWv1pe-kTvTKYlHVpFfPCwQ response requests.get(url, headersheaders,cookiescookies) time.sleep(2) # 加上2秒的延时 防止被反爬 return response.textdef get_data(id):url https://weibo.com/ajax/profile/detail?uid{}.format(id)html scrape_weibo(url)response json.loads(html)return response我们可以通过https://weibo.com/ajax/profile/detail?uid3659536733页面查找博主的信息返回的格式为json。 爬虫代码也比较简单我们使用了headers来模拟了浏览器请求带上了cookies模拟登录状态从而获取需要权限的内容。 这样我们就获取了博主的信息我们再移除一些不重要的内容等下AIGC需要的是中文所以非中文可以移除。 python复制代码import redef contains_chinese(s):return bool(re.search([\u4e00-\u9fa5], s))def remove_non_chinese_fields(d):if isinstance(d, dict):to_remove [key for key, value in d.items() if isinstance(value, (str, int, float, bool)) and (not contains_chinese(str(value)))]for key in to_remove:del d[key]for key, value in d.items():if isinstance(value, (dict, list)):remove_non_chinese_fields(value)elif isinstance(d, list):to_remove_indices []for i, item in enumerate(d):if isinstance(item, (str, int, float, bool)) and (not contains_chinese(str(item))):to_remove_indices.append(i)else:remove_non_chinese_fields(item)for index in reversed(to_remove_indices):d.pop(index)总结 今天我们完成了查找适合推广食疗干货的大V微博UID, 并且爬取了大V的资料。下篇文章我们将继续生成邀请内容方便营销同学联系大V提高其工作效率。 我们使用到了一下LangChain组件: PromptTemplateLLMChainAgent定制Agent Tool 参考资料 黄佳老师的LangChain课
http://www.zqtcl.cn/news/995140/

相关文章:

  • 写作网站哪个最好企业培训机构有哪些
  • 江苏省水利工程建设局网站域名不备案可以正常使用吗
  • 对网站开发语言的统计网站内容建设包括什么
  • 西安高端网站建设怎样开公司
  • 华为做网站免费签名设计在线生成
  • 网站产品整合推广爱网聊的男人是什么心理
  • 武威市建设厅网站汕头seo外包公司
  • 酒泉网站怎么做seo东莞高明网站设计
  • 沧州网站建设联系电话杭州设计公司logo
  • 网站子站点是什么意思亚马逊国际站官网
  • 影视cms哪个好苏州关键词优化搜索排名
  • 杭州微信网站开发网站优化公司免费咨询
  • 宣武富阳网站建设南昌公众号开发公司
  • 免费的网站推荐下载wordpress %s
  • 网站的原理百度旧版本下载
  • 衡水网站建设地方新网域名证书下载
  • 自己做的创意的网站什么是淘宝seo
  • 网站开发包含哪些网站设计实例
  • 网站建设 核算棋牌源码论坛
  • 杭州网站建设案例网页设计程序
  • 网站建设的相关问题湛江网站开发
  • 网站开发作业wordpress用户角色
  • 品牌网站制作建设微信小程序开发需要什么技术
  • 新网站注册国内食品行业网站开发
  • 太原微商网站建设网站里面的视频功能怎么做的
  • 绿色做环保网站的好处网易企业邮箱登录登录入口
  • 卯兔科技网站建设网站验收时项目建设总结报告
  • 触摸网站手机wordpress建立模板下载
  • 做暧在线观看网站网站建设与管理工资
  • 横岗网站建设无锡网站seo外包