当前位置: 首页 > news >正文

无锡地区做网站人才网站源码

无锡地区做网站,人才网站源码,网站建设从入门到精通,wordpress 做图片书生浦语大模型全链路开源体系-第4课 书生浦语大模型全链路开源体系-第4课相关资源XTuner 微调 LLMXTuner 微调小助手认知环境安装前期准备启动微调模型格式转换模型合并微调结果验证 将认知助手上传至OpenXLab将认知助手应用部署到OpenXLab使用XTuner微调多模态LLM前期准备启动… 书生·浦语大模型全链路开源体系-第4课 书生·浦语大模型全链路开源体系-第4课相关资源XTuner 微调 LLMXTuner 微调小助手认知环境安装前期准备启动微调模型格式转换模型合并微调结果验证 将认知助手上传至OpenXLab将认知助手应用部署到OpenXLab使用XTuner微调多模态LLM前期准备启动微调结果验证微调前的模型验证微调后的模型验证 书生·浦语大模型全链路开源体系-第4课 为了推动大模型在更多行业落地应用让开发人员更高效地学习大模型的开发与应用上海人工智能实验室重磅推出书生·浦语大模型实战营为开发人员提供大模型学习和开发实践的平台。 本文是书生·浦语大模型全链路开源体系-第4课的课程实战。 相关资源 InternLM项目地址 https://github.com/InternLM/InternLM https://github.com/InternLM/XTuner InternLM2技术报告 https://arxiv.org/pdf/2403.17297.pdf 书生·万卷 数据 https://opendatalab.org.cn/ 课程链接 https://www.bilibili.com/video/BV15m421j78d/ XTuner 微调 LLM XTuner 一个大语言模型多模态模型微调工具箱。由 MMRazor 和 MMDeploy 联合开发。 傻瓜化 以 配置文件 的形式封装了大部分微调场景0基础的非专业人员也能一键开始微调。 轻量级 对于 7B 参数量的LLM微调所需的最小显存仅为 8GB 消费级显卡✅colab✅ 使用 XTuner 进行大模型微调的步骤 环境安装假如我们想要用 XTuner 这款简单易上手的微调工具包来对模型进行微调的话那我们最最最先开始的第一步必然就是安装XTuner安装基础的工具是一切的前提只有安装了 XTuner 在我们本地后我们才能够去思考说具体怎么操作。 前期准备那在完成了安装后我们下一步就需要去明确我们自己的微调目标了。我们想要利用微调做一些什么事情呢那我为了做到这个事情我有哪些硬件的资源和数据呢假如我们有对于一件事情相关的数据集并且我们还有足够的算力资源那当然微调就是一件水到渠成的事情。就像 OpenAI 不就是如此吗但是对于普通的开发者而言在资源有限的情况下我们可能就需要考虑怎么采集数据用什么样的手段和方式来让模型有更好的效果。 启动微调在确定了自己的微调目标后我们就可以在 XTuner 的配置库中找到合适的配置文件并进行对应的修改。修改完成后即可一键启动训练训练好的模型也可以仅仅通过在终端输入一行指令来完成转换和部署工作 XTuner 微调小助手认知 环境安装 执行以下命令创建一个新的conda虚拟环境。 /root/share/install_conda_env_internlm_base.sh xtuner0.1.17新的虚拟环境创建完成。 执行以下命令安装 xtuner。 conda activate xtuner0.1.17 mkdir -p /root/xtuner cd /root/xtuner git clone -b v0.1.17 https://github.com/InternLM/xtuner cd xtuner pip install -e .[all]xtuner安装完成。 前期准备 执行以下命令创建微调的工作目录、准备微调用的数据集。 mkdir -p /root/xtuner/xtuner0117/ft-sales cd /root/xtuner/xtuner0117/ft-sales ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b ./internlm2-chat-1_8b mkdir sales touch sales/sales.json vi sales/sales.json执行以下命令复制微调需要用到的配置文件。 xtuner list-cfg -p internlm2_chat xtuner copy-cfg internlm2_chat_1_8b_qlora_alpaca_e3 . mv internlm2_chat_1_8b_qlora_alpaca_e3_copy.py internlm2_chat_1_8b_qlora_sales_e3.py修改配置文件internlm2_chat_1_8b_qlora_sales_e3.py主要指定模型路径和数据集路径。 启动微调 当所有准备工作的完成后可以执行以下命令开始启动微调。 xtuner train ./internlm2_chat_1_8b_qlora_sales_e3.py模型加载。 数据集加载。 开始微调并评估微调结果。 微调完成后会得到work_dirs目录该目录下的*.pth文件就是微调的结果。 模型格式转换 模型转换的本质其实就是将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 Huggingface 格式文件那么我们可以通过以下指令来实现一键转换。 mkdir hf export MKL_SERVICE_FORCE_INTEL1 export MKL_THREADING_LAYERGNU xtuner convert pth_to_hf ./internlm2_chat_1_8b_qlora_sales_e3.py ./work_dirs/internlm2_chat_1_8b_qlora_sales_e3/iter_684.pth ./hf转换完成后会得到Huggingface格式的文件在hf目录下。 模型合并 对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型而是一个额外的层adapter。那么训练完的这个层最终还是要与原模型进行组合才能被正常的使用。 而对于全量微调的模型full其实是不需要进行整合这一步的因为全量微调修改的是原模型的权重而非微调一个新的 adapter 因此是不需要进行模型整合的。 在 XTuner 中也是提供了一键整合的指令。 xtuner convert merge ./internlm2-chat-1_8b ./hf ./merged --max-shard-size 2GB整合完成后的模型在merged目录下这是一个具有完整结构的模型目录。 微调结果验证 整合完成后可以对微调结果进行验证。 在 XTuner 中也直接的提供了一套基于 transformers 的对话代码让我们可以直接在终端与 Huggingface 格式的模型进行对话操作。我们只需要准备我们刚刚转换好的模型路径并选择对应的提示词模版prompt-template即可进行对话。假如 prompt-template 选择有误很有可能导致模型无法正确的进行回复。 在命令行模式下执行以下命令即可进行结果验证。 xtuner chat ./merged --prompt-template internlm2_chat我们也可以创建streamlit应用通过Web端进行验证。 通过命令启动streamlit应用。 streamlit run sreamlit_demo.py建立SSH隧道实现端口转发之后打开浏览器访问应用。 输入对话内容可以看到微调效果。 将认知助手上传至OpenXLab 在OpenXLab点击创建创建模型进入创建模型界面。 在模型配置界面输入模型的详细信息点击立即创建创建一个空的模型仓库。 通过模型文件页的下载按钮可以获取到模型仓库的地址。 通过密钥管理菜单创建一个Git访问令牌权限设置为可写。 通过带密钥的仓库地址克隆模型仓库到开发机将本地合并后的merged目录下的所有文件复制到克隆的仓库目录sales-chat-1_8b下并使用git命令添加所有文件并进行提交。 提交以后OpenXLab中模型仓库的模型文件如下。 将认知助手应用部署到OpenXLab 首先在Github上创建一个项目仓库将项目文件上传到仓库中文件包含 ├─OpenXLab-IntelligentSalesAssistant │ ├─app.py # 应用默认启动文件为app.py应用代码相关的文件包含模型推理、前端配置代码 │ ├─requirements.txt # 安装运行所需要的 Python 库依赖pip 安装 │ ├─packages.txt # 安装运行所需要的 Debian 依赖项 apt-get 安装 | ├─README.md # 编写应用相关的介绍性的文档 │ └─... 在OpenXLab点击创建创建应用。 在弹出的对话框中选择应用类型是Streamlit。 在详情页面输入应用的详细信息、指定Github仓库地址、选择应用协议和硬件资源等信息点击立即创建。 接下来等待代码拉取、构建、应用启动。 应用启动完成后即可正常访问使用。 应用地址https://openxlab.org.cn/apps/detail/AI-Labs/IntelligentSalesAssistant 使用XTuner微调多模态LLM 前期准备 激活用于微调的虚拟环境创建一个新的目录复制官方提供的多模态微调配置脚本用于进行多模态微调。 准备一幅用于微调的图片。 准备对于该图片的微调数据集。 对微调配置脚本进行修改主要修改其中的模型路径、数据集路径、图片路径等信息。 启动微调 执行命令启动微调。 xtuner train llava_internlm2_chat_1_8b_qlora_finetune.py加载模型。 加载数据集。 执行微调并进行评估。 微调完成后在work_dirs目录下会生成一个*.pth文件这个就是微调的结果文件。 结果验证 微调前的模型验证 执行命令将微调前的*.pth文件转换成HuggingFace格式的文件。 export MKL_SERVICE_FORCE_INTEL1 export MKL_THREADING_LAYERGNUxtuner convert pth_to_hf llava_internlm2_chat_1_8b_clip_vit_large_p14_336_e1_gpu8_pretrain /root/share/new_models/xtuner/iter_2181.pth iter_2181_hf转换完成。 通过xtuner chat命令可以与微调前的模型进行对话。 xtuner chat /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b --visual-encoder /root/share/new_models/openai/clip-vit-large-patch14-336 --llava iter_2181_hf --prompt-template internlm2_chat --image images/image.jpg可以看到微调前的模型只会标注图片。 微调后的模型验证 执行命令将微调后的*.pth文件转换成HuggingFace格式的文件。 export MKL_SERVICE_FORCE_INTEL1 export MKL_THREADING_LAYERGNUxtuner convert pth_to_hf llava_internlm2_chat_1_8b_qlora_finetune.py work_dirs/llava_internlm2_chat_1_8b_qlora_finetune/iter_212.pth iter_212_hf转换完成。 通过xtuner chat命令可以与微调前的模型进行对话。 xtuner chat /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b --visual-encoder /root/share/new_models/openai/clip-vit-large-patch14-336 --llava iter_2181_hf --prompt-template internlm2_chat --image images/image.jpg可以看到微调后的模型认识了该图片并且能够描述、回答关于该图片的信息。 至此使用XTuner微调大模型、多模态的内容完成。
http://www.zqtcl.cn/news/946015/

相关文章:

  • 网站服务器服务商wordpress特效主题
  • 大型大型网站制作wordpress产品相册
  • 古董做推广哪个网站好租空间开网站
  • 巴中网站建设开发公司网站上传在空间哪里
  • 哈尔滨网站建设赚钱么宁波大型网站制作
  • 自助网站搭建群晖搭建的wordpress外网访问
  • 社区网站建设申请报告WordPress评论通知邮箱
  • 佛山网站建设技术托管建设网站容易吗
  • 网站开发的层级结构iis6.0如何做网站301
  • 做旅游那些网站好个人博客怎么做
  • 中国最好网站建设公司网站前台做好之后再怎么做
  • 焦作整站优化app开发报价单及方案
  • 网站开发合同验收怎样建立网站 优帮云
  • 池州哪家做网站wordpress方小程序主题
  • 免费建设网站入驻七牛云存储wordpress
  • 上海专业的网站吕梁做网站公司
  • 网站视频链接国际物流网站模板
  • 用asp.net和access做的关于校园二手网站的论文网站环境搭建好后怎么做网站
  • 如何查网站的外链哈尔滨微信网站开发
  • 洛阳设计网站公司建设银行网站 购买外汇
  • 做视频网站的备案要求吗给工厂做代加工
  • 网站建设技术外包西安推荐企业网站制作平台
  • 建立一个做笔记的网站石家庄网站优化
  • 服务器创建多个网站吗中铁雄安建设有限公司网站
  • 建湖建网站的公司网站建设人工费
  • 沈阳公司网站设计公司怎么投放广告
  • 上海哪家做网站关键词排名如何做简洁网站设计
  • 网站维护的内容seo网站关键词优化哪家好
  • 东阳市网站建设西安做网站选哪家公司
  • 宁津网站开发万能应用商店下载